Übersicht. Ziele und Maße. Leistungsgrößen. Übersicht. Dr.-Ing. Volkmar Sieh WS 2008/2009. Leistungsgrößen wichtig für
|
|
- Hildegard Becke
- vor 6 Jahren
- Abrufe
Transkript
1 Ziele und Maße Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Ziele und Maße 1/ Ziele und Maße 2/ Leistungsgrößen Leistungsgrößen wichtig für Kaufentscheidungen welches ist die beste Maschine? welches ist die beste Maschine für mein Geld? Designentscheidungen welches Design führt zur besten Maschine? welches Design führt kostengünstig/unter Einhaltung von bestimmten Kosten zur besten Maschine? Beides benötigt Basis für Vergleiche Metrik für Bewertungen Ziele und Maße 3/ Ziele und Maße 4/
2 Leistungsgrößen Beispiel (Flugzeuge): Typ Passagiere Reichweite Geschwindigkeit (mi) (mph) Boeing Boeing Concorde Douglas DC Viele weitere Größen denkbar (Kosten, Verbrauch, Lebensdauer,...) Ziele und Maße 5/ Ziele und Maße 6/ Leistungsgrößen MIPS / MFLOPS Leistungsgrößen für Computer (Beispiele): Raten: MIPS, MFLOPS CPU-Performance oder CPU-Durchsatz Latenz (Antwortzeit) Beschleunigung / Speed up Summarische Bewertung: Benchmarks Definition MIPS / MFLOPS: MIPS: Million Instructions per Second MFLOPS: Million Floating Point Operations per Second Mehr MIPS / MFLOPS = kürzere Ausführungszeit? Ziele und Maße 7/ Ziele und Maße 8/
3 Ausführungszeiten Ausführungszeiten Gesamtzeit zählt alles (Platten- und Speicherzugriffe, I/O,...) interessante Zahl aber häufig unbrauchbar für Vergleiche CPU-Zeit zählt nur die Zeit, die die CPU für die Anwendung gerechnet hat kann in System-Zeit und User-Zeit unterteilt werden User-CPU-Zeit Zeit, die die CPU gebraucht hat, mein Programm abzuarbeiten mein Programm sollte repräsentativ für Workload sein CPU-Performance = 1 / CPU-Zeit Ziele und Maße 9/ Ziele und Maße 10/ Ausführungszeiten Ausführungszeiten Die Ausführung eines Programms braucht eine bestimmte Anzahl von auszuführenden Instruktionen (IC) eine bestimmte, mittlere Anzahl von Takten pro Instruktion (CPI) eine Taktdauer (T) CPU-Zeit = IC * CPI * T Häufig: falsche Annahme, dass eine dieser Zahlen allein etwas über die Performance eines Systems aussagt. Um die Performance eines Systems zu erhöhen, kann man verringern die Anzahl der auszuführenden Instruktionen besserer Algorithmus besserer Compiler mächtigere Befehle (z.b. 16bit -> 32bit) die Anzahl von Takten pro Instruktion parallele Ausführung von Teilen einer Instruktion parallele Ausführung mehrerer Instruktionen die Anzahl von Sekunden pro Takt Verbesserung der Technologie Ziele und Maße 11/ Ziele und Maße 12/
4 Ausführungszeiten CPU-Durchsatz Anzahl der Instruktionen = Anzahl der Taktzyklen? i.a. nein: Multiplikation/Division benötigen mehr Zeit als Addition/Subtraktion. Fließkomma-Operationen benötigen mehr Zeit als Integer-Operationen. Operationen mit Speicherzugriffen benötigen mehr Zeit als Operationen mit Register-Zugriffen.... CPU-Durchsatz Wie viele Jobs kann die Maschine zugleich bearbeiten? Wie lange braucht ein Job im Mittel? Wieviel Arbeit ist pro Tag erledigt? => CPI ist ein Durchschnittswert Eine Erhöhung der Taktrate kann bedeuten, dass einige Befehle mehr Takte zur Ausführung benötigen, da z.b. das Rechenwerk Ergebnisse nicht mehr rechtzeitig liefern kann. Ziele und Maße 13/ Ziele und Maße 14/ Latenzzeiten Speed-Up Verbesserungen ergeben: Antwortzeit / Latenzzeit Beispiel: Wie lange muss ich auf die Antwort einer Datenbankanfrage warten? Wie lange dauert es, bis mein Job drankommt? Wie lange rechnet mein Job? T u von Verbesserung unbeeinflusste Ausführungszeit T e von Verbesserung beeinflusste Ausführungszeit T 1 Ausführungszeit nach Verbesserung I Verbesserung T 1 = T u + T e /I Prinzip: den Normalfall beschleunigen Ziele und Maße 15/ Ziele und Maße 16/
5 Speed-Up Speed-Up - Amdahl s Law Amdahl s Law: Definition Speed-Up: T 0 Ausführungszeit vor Verbesserung T 1 Ausführungszeit nach Verbesserung Speed-Up = T 0 /T 1 T e von Verbesserung beeinflusste Ausführungszeit T 0 Ausführungszeit vor Verbesserung I Verbesserung Speed-Up = 1/((1 β) +β/i) Mit β = T e /T 0 Ziele und Maße 17/ Ziele und Maße 18/ Speed-Up - Amdahl s Law Speed-Up - Amdahl s Law Beispiel für I = 10: Sonderfälle: fürβ= 0 gilt: Speed-Up = 1 fürβ= 1 gilt: Speed-Up = I für sehr große I gilt: Speed-Up = 1/(1 β) Ziele und Maße 19/ Ziele und Maße 20/
6 Speed-Up - Amdahl s Law Speed-Up - Amdahl s Law Beispiel für extrem großes I: Beispiel: Die Floating-Point-Einheit eines Rechners wird verbessert, sodass alle Floating-Point-Operationen fünf mal schneller ablaufen. Wenn die Ausführunsdauer eines Programms vor der Verbesserung 10 Sekunden betrug, wie gross wird der Speed-Up sein, wenn das Programm die Hälfte der 10 Sekunden mit Floating-Point-Operationen verbracht hat? Ziele und Maße 21/ Ziele und Maße 22/ Parallelrechner-Speed-Up Parallelrechner-Speed-Up Parallelrechner-Speed-Up: T e von Verbesserung beeinflusste Ausführungszeit = die Zeit, die im parallelisierbarem Code gerechnet wurde T 0 Ausführungszeit vor Verbesserung = die Zeit, die im Gesamt-Code gerechnet wurde I Verbesserung (Anzahl der Prozessoren) Speed-Up = 1/((1 β) + (β/i)) Mit Beispiel für Parallelrechner-Speed-Up (ASCI Option Red): Anzahl Prozessoren β Speed-Up Obwohl im letzten Beispiel >9000 Prozessoren eingesetzt wurden, obwohl der Parallelisierungsgrad 99% beträgt, ist das Programm nur 99mal schneller. β = T e /T 0 Ziele und Maße 23/ Ziele und Maße 24/
7 Speed-Up - Gustafson s Law Parallelrechner-Speed-Up Umkehrung des Gesetzes von Amdahl: Ein Single-Prozessor-Rechner würde T 1 = T u + N T e Zeiteinheiten brauchen, um die Aufgabe des Parallelrechners zu berechnen. Daraus ergibt sich für den Speed-Up des Parallelrechners: Speed-Up = Tu+NT e T u+t e Nach Umformen und mitβ = Speed-Up = 1 + (N 1)β T e T : e +Tu Amdal s Law ist nur eine Idealisierung für Parallelrechner. Zusatzaufwand fällt bei der Parallelisierung an für die Verteilung der Aufgaben das Einsammeln der Ergebnisse ggf für die Koordinierung der Zugriffe (Mit T e = T e /N ergibt sich Amdahl s Law!) Ziele und Maße 25/ Ziele und Maße 26/ Netzwerk Interessante Zahlen für Punkt-zu-Punkt-Verbindungen: Latenzzeit: wie lange dauert es (minimal), bis eine gesendete Nachricht beim Empfänger empfangen wird Bandbreite: wie viele Bytes können pro Zeiteinheit (maximal) über die Verbindung verschickt werden Ziele und Maße 27/ Ziele und Maße 28/
8 Bisektions-Bandbreite Bisektions-Bandbreite Zahlen für logische Punkt-zu-Punkt-Verbindungen im Parallelrechner-Netzwerk kaum sinnvoll andere Punkt-zu-Punkt-Verbindungen kreuzen (laufen über gleiche Knoten) andere Punkt-zu-Punkt-Verbindungen nutzen gleiche physikalische Verbindungen => Bisektions-Bandbreite Ziele und Maße 29/ Ziele und Maße 30/ Leistungsaufnahme Leistungsaufnahme interessant bei mobilen Rechnern Kühlungsproblemen z.b. viele Komponenten mit hoher Leistungsaufnahme auf kleinem Raum Leistungsaufnahme = Wärmeabgabe! Ziele und Maße 31/ Ziele und Maße 32/
9 Leistungsaufnahme Leistungsaufnahme Leistungsaufnahme reduzierbar durch verbesserte Technologie (z.b. low-voltage, besseres Layout) Komponenten mit geringer Leistungsaufnahme aufgrund verbesserter interner Stukturen zeitweilig abgeschalteten Komponenten (z.b. Platten) zeitweilig ungenutzten Komponenten (z.b. Netzwerk) Komponenten mit steuerbarer Leistungsaufnahme (Taktfrequenz) Leistungsaufnahme i.a. gemessen in Watt (W ) oder Volt-Ampere (VA) heutige Standard-PCs benötigen Netzteile mit ca. 300W Leistung interessanter ist jedoch die Energie, die für eine bestimmte Aufgabe in Wärme umgesetzt wird Energie i.a. gemessen in Joule (J oder Ws) Ziele und Maße 33/ Ziele und Maße 34/ Leistungsaufnahme Leistungsaufnahme bzw. Kühlung wird mehr und mehr zum kritischen Engpass bei High-Performance-Komponenten. hohe Leistungsaufnahme dicke Stromversorgungsleitungen und viele/dicke Pins hohe Kühlleistung große Luftströme und damit große Gehäuse oder aufwändige Wasserkühlung Wärme ist bei modernen Chips kaum noch ableitbar! Ziele und Maße 35/ Ziele und Maße 36/
10 Skalierbarkeit Systeme sollen leicht erweiterbar sein. die Performance die Größe soll steigen. Aufgrund der Erweiterung dürfen die Verfügbarkeit die Wartbarkeit... nicht leiden. Die Probleme vergrößern sich mit der Größe der Systeme! Ziele und Maße 37/ Ziele und Maße 38/ Sicherheit Möglichkeiten: Mikro-Controller schreibt keine ungecrypteten Daten in den Speicher Input/Output ungecryptet Speicherzugriffe gecryptet Programm intern im Mikro-Controller; nicht auslesbar spezielle Crypto-Chips helfen beim Ver-/Entschlüsseln (i.a. beim Netzwerk-Senden/Empfangen) Chips aktivieren sich erst, wenn sie bestimmten Code empfangen haben (z.b. DVD-Laufwerke)... Sicherheit nicht meßbar ; (i.a. unsicherer) boolescher Wert Ziele und Maße 39/ Ziele und Maße 40/
11 Zuverlässigkeit Definitionen Definition: Zuverlässigkeit ist die Eigenschaft eines Systems, dass Vertrauen in die gelieferte Funktionalität gerechtfertigt ist. Zuverlässigkeit ist wie Performance eine QoS (Quality of Service)- Eigenschaft eines Systems. Fault Fehlerursache (z.b. Blitzeinschlag) Error fehlerhafter Zustand (z.b. falsches Bit im Speicher) Failure Ausfall (z.b. Crash des OS) Ziele und Maße 41/ Ziele und Maße 42/ Zuverlässigkeitsgrößen Zuverlässigkeitsgrößen Fault Rate/Fehlerrate Anzahl der Fehlerursachen pro Zeiteinheit Failure Rate/Ausfallrate Anzahl der Ausfälle pro Zeiteinheit Damit verwandt: Mean Time To Failure (MTTF) Mean Time Between Failures (MTBF) Mean Time To Repair (MTTR) (Mean Time Between Repairs (MTBR)) Zuverlässigkeit ist normalerweise beschrieben durch verschiedene Zuverlässigkeitsgrößen. Ziele und Maße 43/ Ziele und Maße 44/
12 Zuverlässigkeitsgrößen Zuverlässigkeitsgrößen Reliability/Überlebenswahrscheinlichkeit Maß für kontinuierlichen, korrekten Service (Zuverlässigkeit in Hinsicht auf Kontinuität des Service) R(t): Wahrscheinlichkeit, dass das System nach der Zeit t noch funktioniert unter der Voraussetzung, dass es zum Zeitpunkt 0 funktioniert hat Unter der Annahme, dass Ausfallrate (λ) zeitunabhängig ist, gilt R(t) = e λt Availability/Verfügbarkeit Maß für korrekten Service der u.u. unterbrochen wird (Zuverlässigkeit in Hinsicht auf Verfügbarkeit eines Service) A(t): Wahrscheinlichkeit, dass das System zum Zeitpunkt t gerade funktioniert A(t) wird i.a. als konstant angenommen Ziele und Maße 45/ Ziele und Maße 46/ Zuverlässigkeitsgrößen Zuverlässigkeitsgrößen Safety/Sicherheit Maß für korrekten Service oder nicht-katastophale Fehler (Zuverlässigkeit in Hinsicht auf das Nicht-Auftreten von katastophalem Fehlverhalten) Wahrscheinlichkeit, dass das System trotz Auftreten eines internen Fehlers keinen katastrophalen Ausfall erleidet (bedingte Wahrscheinlichkeit) Robustness/Robustheit Maß für das noch korrekte Verhalten eines Systems unter dem Einfluss von fehlerhaften Eingaben oder gefährlichen Umgebungseinflüssen Wahrscheinlichkeit, dass das System trotz Auftreten eines (internen) Fehlers keinen Ausfall erleidet und keine fehlerhaften Ausgaben produziert (bedingte Wahrscheinlichkeit) Ziele und Maße 47/ Ziele und Maße 48/
13 Zuverlässigkeitsgrößen Zuverlässigkeitsgrößen Security/Sicherheit Zuverlässigkeit in Bezug auf das Verhindern von unerlaubtem Zugriff auf Informationen boolescher Wert Maintainability/Wartbarkeit Maß für den Aufwand ein System funktionsfähig zu halten bzw. zu reparieren Wartbarkeit beschreibbar z.b. durch die Anzahl von Arbeitsstunden pro Jahr, die für die Wartung notwendig sind Ziele und Maße 49/ Ziele und Maße 50/ Kompatibilität Kompatibilität: alte Software soll weiterhin funktionieren aber: neuer Rechner i.a. schneller => eigentlich inkompatibel alte I/O-Geräte sollen anschließbar bleiben Ziele und Maße 51/ Ziele und Maße 52/
Einleitung Performance Netzwerk Leistungsaufnahme Skalierbarkeit Sicherheit Zuverlässigkeit Kompatibilität. Ziele und Maße. Dr.-Ing.
Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Übersicht 1 Einleitung 2 Performance 3 Netzwerk 4 Leistungsaufnahme 5 Skalierbarkeit 6 Sicherheit
MehrSpezifikation von Kommunikationssystemen
1 / 29 Spezifikation von Kommunikationssystemen 10. Einführung in die Zuverlässigkeitstheorie Prof. Jochen Seitz Fachgebiet Kommunikationsnetze Sommersemester 2016 2 / 29 Übersicht 1 Grundlagen der Zuverlässigkeitstheorie
Mehr4 Rechnerarchitektur RAM
4 Rechnerarchitektur 18.145 RAM Gliederung 1. Mikroelektronik 2. Mikrosysteme 3. VLSI- und Systementwurf 4. Rechnerarchitektur Einleitung Bewertung von Architekturen und Rechnersystemen Klassifikation
MehrBusse. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009
Busse Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Busse 1/40 2008-10-13 Übersicht 1 Einleitung 2 Bus-Konfiguration
MehrBusse. Dr.-Ing. Volkmar Sieh WS 2005/2006. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg
Einleitung Bus-Konfiguration Bus-Arbitrierung Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Einleitung Bus-Konfiguration Bus-Arbitrierung
MehrN Bit Binärzahlen. Stelle: Binär-Digit:
N Bit Binärzahlen N Bit Binärzahlen, Beispiel 16 Bit: Stelle: 15 14 13 12 11 10 9 8 7 6 5 4 3 2 1 0 Binär-Digit: 0 0 1 0 1 0 0 1 1 1 0 0 1 0 0 0 Least Significant Bit (LSB) und Most Significant Bit (MSB)
MehrTechnische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Rechnerarchitektur Aufgabe
MehrJust-In-Time-Compiler (2)
Just-In-Time-Compiler (2) Dr.-Ing. Volkmar Sieh Department Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2011/2012 Just-In-Time-Compiler (2) 1/13 2011-09-12 Just-In-Time-Compiler
MehrJust-In-Time-Compiler (2)
Just-In-Time-Compiler (2) Dr.-Ing. Volkmar Sieh Department Informatik 4 Verteilte Systeme und Betriebssysteme Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2015/2016 V. Sieh Just-In-Time-Compiler
Mehr2.1 Rechnersichten 2.2 Rechnerorganisation: Aufbau und Funktionsweise
Teil 1 Kapitel 2 Rechner im Überblick 2.1 Rechnersichten 2.2 Rechnerorganisation: Aufbau und Funktionsweise Frank Schmiedle Technische Informatik I 2.1 Rechnersichten Modellierung eines Rechners Zusammenspiel
MehrGrundlagen der Rechnerarchitektur. Einführung
Grundlagen der Rechnerarchitektur Einführung Unsere erste Amtshandlung: Wir schrauben einen Rechner auf Grundlagen der Rechnerarchitektur Einführung 2 Vorlesungsinhalte Binäre Arithmetik MIPS Assembler
MehrGrundlagen der Informationsverarbeitung:
Grundlagen der Informationsverarbeitung: Leistungsbewertung Prof. Dr.-Ing. habil. Ulrike Lucke Durchgeführt von Prof. Dr. rer. nat. habil. Mario Schölzel Maximaler Raum für Titelbild (wenn kleiner dann
MehrAssembler - Einleitung
Assembler - Einleitung Dr.-Ing. Volkmar Sieh Department Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2008 Assembler - Einleitung 1/19 2008-04-01 Teil 1: Hochsprache
MehrÜbersicht. Einleitung. Übersicht. Architektur. Dr.-Ing. Volkmar Sieh WS 2008/2009
Übersicht Einleitung 1 Einleitung Dr.-Ing. Volkmar Sieh 2 Technologische Trends Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 3 Historischer
MehrEinleitung. Dr.-Ing. Volkmar Sieh WS 2005/2006. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg
Technologische Trends Historischer Rückblick Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Technologische Trends Historischer Rückblick Übersicht
MehrEinleitung. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2006/2007
Einleitung Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2006/2007 Einleitung 1/50 2006/10/09 Übersicht 1 Einleitung 2 Technologische
MehrWas ist Rechnerleistung
Was ist Rechnerleistung Leistung im engeren Sinne: Leistung gemessen in seltsamen Einheiten, bestimmt vorwiegend von der Zentraleinheit: MIPS (Millionen Instruktionen pro Sekunde) FLOPS (Floating Point
MehrBeispiele von Branch Delay Slot Schedules
Beispiele von Branch Delay Slot Schedules Bildquelle: David A. Patterson und John L. Hennessy, Computer Organization and Design, Fourth Edition, 2012 Grundlagen der Rechnerarchitektur Prozessor 97 Weniger
MehrBibliotheks-basierte Virtualisierung
Dr.-Ing. Volkmar Sieh Department Informatik 4 Verteilte Systeme und Betriebssysteme Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2015/2016 V. Sieh Bibliotheks-basierte Virtualisierung (WS15/16)
MehrEinführung in die Systemprogrammierung
Einführung in die Systemprogrammierung Speedup: Grundlagen der Performanz Prof. Dr. Christoph Reichenbach Fachbereich 12 / Institut für Informatik 30. April 2015 Eine Aufgabe aus der Praxis Gegeben ein
MehrLehrveranstaltung: PR Rechnerorganisation Blatt 8. Thomas Aichholzer
Aufgabe 8.1 Ausnahmen (Exceptions) a. Erklären Sie den Begriff Exception. b. Welche Arten von Exceptions kennen Sie? Wie werden sie ausgelöst und welche Auswirkungen auf den ablaufenden Code ergeben sich
MehrQuiz. Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset.
Quiz Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset 32 Bit Adresse 31 3 29... 2 1 SS 212 Grundlagen der Rechnerarchitektur
MehrAllgemeine Speed-Up Formel. Gesetz von Gustafson-Barsis
5 Leistungsanalyse Parallelrechner Allgemeine Speed-Up Formel Amdahlsche Gesetz Gesetz von Gustafson-Barsis Karp-Flatt Maß 1 5.1 Allgemeine Speed-Up Formel Allgemeine Speed-Up Formel Speedup = Sequentielle
MehrWas ist die Performance Ratio?
Was ist die Performance Ratio? Wie eben gezeigt wäre für k Pipeline Stufen und eine große Zahl an ausgeführten Instruktionen die Performance Ratio gleich k, wenn jede Pipeline Stufe dieselbe Zeit beanspruchen
MehrAssembler Integer-Arithmetik
Assembler Integer-Arithmetik Dr.-Ing. Volkmar Sieh Department Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2008 Assembler Integer-Arithmetik 1/23 2008-04-01 Arithmetik
MehrDatenpfad einer einfachen MIPS CPU
Datenpfad einer einfachen MIPS CPU Zugriff auf den Datenspeicher Grundlagen der Rechnerarchitektur Prozessor 19 Betrachten nun Load und Store Word Erinnerung, Instruktionen lw und sw sind vom I Typ Format:
MehrDatenpfad einer einfachen MIPS CPU
Datenpfad einer einfachen MIPS CPU Zugriff auf den Datenspeicher Grundlagen der Rechnerarchitektur Prozessor 19 Betrachten nun Load und Store Word Erinnerung, Instruktionen lw und sw sind vom I Typ Format:
MehrDatenpfaderweiterung Der Single Cycle Datenpfad des MIPS Prozessors soll um die Instruktion min $t0, $t1, $t2 erweitert werden, welche den kleineren
Datenpfaderweiterung Der Single Cycle Datenpfad des MIPS Prozessors soll um die Instruktion min $t0, $t1, $t2 erweitert werden, welche den kleineren der beiden Registerwerte $t1 und $t2 in einem Zielregister
MehrInhalt. Prozessoren. Curriculum Manfred Wilfling. 28. November HTBLA Kaindorf. M. Wilfling (HTBLA Kaindorf) CPUs 28. November / 9
Inhalt Curriculum 1.4.2 Manfred Wilfling HTBLA Kaindorf 28. November 2011 M. Wilfling (HTBLA Kaindorf) CPUs 28. November 2011 1 / 9 Begriffe CPU Zentraleinheit (Central Processing Unit) bestehend aus Rechenwerk,
MehrLeistungsfähige ARM CPUs für den industriellen Einsatz
Leistungsfähige ARM CPUs für den industriellen Einsatz Layerscape ARM Cortex-A CPUs von NXP mit Features aus der PowerPC Welt. Performance und Echtzeitfähigkeits-Vergleich von ARM und PowerPC. Kei Thomsen,
MehrQuantitative Prinzipien im Hardwareentwurf. 1. Small is fast
Quantitative Prinzipien im Hardwareentwurf 1. Small is fast Kleine Hardwareeinheiten schalten in der Regel schneller als größere. Kleine Transistoren bilden an ihren Gates kleinere Kapazitäten die Source-Drain
MehrHinweise C-Programmierung
Hinweise C-Programmierung Dr.-Ing. Volkmar Sieh Department Informatik 4 Verteilte Systeme und Betriebssysteme Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2016/2017 V. Sieh Hinweise C-Programmierung
MehrSchriftliche Prüfung
OTTO-VON-GUERICKE-UNIVERSITÄT MAGDEBURG FAKULTÄT FÜR INFORMATIK Schriftliche Prüfung im Fach: Rechnersysteme Studiengang: Bachelor (PF CSE / IF; WPF CV / WIF) am: 30. Juli 2008 Bearbeitungszeit: 120 Minuten
Mehr05/2016. Mean Time between Failures (MTBF)
05/2016 Mean Time between Failures (MTBF) https://support.industry.siemens.com/cs/ww/de/view/16818490 Dieser Beitrag stammt aus dem Siemens Industry Online Support. Es gelten die dort genannten Nutzungsbedingungen
MehrCache Grundlagen. Schreibender Cache Zugriff. SS 2012 Grundlagen der Rechnerarchitektur Speicher 22
Cache Grundlagen Schreibender Cache Zugriff SS 212 Grundlagen der Rechnerarchitektur Speicher 22 Eine einfache Strategie Schreibt man nur in den Cache, werden Cache und darunter liegender Speicher inkonsistent.
MehrProgrammierung. Rückblick. VWA - Programmierung Winter Algorithmus. Programmiersprache. Variable. Zuweisung. Bedingung.
Programmierung 1 Rückblick Algorithmus Programmiersprache Variable Zuweisung Bedingung Schleife (c) Peter Sturm, University of Trier 1 3 Aufgabe: Viele, viele bunte Smarties Rechengeschwindigkeit CPU 5
Mehr2. Anforderungen an Automatisierungssysteme
Grundlagen der Automatisierungstechnik (Automatisierungstechnik 1) 2. Anforderungen an Automatisierungssysteme Anforderungen an Automatisierungssysteme Verlässlichkeit (Dependability) Zuverlässigkeit (Reliability)
MehrMultiprozessoren. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011
Multiprozessoren Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Multiprozessoren 1/29 2011-06-16 Multiprozessoren Leistungsfähigkeit
MehrParallel Computing. Einsatzmöglichkeiten und Grenzen. Prof. Dr. Nikolaus Wulff
Parallel Computing Einsatzmöglichkeiten und Grenzen Prof. Dr. Nikolaus Wulff Parallel Architekturen Flynn'sche Klassifizierung: SISD: single Instruction, single Data Klassisches von-neumann sequentielles
MehrRechnerarchitekturen und Mikrosystemtechnik
64-613 RAM 64-613 Rechnerarchitekturen und Mikrosystemtechnik http://tams.informatik.uni-hamburg.de/ lectures/2009ws/vorlesung/ram Andreas Mäder Fakultät für Mathematik, Informatik und Naturwissenschaften
MehrGrundlagen der Rechnerarchitektur. Ein und Ausgabe
Grundlagen der Rechnerarchitektur Ein und Ausgabe Übersicht Grundbegriffe Hard Disks und Flash RAM Zugriff auf IO Geräte RAID Systeme SS 2012 Grundlagen der Rechnerarchitektur Ein und Ausgabe 2 Grundbegriffe
MehrArchitektur/Chip/Komponente
Architektur/Chip/Komponente Dr.-Ing. Volkmar Sieh Department Informatik 4 Verteilte Systeme und Betriebssysteme Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2014/2015 V. Sieh Architektur/Chip/Komponente
Mehr2 Rechnerarchitekturen
2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf
MehrMusterlösungen Technische Informatik 2 (T2) Prof. Dr.-Ing. D. P. F. Möller
SS 2004 VAK 18.004 Musterlösungen Technische Informatik 2 (T2) Prof. Dr.-Ing. D. P. F. Möller Aufgabenblatt 2.5 Lösung 2.5.1 Befehlszähler (Program Counter, PC) enthält Adresse des nächsten auszuführenden
MehrGrundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Einführung Unsere erste Amtshandlung: Wir schrauben einen Rechner auf Grundlagen der Rechnerarchitektur Einführung 2 Vorlesungsinhalte Binäre Arithmetik MIPS Assembler
MehrDas Motherboard (Hauptplatine) beinhaltet Prozessor (CPU), Speicher (RAM) Anschlüsse für interne Disks, Steckkarten, Anschlüsse nach aussen
Das Motherboard (Hauptplatine) beinhaltet Prozessor (CPU), Speicher (RAM) Anschlüsse für interne Disks, Steckkarten, Anschlüsse nach aussen Damit man grosse Zahlen abkürzen kann, behilft man sich dieser
MehrSeminar: Multi-Core Architectures and Programming
Seminar: Multi-Core Architectures and Programming Parallelisierung des Viola-Jones Algorithmus auf Tilera Hardware-Software-Co-Design Universität Erlangen-Nürnberg 1 Übersicht Einleitung Erste Versuche
MehrÜbung 5. Letzte Änderung: 24. Juni 2016
Übung 5 Letzte Änderung: 24 Juni 2016 Parallele Systeme Hardware- Architektur Vektorrechner Rechenfelder Synthese Op mierung Systemon-Chip Netzwerke sta sch dynamisch mehrstufig einstufig Theorie Workloadbalancing
MehrLösungsvorschlag zur 4. Übung
Prof. Frederik Armknecht Sascha Müller Daniel Mäurer Grundlagen der Informatik 3 Wintersemester 09/10 Lösungsvorschlag zur 4. Übung 1 Präsenzübungen 1.1 Schnelltest a) Welche Aussagen zu Bewertungskriterien
MehrPipelining. Die Pipelining Idee. Grundlagen der Rechnerarchitektur Prozessor 45
Pipelining Die Pipelining Idee Grundlagen der Rechnerarchitektur Prozessor 45 Single Cycle Performance Annahme die einzelnen Abschnitte des MIPS Instruktionszyklus benötigen folgende Ausführungszeiten:
Mehr"Organisation und Technologie von Rechensystemen 4"
Klausur OTRS-4, 29.09.2004 Seite 1 (12) INSTITUT FÜR INFORMATIK Lehrstuhl für Rechnerarchitektur (Informatik 3) Universität Erlangen-Nürnberg Martensstr. 3, 91058 Erlangen 29.09.2004 Klausur zu "Organisation
MehrEine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation
Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation Dr. Jan Eitzinger Regionales Rechenzentrum (RRZE) der Universität Erlangen-Nürnberg
Mehr1. Übung Zuverlässigkeit
Grundlagen der Automatisierungstechnik (Automatisierungstechnik ). Übung Zuverlässigkeit Übersicht Lehrstuhl für Automatisierungstechnik und Energiesysteme Prof. Dr.-Ing. Georg Frey, M.Sc. Universität
MehrGrundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Speicher Übersicht Speicherhierarchie Cache Grundlagen Verbessern der Cache Performance Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 2 Speicherhierarchie
MehrGrundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Ein und Ausgabe Übersicht Grundbegriffe Hard Disks und Flash RAM Zugriff auf IO Geräte RAID Systeme SS 2012 Grundlagen der Rechnerarchitektur Ein und Ausgabe 2 Grundbegriffe
MehrSeminar Parallele Rechnerarchitekturen SS04 \ SIMD Implementierung aktueller Prozessoren 2 (Dominik Tamm) \ Inhalt. Seite 1
\ Inhalt Seite 1 \ Inhalt SIMD Kurze Rekapitulation 3Dnow! (AMD) AltiVec (PowerPC) Quellen Seite 2 \ Wir erinnern uns: Nach Flynn s Taxonomie kann man jeden Computer In eine von vier Kategorien einteilen:
MehrTechnische Informatik I - HS 18
Institut für Technische Informatik und Kommunikationsnetze Prof. L. Thiele Technische Informatik I - HS 18 Übung 7 Datum : 22.-23. November 2018 Pipelining Aufgabe 1: Taktrate / Latenz In dieser Aufgabe
MehrFehlertoleranz. Betriebssysteme. Hermann Härtig TU Dresden
Fehlertoleranz Betriebssysteme Hermann Härtig TU Dresden Wegweiser Prinzipien der Fehlertoleranz RAID als ein Beispiel Betriebssysteme WS 2018, Fehlertoleranz!2 Begriffe Grundprinzip Konstruktion zuverlässigerer
MehrHardware PCI-Bus. Dr.-Ing. Matthias Sand. Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg
Hardware PCI-Bus Dr.-Ing. Matthias Sand Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Hardware PCI-Bus 1/23 2008-08-06 Übersicht Inhalt:
MehrHardware PCI-Bus. Dr.-Ing. Matthias Sand. Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg
Hardware PCI-Bus Dr.-Ing. Matthias Sand Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2007/2008 Hardware PCI-Bus 1/23 2007-10-26 Übersicht Inhalt:
MehrTECHNISCHE HOCHSCHULE NÜRNBERG GEORG SIMON OHM Die Mikroprogrammebene eines Rechners Das Abarbeiten eines Arbeitszyklus eines einzelnen Befehls besteht selbst wieder aus verschiedenen Schritten, z.b. Befehl
MehrGrundlagen der Rechnerarchitektur. MIPS Assembler
Grundlagen der Rechnerarchitektur MIPS Assembler Übersicht Arithmetik, Register und Speicherzugriff Darstellung von Instruktionen Logische Operationen Weitere Arithmetik Branches und Jumps Prozeduren 32
MehrCPU. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011
CPU Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 CPU 1/62 2012-02-29 CPU Übersicht: Pipeline-Aufbau Pipeline- Hazards CPU
MehrCache Blöcke und Offsets
Cache Blöcke und Offsets Ein Cache Eintrag speichert in der Regel gleich mehrere im Speicher aufeinander folgende Bytes. Grund: räumliche Lokalität wird wie folgt besser ausgenutzt: Bei Cache Miss gleich
MehrProseminar Technische Informatik WS08/09 bei Georg Wittenburg, M.Sc. Zuverlässigkeit und Fehlertoleranz in der Technik
Proseminar Technische Informatik WS08/09 bei Georg Wittenburg, M.Sc. Zuverlässigkeit und Fehlertoleranz in der Technik Ein Vortrag von Sebastian Oliver Kalwa Berlin, 30.01.2009 1 Was ist Fehlertoleranz?
MehrSpeicherarchitektur (23) Suchen einer Seite:
Speicherarchitektur (23) Suchen einer Seite: Vorlesung Rechnersysteme SS `09 E. Nett 7 Speicherarchitektur (24) Adressschema inklusive Seitenfehler: Vorlesung Rechnersysteme SS `09 E. Nett 8 Speicherarchitektur
MehrCache II. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011
Cache II Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Cache II 1/14 2012-02-29 Schreibstrategien Es sind verschiedene Fälle
MehrDie Bedeutung von Performance
Die Bedeutung von Performance Martin Gaitzsch, Mirek Hancl, Davood Kheiri 8.11.2000 $(LQOHLWXQJµUHODWLYHµ3HUIRUPDQFH Performance interessiert sowohl den Systementwickler als auch den Kunden. Auf der Entwicklungsseite
MehrAuch hier wieder. Control. RegDst Branch MemRead MemtoReg ALUOp MemWrite ALUSrc RegWrite. Instruction[31 26] (also: das Opcode Field der Instruktion)
Auch hier wieder Aus voriger Wahrheitstabelle lässt sich mechanisch eine kombinatorische Schaltung generieren, die wir im Folgenden mit dem Control Symbol abstrakt darstellen. Instruction[31 26] (also:
MehrArithmetik, Register und Speicherzugriff. Grundlagen der Rechnerarchitektur Assembler 9
Arithmetik, Register und Speicherzugriff Grundlagen der Rechnerarchitektur Assembler 9 Arithmetik und Zuweisungen Einfache Arithmetik mit Zuweisung C Programm: a = b + c; d = a e; MIPS Instruktionen: Komplexere
MehrFEHLERTOLERANZ EINE SEHR GROBE ÜBERSICHT BETRIEBSSYSTEME UND SICHERHEIT, WS 2016/17 HERMANN HÄRTIG
Faculty of Computer Science Institute of Systems Architecture, Operating Systems Group FEHLERTOLERANZ EINE SEHR GROBE ÜBERSICHT BETRIEBSSYSTEME UND SICHERHEIT, WS 2016/17 HERMANN HÄRTIG BEGRIFFE Sicherheit/Security/Safety
MehrAllgemeine Lösung mittels Hazard Detection Unit
Allgemeine Lösung mittels Hazard Detection Unit Bildquelle: David A. Patterson und John L. Hennessy, Computer Organization and Design, Fourth Edition, 2012 Grundlagen der Rechnerarchitektur Prozessor 83
MehrMikroprozessortechnik Grundlagen 1
Grundlagen - Grundbegriffe, Aufbau, Rechnerarchitekturen, Bus, Speicher - Maschinencode, Zahlendarstellung, Datentypen - ATMELmega28 Progammierung in C - Vergleich C und C++ - Anatomie eines µc-programmes
MehrDatenpfad einer einfachen MIPS CPU
Datenpfad einer einfachen MIPS CPU Die Branch Instruktion beq Grundlagen der Rechnerarchitektur Prozessor 13 Betrachten nun Branch Instruktion beq Erinnerung, Branch Instruktionen beq ist vom I Typ Format:
MehrGrundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Prozessor Übersicht Datenpfad Control Pipelining Data Hazards Control Hazards Multiple Issue Grundlagen der Rechnerarchitektur Prozessor 2 Datenpfad einer einfachen MIPS
MehrFoliensatz. Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen
Foliensatz Center for Information Services and High Performance Computing (ZIH) Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen Hochgeschwindigkeitskommunikationen 13. Juli
MehrVorlesung: Rechnerstrukturen, Teil 2 (Modul IP7)
Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7) Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7) J. Zhang zhang@informatik.uni-hamburg.de Universität Hamburg AB Technische Aspekte Multimodaler Systeme
Mehr2. Computer (Hardware) K. Bothe, Institut für Informatik, HU Berlin, GdP, WS 2015/16
2. Computer (Hardware) K. Bothe, Institut für Informatik, HU Berlin, GdP, WS 2015/16 Version: 14. Okt. 2015 Computeraufbau: nur ein Überblick Genauer: Modul Digitale Systeme (2. Semester) Jetzt: Grundverständnis
MehrGrundlagen der Informatik III
Grundlagen der Informatik III WS 2008 / 2009 [Folien basierend auf VL von Prof. Dr. Claudia Eckert, WS 07/08] Prof. Dr. rer. nat. Frederik Armknecht Sascha Müller Daniel Mäurer Fachbereich Informatik /
MehrHardware Logik-Analysatoren
Hardware Logik-Analysatoren Dr.-Ing. Matthias Sand Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2010/2011 Hardware Logik-Analysatoren 1/24 2010-10-12
MehrHochschule Düsseldorf University of Applied Sciences HSD RISC &CISC
HSD RISC &CISC CISC - Complex Instruction Set Computer - Annahme: größerer Befehlssatz und komplexere Befehlen höhere Leistungsfähigkeit - Möglichst wenige Zeilen verwendet, um Aufgaben auszuführen - Großer
MehrVerlustleistungsreduzierung in Datenpfaden
Verlustleistungsreduzierung in Datenpfaden F. Grassert, F. Sill, D. Timmermann Inhalt Motivation Analyse der Ausgangssituation Verlustleistung in der Schaltungstechnik Selbstgetaktete dynamische Logiken
MehrHigh-Tech Speicher. NOVOPOS AG Wollerau - - FON
High-Tech Speicher Solid State Drives (SSD) SSD Vorteile Ihr POS System verdient innovativere Technologie! Herkömmliche Festplatten besitzen mechanische Teile, die die Geschwindigkeit begrenzen, grosse
MehrMulticore Architektur vs. Amdahl`s Gesetz
Fakultätsname Informatik, Professur Technische Informatik Multicore Architektur vs. Amdahl`s Gesetz Dresden, 21.Juli.2010 Motivation Veröffentlichung von IEEE Computer 2008 von Mark D. Hill (University
MehrOracle HA-Technologien im Überlick
Oracle HA-Technologien im Überlick Björn Bröhl OPITZ CONSULTING Gummersbach GmbH Seite 1 Übersicht Was bedeutet Hochverfügbarkeit? Oracle HA-Technologien Standby Dataguard Failover-Cluster / Failsafe Seite
MehrArduino Nano. Hello World per LED On-Board LED (Pin D13) Beispiel: Arduino IDE / Beispiele / Basics / Blink 5 / 20
Inhalt Inbetriebnahme Arduino Nano Einführung I2C Bus Inbetriebnahme Real-Time-Clock DS1307 (I2C) Inbetriebnahme 4x 7-Segment Anzeige TM1637 Kombination RTC mit 7-Segment Anzeige => Uhr 2 / 20 Arduino
MehrAufbau und Funktionsweise eines Computers
Aufbau und Funktionsweise eines Computers Thomas Röfer Hardware und Software von Neumann Architektur Schichtenmodell der Software Zahlsysteme Repräsentation von Daten im Computer Praktische Informatik
MehrÜbung 1. Letzte Änderung: 5. Mai 2017
Übung 1 Letzte Änderung: 5. Mai 2017 Abhängigkeitsanalyse Synthese Mul prozessor Mul computer Compiler Parallelismustest Vektorrechner Rechenfelder Op mierung Flynns Schema Modelle Theorie Parallele Systeme
MehrTechnische Informatik 1 Übung 8 Instruktionsparallelität (Rechenübung) Andreas Tretter 8./9. Dezember Bitte immer eine Reihe freilassen
Technische Informatik 1 Übung 8 Instruktionsparallelität (Rechenübung) Andreas Tretter 8./9. Dezember 2016 Bitte immer eine Reihe freilassen Ziele der Übung Verschiedene Arten von Instruktionsparallelität
MehrDr. Jörg Tautrim Engineering
Zuverlässigkeit und (Z&I) Programm Seite Zuverlässigkeit und (Z&I) Grundlagen 1. SB Zuverlässigkeit und (Z&I) Grundlagen 2. Vertraulichkeitsklausel 3. Inhaltsübersicht 4. Strukturierung der Schulung Z&I-Grundlagen
MehrDatenübertragung per Direct Memory Access (DMA)
Datenübertragung per Direct Memory Access (DMA) Durch einen direkten Speicherzugriff können die Daten ohne Umweg über den Prozessor in den Speicher geschrieben werden. So lässt sich die Ausführungsgeschwindigkeit
MehrEntwurfsmuster und Softwarearchitekturen für sicherheitskritische Systeme
1 Entwurfsmuster und Softwarearchitekturen für sicherheitskritische Systeme Für das Seminar Analyse, Entwurf und Implementierung zuverlässiger Software Von: Andreas Seibel Betreut durch: Dr. Holger Giese
MehrComputergestützte Ansteuerung digitaler Eisenbahnanlagen
Computergestützte Ansteuerung digitaler Eisenbahnanlagen Märklin Digital Paul Römer Agenda 2 Märklin & Märklin Digital Wissenswertes Bedienelemente Ansteuerung Steuercomputer Interface und Digitalstrom
Mehr