Übersicht. Ziele und Maße. Leistungsgrößen. Übersicht. Dr.-Ing. Volkmar Sieh WS 2008/2009. Leistungsgrößen wichtig für

Größe: px
Ab Seite anzeigen:

Download "Übersicht. Ziele und Maße. Leistungsgrößen. Übersicht. Dr.-Ing. Volkmar Sieh WS 2008/2009. Leistungsgrößen wichtig für"

Transkript

1 Ziele und Maße Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Ziele und Maße 1/ Ziele und Maße 2/ Leistungsgrößen Leistungsgrößen wichtig für Kaufentscheidungen welches ist die beste Maschine? welches ist die beste Maschine für mein Geld? Designentscheidungen welches Design führt zur besten Maschine? welches Design führt kostengünstig/unter Einhaltung von bestimmten Kosten zur besten Maschine? Beides benötigt Basis für Vergleiche Metrik für Bewertungen Ziele und Maße 3/ Ziele und Maße 4/

2 Leistungsgrößen Beispiel (Flugzeuge): Typ Passagiere Reichweite Geschwindigkeit (mi) (mph) Boeing Boeing Concorde Douglas DC Viele weitere Größen denkbar (Kosten, Verbrauch, Lebensdauer,...) Ziele und Maße 5/ Ziele und Maße 6/ Leistungsgrößen MIPS / MFLOPS Leistungsgrößen für Computer (Beispiele): Raten: MIPS, MFLOPS CPU-Performance oder CPU-Durchsatz Latenz (Antwortzeit) Beschleunigung / Speed up Summarische Bewertung: Benchmarks Definition MIPS / MFLOPS: MIPS: Million Instructions per Second MFLOPS: Million Floating Point Operations per Second Mehr MIPS / MFLOPS = kürzere Ausführungszeit? Ziele und Maße 7/ Ziele und Maße 8/

3 Ausführungszeiten Ausführungszeiten Gesamtzeit zählt alles (Platten- und Speicherzugriffe, I/O,...) interessante Zahl aber häufig unbrauchbar für Vergleiche CPU-Zeit zählt nur die Zeit, die die CPU für die Anwendung gerechnet hat kann in System-Zeit und User-Zeit unterteilt werden User-CPU-Zeit Zeit, die die CPU gebraucht hat, mein Programm abzuarbeiten mein Programm sollte repräsentativ für Workload sein CPU-Performance = 1 / CPU-Zeit Ziele und Maße 9/ Ziele und Maße 10/ Ausführungszeiten Ausführungszeiten Die Ausführung eines Programms braucht eine bestimmte Anzahl von auszuführenden Instruktionen (IC) eine bestimmte, mittlere Anzahl von Takten pro Instruktion (CPI) eine Taktdauer (T) CPU-Zeit = IC * CPI * T Häufig: falsche Annahme, dass eine dieser Zahlen allein etwas über die Performance eines Systems aussagt. Um die Performance eines Systems zu erhöhen, kann man verringern die Anzahl der auszuführenden Instruktionen besserer Algorithmus besserer Compiler mächtigere Befehle (z.b. 16bit -> 32bit) die Anzahl von Takten pro Instruktion parallele Ausführung von Teilen einer Instruktion parallele Ausführung mehrerer Instruktionen die Anzahl von Sekunden pro Takt Verbesserung der Technologie Ziele und Maße 11/ Ziele und Maße 12/

4 Ausführungszeiten CPU-Durchsatz Anzahl der Instruktionen = Anzahl der Taktzyklen? i.a. nein: Multiplikation/Division benötigen mehr Zeit als Addition/Subtraktion. Fließkomma-Operationen benötigen mehr Zeit als Integer-Operationen. Operationen mit Speicherzugriffen benötigen mehr Zeit als Operationen mit Register-Zugriffen.... CPU-Durchsatz Wie viele Jobs kann die Maschine zugleich bearbeiten? Wie lange braucht ein Job im Mittel? Wieviel Arbeit ist pro Tag erledigt? => CPI ist ein Durchschnittswert Eine Erhöhung der Taktrate kann bedeuten, dass einige Befehle mehr Takte zur Ausführung benötigen, da z.b. das Rechenwerk Ergebnisse nicht mehr rechtzeitig liefern kann. Ziele und Maße 13/ Ziele und Maße 14/ Latenzzeiten Speed-Up Verbesserungen ergeben: Antwortzeit / Latenzzeit Beispiel: Wie lange muss ich auf die Antwort einer Datenbankanfrage warten? Wie lange dauert es, bis mein Job drankommt? Wie lange rechnet mein Job? T u von Verbesserung unbeeinflusste Ausführungszeit T e von Verbesserung beeinflusste Ausführungszeit T 1 Ausführungszeit nach Verbesserung I Verbesserung T 1 = T u + T e /I Prinzip: den Normalfall beschleunigen Ziele und Maße 15/ Ziele und Maße 16/

5 Speed-Up Speed-Up - Amdahl s Law Amdahl s Law: Definition Speed-Up: T 0 Ausführungszeit vor Verbesserung T 1 Ausführungszeit nach Verbesserung Speed-Up = T 0 /T 1 T e von Verbesserung beeinflusste Ausführungszeit T 0 Ausführungszeit vor Verbesserung I Verbesserung Speed-Up = 1/((1 β) +β/i) Mit β = T e /T 0 Ziele und Maße 17/ Ziele und Maße 18/ Speed-Up - Amdahl s Law Speed-Up - Amdahl s Law Beispiel für I = 10: Sonderfälle: fürβ= 0 gilt: Speed-Up = 1 fürβ= 1 gilt: Speed-Up = I für sehr große I gilt: Speed-Up = 1/(1 β) Ziele und Maße 19/ Ziele und Maße 20/

6 Speed-Up - Amdahl s Law Speed-Up - Amdahl s Law Beispiel für extrem großes I: Beispiel: Die Floating-Point-Einheit eines Rechners wird verbessert, sodass alle Floating-Point-Operationen fünf mal schneller ablaufen. Wenn die Ausführunsdauer eines Programms vor der Verbesserung 10 Sekunden betrug, wie gross wird der Speed-Up sein, wenn das Programm die Hälfte der 10 Sekunden mit Floating-Point-Operationen verbracht hat? Ziele und Maße 21/ Ziele und Maße 22/ Parallelrechner-Speed-Up Parallelrechner-Speed-Up Parallelrechner-Speed-Up: T e von Verbesserung beeinflusste Ausführungszeit = die Zeit, die im parallelisierbarem Code gerechnet wurde T 0 Ausführungszeit vor Verbesserung = die Zeit, die im Gesamt-Code gerechnet wurde I Verbesserung (Anzahl der Prozessoren) Speed-Up = 1/((1 β) + (β/i)) Mit Beispiel für Parallelrechner-Speed-Up (ASCI Option Red): Anzahl Prozessoren β Speed-Up Obwohl im letzten Beispiel >9000 Prozessoren eingesetzt wurden, obwohl der Parallelisierungsgrad 99% beträgt, ist das Programm nur 99mal schneller. β = T e /T 0 Ziele und Maße 23/ Ziele und Maße 24/

7 Speed-Up - Gustafson s Law Parallelrechner-Speed-Up Umkehrung des Gesetzes von Amdahl: Ein Single-Prozessor-Rechner würde T 1 = T u + N T e Zeiteinheiten brauchen, um die Aufgabe des Parallelrechners zu berechnen. Daraus ergibt sich für den Speed-Up des Parallelrechners: Speed-Up = Tu+NT e T u+t e Nach Umformen und mitβ = Speed-Up = 1 + (N 1)β T e T : e +Tu Amdal s Law ist nur eine Idealisierung für Parallelrechner. Zusatzaufwand fällt bei der Parallelisierung an für die Verteilung der Aufgaben das Einsammeln der Ergebnisse ggf für die Koordinierung der Zugriffe (Mit T e = T e /N ergibt sich Amdahl s Law!) Ziele und Maße 25/ Ziele und Maße 26/ Netzwerk Interessante Zahlen für Punkt-zu-Punkt-Verbindungen: Latenzzeit: wie lange dauert es (minimal), bis eine gesendete Nachricht beim Empfänger empfangen wird Bandbreite: wie viele Bytes können pro Zeiteinheit (maximal) über die Verbindung verschickt werden Ziele und Maße 27/ Ziele und Maße 28/

8 Bisektions-Bandbreite Bisektions-Bandbreite Zahlen für logische Punkt-zu-Punkt-Verbindungen im Parallelrechner-Netzwerk kaum sinnvoll andere Punkt-zu-Punkt-Verbindungen kreuzen (laufen über gleiche Knoten) andere Punkt-zu-Punkt-Verbindungen nutzen gleiche physikalische Verbindungen => Bisektions-Bandbreite Ziele und Maße 29/ Ziele und Maße 30/ Leistungsaufnahme Leistungsaufnahme interessant bei mobilen Rechnern Kühlungsproblemen z.b. viele Komponenten mit hoher Leistungsaufnahme auf kleinem Raum Leistungsaufnahme = Wärmeabgabe! Ziele und Maße 31/ Ziele und Maße 32/

9 Leistungsaufnahme Leistungsaufnahme Leistungsaufnahme reduzierbar durch verbesserte Technologie (z.b. low-voltage, besseres Layout) Komponenten mit geringer Leistungsaufnahme aufgrund verbesserter interner Stukturen zeitweilig abgeschalteten Komponenten (z.b. Platten) zeitweilig ungenutzten Komponenten (z.b. Netzwerk) Komponenten mit steuerbarer Leistungsaufnahme (Taktfrequenz) Leistungsaufnahme i.a. gemessen in Watt (W ) oder Volt-Ampere (VA) heutige Standard-PCs benötigen Netzteile mit ca. 300W Leistung interessanter ist jedoch die Energie, die für eine bestimmte Aufgabe in Wärme umgesetzt wird Energie i.a. gemessen in Joule (J oder Ws) Ziele und Maße 33/ Ziele und Maße 34/ Leistungsaufnahme Leistungsaufnahme bzw. Kühlung wird mehr und mehr zum kritischen Engpass bei High-Performance-Komponenten. hohe Leistungsaufnahme dicke Stromversorgungsleitungen und viele/dicke Pins hohe Kühlleistung große Luftströme und damit große Gehäuse oder aufwändige Wasserkühlung Wärme ist bei modernen Chips kaum noch ableitbar! Ziele und Maße 35/ Ziele und Maße 36/

10 Skalierbarkeit Systeme sollen leicht erweiterbar sein. die Performance die Größe soll steigen. Aufgrund der Erweiterung dürfen die Verfügbarkeit die Wartbarkeit... nicht leiden. Die Probleme vergrößern sich mit der Größe der Systeme! Ziele und Maße 37/ Ziele und Maße 38/ Sicherheit Möglichkeiten: Mikro-Controller schreibt keine ungecrypteten Daten in den Speicher Input/Output ungecryptet Speicherzugriffe gecryptet Programm intern im Mikro-Controller; nicht auslesbar spezielle Crypto-Chips helfen beim Ver-/Entschlüsseln (i.a. beim Netzwerk-Senden/Empfangen) Chips aktivieren sich erst, wenn sie bestimmten Code empfangen haben (z.b. DVD-Laufwerke)... Sicherheit nicht meßbar ; (i.a. unsicherer) boolescher Wert Ziele und Maße 39/ Ziele und Maße 40/

11 Zuverlässigkeit Definitionen Definition: Zuverlässigkeit ist die Eigenschaft eines Systems, dass Vertrauen in die gelieferte Funktionalität gerechtfertigt ist. Zuverlässigkeit ist wie Performance eine QoS (Quality of Service)- Eigenschaft eines Systems. Fault Fehlerursache (z.b. Blitzeinschlag) Error fehlerhafter Zustand (z.b. falsches Bit im Speicher) Failure Ausfall (z.b. Crash des OS) Ziele und Maße 41/ Ziele und Maße 42/ Zuverlässigkeitsgrößen Zuverlässigkeitsgrößen Fault Rate/Fehlerrate Anzahl der Fehlerursachen pro Zeiteinheit Failure Rate/Ausfallrate Anzahl der Ausfälle pro Zeiteinheit Damit verwandt: Mean Time To Failure (MTTF) Mean Time Between Failures (MTBF) Mean Time To Repair (MTTR) (Mean Time Between Repairs (MTBR)) Zuverlässigkeit ist normalerweise beschrieben durch verschiedene Zuverlässigkeitsgrößen. Ziele und Maße 43/ Ziele und Maße 44/

12 Zuverlässigkeitsgrößen Zuverlässigkeitsgrößen Reliability/Überlebenswahrscheinlichkeit Maß für kontinuierlichen, korrekten Service (Zuverlässigkeit in Hinsicht auf Kontinuität des Service) R(t): Wahrscheinlichkeit, dass das System nach der Zeit t noch funktioniert unter der Voraussetzung, dass es zum Zeitpunkt 0 funktioniert hat Unter der Annahme, dass Ausfallrate (λ) zeitunabhängig ist, gilt R(t) = e λt Availability/Verfügbarkeit Maß für korrekten Service der u.u. unterbrochen wird (Zuverlässigkeit in Hinsicht auf Verfügbarkeit eines Service) A(t): Wahrscheinlichkeit, dass das System zum Zeitpunkt t gerade funktioniert A(t) wird i.a. als konstant angenommen Ziele und Maße 45/ Ziele und Maße 46/ Zuverlässigkeitsgrößen Zuverlässigkeitsgrößen Safety/Sicherheit Maß für korrekten Service oder nicht-katastophale Fehler (Zuverlässigkeit in Hinsicht auf das Nicht-Auftreten von katastophalem Fehlverhalten) Wahrscheinlichkeit, dass das System trotz Auftreten eines internen Fehlers keinen katastrophalen Ausfall erleidet (bedingte Wahrscheinlichkeit) Robustness/Robustheit Maß für das noch korrekte Verhalten eines Systems unter dem Einfluss von fehlerhaften Eingaben oder gefährlichen Umgebungseinflüssen Wahrscheinlichkeit, dass das System trotz Auftreten eines (internen) Fehlers keinen Ausfall erleidet und keine fehlerhaften Ausgaben produziert (bedingte Wahrscheinlichkeit) Ziele und Maße 47/ Ziele und Maße 48/

13 Zuverlässigkeitsgrößen Zuverlässigkeitsgrößen Security/Sicherheit Zuverlässigkeit in Bezug auf das Verhindern von unerlaubtem Zugriff auf Informationen boolescher Wert Maintainability/Wartbarkeit Maß für den Aufwand ein System funktionsfähig zu halten bzw. zu reparieren Wartbarkeit beschreibbar z.b. durch die Anzahl von Arbeitsstunden pro Jahr, die für die Wartung notwendig sind Ziele und Maße 49/ Ziele und Maße 50/ Kompatibilität Kompatibilität: alte Software soll weiterhin funktionieren aber: neuer Rechner i.a. schneller => eigentlich inkompatibel alte I/O-Geräte sollen anschließbar bleiben Ziele und Maße 51/ Ziele und Maße 52/

Einleitung Performance Netzwerk Leistungsaufnahme Skalierbarkeit Sicherheit Zuverlässigkeit Kompatibilität. Ziele und Maße. Dr.-Ing.

Einleitung Performance Netzwerk Leistungsaufnahme Skalierbarkeit Sicherheit Zuverlässigkeit Kompatibilität. Ziele und Maße. Dr.-Ing. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Übersicht 1 Einleitung 2 Performance 3 Netzwerk 4 Leistungsaufnahme 5 Skalierbarkeit 6 Sicherheit

Mehr

Spezifikation von Kommunikationssystemen

Spezifikation von Kommunikationssystemen 1 / 29 Spezifikation von Kommunikationssystemen 10. Einführung in die Zuverlässigkeitstheorie Prof. Jochen Seitz Fachgebiet Kommunikationsnetze Sommersemester 2016 2 / 29 Übersicht 1 Grundlagen der Zuverlässigkeitstheorie

Mehr

4 Rechnerarchitektur RAM

4 Rechnerarchitektur RAM 4 Rechnerarchitektur 18.145 RAM Gliederung 1. Mikroelektronik 2. Mikrosysteme 3. VLSI- und Systementwurf 4. Rechnerarchitektur Einleitung Bewertung von Architekturen und Rechnersystemen Klassifikation

Mehr

Busse. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009

Busse. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Busse Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Busse 1/40 2008-10-13 Übersicht 1 Einleitung 2 Bus-Konfiguration

Mehr

Busse. Dr.-Ing. Volkmar Sieh WS 2005/2006. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg

Busse. Dr.-Ing. Volkmar Sieh WS 2005/2006. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg Einleitung Bus-Konfiguration Bus-Arbitrierung Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Einleitung Bus-Konfiguration Bus-Arbitrierung

Mehr

N Bit Binärzahlen. Stelle: Binär-Digit:

N Bit Binärzahlen. Stelle: Binär-Digit: N Bit Binärzahlen N Bit Binärzahlen, Beispiel 16 Bit: Stelle: 15 14 13 12 11 10 9 8 7 6 5 4 3 2 1 0 Binär-Digit: 0 0 1 0 1 0 0 1 1 1 0 0 1 0 0 0 Least Significant Bit (LSB) und Most Significant Bit (MSB)

Mehr

Technische Informatik - Eine Einführung

Technische Informatik - Eine Einführung Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Rechnerarchitektur Aufgabe

Mehr

Just-In-Time-Compiler (2)

Just-In-Time-Compiler (2) Just-In-Time-Compiler (2) Dr.-Ing. Volkmar Sieh Department Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2011/2012 Just-In-Time-Compiler (2) 1/13 2011-09-12 Just-In-Time-Compiler

Mehr

Just-In-Time-Compiler (2)

Just-In-Time-Compiler (2) Just-In-Time-Compiler (2) Dr.-Ing. Volkmar Sieh Department Informatik 4 Verteilte Systeme und Betriebssysteme Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2015/2016 V. Sieh Just-In-Time-Compiler

Mehr

2.1 Rechnersichten 2.2 Rechnerorganisation: Aufbau und Funktionsweise

2.1 Rechnersichten 2.2 Rechnerorganisation: Aufbau und Funktionsweise Teil 1 Kapitel 2 Rechner im Überblick 2.1 Rechnersichten 2.2 Rechnerorganisation: Aufbau und Funktionsweise Frank Schmiedle Technische Informatik I 2.1 Rechnersichten Modellierung eines Rechners Zusammenspiel

Mehr

Grundlagen der Rechnerarchitektur. Einführung

Grundlagen der Rechnerarchitektur. Einführung Grundlagen der Rechnerarchitektur Einführung Unsere erste Amtshandlung: Wir schrauben einen Rechner auf Grundlagen der Rechnerarchitektur Einführung 2 Vorlesungsinhalte Binäre Arithmetik MIPS Assembler

Mehr

Grundlagen der Informationsverarbeitung:

Grundlagen der Informationsverarbeitung: Grundlagen der Informationsverarbeitung: Leistungsbewertung Prof. Dr.-Ing. habil. Ulrike Lucke Durchgeführt von Prof. Dr. rer. nat. habil. Mario Schölzel Maximaler Raum für Titelbild (wenn kleiner dann

Mehr

Assembler - Einleitung

Assembler - Einleitung Assembler - Einleitung Dr.-Ing. Volkmar Sieh Department Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2008 Assembler - Einleitung 1/19 2008-04-01 Teil 1: Hochsprache

Mehr

Übersicht. Einleitung. Übersicht. Architektur. Dr.-Ing. Volkmar Sieh WS 2008/2009

Übersicht. Einleitung. Übersicht. Architektur. Dr.-Ing. Volkmar Sieh WS 2008/2009 Übersicht Einleitung 1 Einleitung Dr.-Ing. Volkmar Sieh 2 Technologische Trends Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 3 Historischer

Mehr

Einleitung. Dr.-Ing. Volkmar Sieh WS 2005/2006. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg

Einleitung. Dr.-Ing. Volkmar Sieh WS 2005/2006. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg Technologische Trends Historischer Rückblick Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Technologische Trends Historischer Rückblick Übersicht

Mehr

Einleitung. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2006/2007

Einleitung. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2006/2007 Einleitung Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2006/2007 Einleitung 1/50 2006/10/09 Übersicht 1 Einleitung 2 Technologische

Mehr

Was ist Rechnerleistung

Was ist Rechnerleistung Was ist Rechnerleistung Leistung im engeren Sinne: Leistung gemessen in seltsamen Einheiten, bestimmt vorwiegend von der Zentraleinheit: MIPS (Millionen Instruktionen pro Sekunde) FLOPS (Floating Point

Mehr

Beispiele von Branch Delay Slot Schedules

Beispiele von Branch Delay Slot Schedules Beispiele von Branch Delay Slot Schedules Bildquelle: David A. Patterson und John L. Hennessy, Computer Organization and Design, Fourth Edition, 2012 Grundlagen der Rechnerarchitektur Prozessor 97 Weniger

Mehr

Bibliotheks-basierte Virtualisierung

Bibliotheks-basierte Virtualisierung Dr.-Ing. Volkmar Sieh Department Informatik 4 Verteilte Systeme und Betriebssysteme Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2015/2016 V. Sieh Bibliotheks-basierte Virtualisierung (WS15/16)

Mehr

Einführung in die Systemprogrammierung

Einführung in die Systemprogrammierung Einführung in die Systemprogrammierung Speedup: Grundlagen der Performanz Prof. Dr. Christoph Reichenbach Fachbereich 12 / Institut für Informatik 30. April 2015 Eine Aufgabe aus der Praxis Gegeben ein

Mehr

Lehrveranstaltung: PR Rechnerorganisation Blatt 8. Thomas Aichholzer

Lehrveranstaltung: PR Rechnerorganisation Blatt 8. Thomas Aichholzer Aufgabe 8.1 Ausnahmen (Exceptions) a. Erklären Sie den Begriff Exception. b. Welche Arten von Exceptions kennen Sie? Wie werden sie ausgelöst und welche Auswirkungen auf den ablaufenden Code ergeben sich

Mehr

Quiz. Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset.

Quiz. Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset. Quiz Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset 32 Bit Adresse 31 3 29... 2 1 SS 212 Grundlagen der Rechnerarchitektur

Mehr

Allgemeine Speed-Up Formel. Gesetz von Gustafson-Barsis

Allgemeine Speed-Up Formel. Gesetz von Gustafson-Barsis 5 Leistungsanalyse Parallelrechner Allgemeine Speed-Up Formel Amdahlsche Gesetz Gesetz von Gustafson-Barsis Karp-Flatt Maß 1 5.1 Allgemeine Speed-Up Formel Allgemeine Speed-Up Formel Speedup = Sequentielle

Mehr

Was ist die Performance Ratio?

Was ist die Performance Ratio? Was ist die Performance Ratio? Wie eben gezeigt wäre für k Pipeline Stufen und eine große Zahl an ausgeführten Instruktionen die Performance Ratio gleich k, wenn jede Pipeline Stufe dieselbe Zeit beanspruchen

Mehr

Assembler Integer-Arithmetik

Assembler Integer-Arithmetik Assembler Integer-Arithmetik Dr.-Ing. Volkmar Sieh Department Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2008 Assembler Integer-Arithmetik 1/23 2008-04-01 Arithmetik

Mehr

Datenpfad einer einfachen MIPS CPU

Datenpfad einer einfachen MIPS CPU Datenpfad einer einfachen MIPS CPU Zugriff auf den Datenspeicher Grundlagen der Rechnerarchitektur Prozessor 19 Betrachten nun Load und Store Word Erinnerung, Instruktionen lw und sw sind vom I Typ Format:

Mehr

Datenpfad einer einfachen MIPS CPU

Datenpfad einer einfachen MIPS CPU Datenpfad einer einfachen MIPS CPU Zugriff auf den Datenspeicher Grundlagen der Rechnerarchitektur Prozessor 19 Betrachten nun Load und Store Word Erinnerung, Instruktionen lw und sw sind vom I Typ Format:

Mehr

Datenpfaderweiterung Der Single Cycle Datenpfad des MIPS Prozessors soll um die Instruktion min $t0, $t1, $t2 erweitert werden, welche den kleineren

Datenpfaderweiterung Der Single Cycle Datenpfad des MIPS Prozessors soll um die Instruktion min $t0, $t1, $t2 erweitert werden, welche den kleineren Datenpfaderweiterung Der Single Cycle Datenpfad des MIPS Prozessors soll um die Instruktion min $t0, $t1, $t2 erweitert werden, welche den kleineren der beiden Registerwerte $t1 und $t2 in einem Zielregister

Mehr

Inhalt. Prozessoren. Curriculum Manfred Wilfling. 28. November HTBLA Kaindorf. M. Wilfling (HTBLA Kaindorf) CPUs 28. November / 9

Inhalt. Prozessoren. Curriculum Manfred Wilfling. 28. November HTBLA Kaindorf. M. Wilfling (HTBLA Kaindorf) CPUs 28. November / 9 Inhalt Curriculum 1.4.2 Manfred Wilfling HTBLA Kaindorf 28. November 2011 M. Wilfling (HTBLA Kaindorf) CPUs 28. November 2011 1 / 9 Begriffe CPU Zentraleinheit (Central Processing Unit) bestehend aus Rechenwerk,

Mehr

Leistungsfähige ARM CPUs für den industriellen Einsatz

Leistungsfähige ARM CPUs für den industriellen Einsatz Leistungsfähige ARM CPUs für den industriellen Einsatz Layerscape ARM Cortex-A CPUs von NXP mit Features aus der PowerPC Welt. Performance und Echtzeitfähigkeits-Vergleich von ARM und PowerPC. Kei Thomsen,

Mehr

Quantitative Prinzipien im Hardwareentwurf. 1. Small is fast

Quantitative Prinzipien im Hardwareentwurf. 1. Small is fast Quantitative Prinzipien im Hardwareentwurf 1. Small is fast Kleine Hardwareeinheiten schalten in der Regel schneller als größere. Kleine Transistoren bilden an ihren Gates kleinere Kapazitäten die Source-Drain

Mehr

Hinweise C-Programmierung

Hinweise C-Programmierung Hinweise C-Programmierung Dr.-Ing. Volkmar Sieh Department Informatik 4 Verteilte Systeme und Betriebssysteme Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2016/2017 V. Sieh Hinweise C-Programmierung

Mehr

Schriftliche Prüfung

Schriftliche Prüfung OTTO-VON-GUERICKE-UNIVERSITÄT MAGDEBURG FAKULTÄT FÜR INFORMATIK Schriftliche Prüfung im Fach: Rechnersysteme Studiengang: Bachelor (PF CSE / IF; WPF CV / WIF) am: 30. Juli 2008 Bearbeitungszeit: 120 Minuten

Mehr

05/2016. Mean Time between Failures (MTBF)

05/2016. Mean Time between Failures (MTBF) 05/2016 Mean Time between Failures (MTBF) https://support.industry.siemens.com/cs/ww/de/view/16818490 Dieser Beitrag stammt aus dem Siemens Industry Online Support. Es gelten die dort genannten Nutzungsbedingungen

Mehr

Cache Grundlagen. Schreibender Cache Zugriff. SS 2012 Grundlagen der Rechnerarchitektur Speicher 22

Cache Grundlagen. Schreibender Cache Zugriff. SS 2012 Grundlagen der Rechnerarchitektur Speicher 22 Cache Grundlagen Schreibender Cache Zugriff SS 212 Grundlagen der Rechnerarchitektur Speicher 22 Eine einfache Strategie Schreibt man nur in den Cache, werden Cache und darunter liegender Speicher inkonsistent.

Mehr

Programmierung. Rückblick. VWA - Programmierung Winter Algorithmus. Programmiersprache. Variable. Zuweisung. Bedingung.

Programmierung. Rückblick. VWA - Programmierung Winter Algorithmus. Programmiersprache. Variable. Zuweisung. Bedingung. Programmierung 1 Rückblick Algorithmus Programmiersprache Variable Zuweisung Bedingung Schleife (c) Peter Sturm, University of Trier 1 3 Aufgabe: Viele, viele bunte Smarties Rechengeschwindigkeit CPU 5

Mehr

2. Anforderungen an Automatisierungssysteme

2. Anforderungen an Automatisierungssysteme Grundlagen der Automatisierungstechnik (Automatisierungstechnik 1) 2. Anforderungen an Automatisierungssysteme Anforderungen an Automatisierungssysteme Verlässlichkeit (Dependability) Zuverlässigkeit (Reliability)

Mehr

Multiprozessoren. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011

Multiprozessoren. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Multiprozessoren Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Multiprozessoren 1/29 2011-06-16 Multiprozessoren Leistungsfähigkeit

Mehr

Parallel Computing. Einsatzmöglichkeiten und Grenzen. Prof. Dr. Nikolaus Wulff

Parallel Computing. Einsatzmöglichkeiten und Grenzen. Prof. Dr. Nikolaus Wulff Parallel Computing Einsatzmöglichkeiten und Grenzen Prof. Dr. Nikolaus Wulff Parallel Architekturen Flynn'sche Klassifizierung: SISD: single Instruction, single Data Klassisches von-neumann sequentielles

Mehr

Rechnerarchitekturen und Mikrosystemtechnik

Rechnerarchitekturen und Mikrosystemtechnik 64-613 RAM 64-613 Rechnerarchitekturen und Mikrosystemtechnik http://tams.informatik.uni-hamburg.de/ lectures/2009ws/vorlesung/ram Andreas Mäder Fakultät für Mathematik, Informatik und Naturwissenschaften

Mehr

Grundlagen der Rechnerarchitektur. Ein und Ausgabe

Grundlagen der Rechnerarchitektur. Ein und Ausgabe Grundlagen der Rechnerarchitektur Ein und Ausgabe Übersicht Grundbegriffe Hard Disks und Flash RAM Zugriff auf IO Geräte RAID Systeme SS 2012 Grundlagen der Rechnerarchitektur Ein und Ausgabe 2 Grundbegriffe

Mehr

Architektur/Chip/Komponente

Architektur/Chip/Komponente Architektur/Chip/Komponente Dr.-Ing. Volkmar Sieh Department Informatik 4 Verteilte Systeme und Betriebssysteme Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2014/2015 V. Sieh Architektur/Chip/Komponente

Mehr

2 Rechnerarchitekturen

2 Rechnerarchitekturen 2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf

Mehr

Musterlösungen Technische Informatik 2 (T2) Prof. Dr.-Ing. D. P. F. Möller

Musterlösungen Technische Informatik 2 (T2) Prof. Dr.-Ing. D. P. F. Möller SS 2004 VAK 18.004 Musterlösungen Technische Informatik 2 (T2) Prof. Dr.-Ing. D. P. F. Möller Aufgabenblatt 2.5 Lösung 2.5.1 Befehlszähler (Program Counter, PC) enthält Adresse des nächsten auszuführenden

Mehr

Grundlagen der Rechnerarchitektur

Grundlagen der Rechnerarchitektur Grundlagen der Rechnerarchitektur Einführung Unsere erste Amtshandlung: Wir schrauben einen Rechner auf Grundlagen der Rechnerarchitektur Einführung 2 Vorlesungsinhalte Binäre Arithmetik MIPS Assembler

Mehr

Das Motherboard (Hauptplatine) beinhaltet Prozessor (CPU), Speicher (RAM) Anschlüsse für interne Disks, Steckkarten, Anschlüsse nach aussen

Das Motherboard (Hauptplatine) beinhaltet Prozessor (CPU), Speicher (RAM) Anschlüsse für interne Disks, Steckkarten, Anschlüsse nach aussen Das Motherboard (Hauptplatine) beinhaltet Prozessor (CPU), Speicher (RAM) Anschlüsse für interne Disks, Steckkarten, Anschlüsse nach aussen Damit man grosse Zahlen abkürzen kann, behilft man sich dieser

Mehr

Seminar: Multi-Core Architectures and Programming

Seminar: Multi-Core Architectures and Programming Seminar: Multi-Core Architectures and Programming Parallelisierung des Viola-Jones Algorithmus auf Tilera Hardware-Software-Co-Design Universität Erlangen-Nürnberg 1 Übersicht Einleitung Erste Versuche

Mehr

Übung 5. Letzte Änderung: 24. Juni 2016

Übung 5. Letzte Änderung: 24. Juni 2016 Übung 5 Letzte Änderung: 24 Juni 2016 Parallele Systeme Hardware- Architektur Vektorrechner Rechenfelder Synthese Op mierung Systemon-Chip Netzwerke sta sch dynamisch mehrstufig einstufig Theorie Workloadbalancing

Mehr

Lösungsvorschlag zur 4. Übung

Lösungsvorschlag zur 4. Übung Prof. Frederik Armknecht Sascha Müller Daniel Mäurer Grundlagen der Informatik 3 Wintersemester 09/10 Lösungsvorschlag zur 4. Übung 1 Präsenzübungen 1.1 Schnelltest a) Welche Aussagen zu Bewertungskriterien

Mehr

Pipelining. Die Pipelining Idee. Grundlagen der Rechnerarchitektur Prozessor 45

Pipelining. Die Pipelining Idee. Grundlagen der Rechnerarchitektur Prozessor 45 Pipelining Die Pipelining Idee Grundlagen der Rechnerarchitektur Prozessor 45 Single Cycle Performance Annahme die einzelnen Abschnitte des MIPS Instruktionszyklus benötigen folgende Ausführungszeiten:

Mehr

"Organisation und Technologie von Rechensystemen 4"

Organisation und Technologie von Rechensystemen 4 Klausur OTRS-4, 29.09.2004 Seite 1 (12) INSTITUT FÜR INFORMATIK Lehrstuhl für Rechnerarchitektur (Informatik 3) Universität Erlangen-Nürnberg Martensstr. 3, 91058 Erlangen 29.09.2004 Klausur zu "Organisation

Mehr

Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation

Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation Dr. Jan Eitzinger Regionales Rechenzentrum (RRZE) der Universität Erlangen-Nürnberg

Mehr

1. Übung Zuverlässigkeit

1. Übung Zuverlässigkeit Grundlagen der Automatisierungstechnik (Automatisierungstechnik ). Übung Zuverlässigkeit Übersicht Lehrstuhl für Automatisierungstechnik und Energiesysteme Prof. Dr.-Ing. Georg Frey, M.Sc. Universität

Mehr

Grundlagen der Rechnerarchitektur

Grundlagen der Rechnerarchitektur Grundlagen der Rechnerarchitektur Speicher Übersicht Speicherhierarchie Cache Grundlagen Verbessern der Cache Performance Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 2 Speicherhierarchie

Mehr

Grundlagen der Rechnerarchitektur

Grundlagen der Rechnerarchitektur Grundlagen der Rechnerarchitektur Ein und Ausgabe Übersicht Grundbegriffe Hard Disks und Flash RAM Zugriff auf IO Geräte RAID Systeme SS 2012 Grundlagen der Rechnerarchitektur Ein und Ausgabe 2 Grundbegriffe

Mehr

Seminar Parallele Rechnerarchitekturen SS04 \ SIMD Implementierung aktueller Prozessoren 2 (Dominik Tamm) \ Inhalt. Seite 1

Seminar Parallele Rechnerarchitekturen SS04 \ SIMD Implementierung aktueller Prozessoren 2 (Dominik Tamm) \ Inhalt. Seite 1 \ Inhalt Seite 1 \ Inhalt SIMD Kurze Rekapitulation 3Dnow! (AMD) AltiVec (PowerPC) Quellen Seite 2 \ Wir erinnern uns: Nach Flynn s Taxonomie kann man jeden Computer In eine von vier Kategorien einteilen:

Mehr

Technische Informatik I - HS 18

Technische Informatik I - HS 18 Institut für Technische Informatik und Kommunikationsnetze Prof. L. Thiele Technische Informatik I - HS 18 Übung 7 Datum : 22.-23. November 2018 Pipelining Aufgabe 1: Taktrate / Latenz In dieser Aufgabe

Mehr

Fehlertoleranz. Betriebssysteme. Hermann Härtig TU Dresden

Fehlertoleranz. Betriebssysteme. Hermann Härtig TU Dresden Fehlertoleranz Betriebssysteme Hermann Härtig TU Dresden Wegweiser Prinzipien der Fehlertoleranz RAID als ein Beispiel Betriebssysteme WS 2018, Fehlertoleranz!2 Begriffe Grundprinzip Konstruktion zuverlässigerer

Mehr

Hardware PCI-Bus. Dr.-Ing. Matthias Sand. Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg

Hardware PCI-Bus. Dr.-Ing. Matthias Sand. Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg Hardware PCI-Bus Dr.-Ing. Matthias Sand Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Hardware PCI-Bus 1/23 2008-08-06 Übersicht Inhalt:

Mehr

Hardware PCI-Bus. Dr.-Ing. Matthias Sand. Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg

Hardware PCI-Bus. Dr.-Ing. Matthias Sand. Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg Hardware PCI-Bus Dr.-Ing. Matthias Sand Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2007/2008 Hardware PCI-Bus 1/23 2007-10-26 Übersicht Inhalt:

Mehr

TECHNISCHE HOCHSCHULE NÜRNBERG GEORG SIMON OHM Die Mikroprogrammebene eines Rechners Das Abarbeiten eines Arbeitszyklus eines einzelnen Befehls besteht selbst wieder aus verschiedenen Schritten, z.b. Befehl

Mehr

Grundlagen der Rechnerarchitektur. MIPS Assembler

Grundlagen der Rechnerarchitektur. MIPS Assembler Grundlagen der Rechnerarchitektur MIPS Assembler Übersicht Arithmetik, Register und Speicherzugriff Darstellung von Instruktionen Logische Operationen Weitere Arithmetik Branches und Jumps Prozeduren 32

Mehr

CPU. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011

CPU. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 CPU Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 CPU 1/62 2012-02-29 CPU Übersicht: Pipeline-Aufbau Pipeline- Hazards CPU

Mehr

Cache Blöcke und Offsets

Cache Blöcke und Offsets Cache Blöcke und Offsets Ein Cache Eintrag speichert in der Regel gleich mehrere im Speicher aufeinander folgende Bytes. Grund: räumliche Lokalität wird wie folgt besser ausgenutzt: Bei Cache Miss gleich

Mehr

Proseminar Technische Informatik WS08/09 bei Georg Wittenburg, M.Sc. Zuverlässigkeit und Fehlertoleranz in der Technik

Proseminar Technische Informatik WS08/09 bei Georg Wittenburg, M.Sc. Zuverlässigkeit und Fehlertoleranz in der Technik Proseminar Technische Informatik WS08/09 bei Georg Wittenburg, M.Sc. Zuverlässigkeit und Fehlertoleranz in der Technik Ein Vortrag von Sebastian Oliver Kalwa Berlin, 30.01.2009 1 Was ist Fehlertoleranz?

Mehr

Speicherarchitektur (23) Suchen einer Seite:

Speicherarchitektur (23) Suchen einer Seite: Speicherarchitektur (23) Suchen einer Seite: Vorlesung Rechnersysteme SS `09 E. Nett 7 Speicherarchitektur (24) Adressschema inklusive Seitenfehler: Vorlesung Rechnersysteme SS `09 E. Nett 8 Speicherarchitektur

Mehr

Cache II. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011

Cache II. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Cache II Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Cache II 1/14 2012-02-29 Schreibstrategien Es sind verschiedene Fälle

Mehr

Die Bedeutung von Performance

Die Bedeutung von Performance Die Bedeutung von Performance Martin Gaitzsch, Mirek Hancl, Davood Kheiri 8.11.2000 $(LQOHLWXQJµUHODWLYHµ3HUIRUPDQFH Performance interessiert sowohl den Systementwickler als auch den Kunden. Auf der Entwicklungsseite

Mehr

Auch hier wieder. Control. RegDst Branch MemRead MemtoReg ALUOp MemWrite ALUSrc RegWrite. Instruction[31 26] (also: das Opcode Field der Instruktion)

Auch hier wieder. Control. RegDst Branch MemRead MemtoReg ALUOp MemWrite ALUSrc RegWrite. Instruction[31 26] (also: das Opcode Field der Instruktion) Auch hier wieder Aus voriger Wahrheitstabelle lässt sich mechanisch eine kombinatorische Schaltung generieren, die wir im Folgenden mit dem Control Symbol abstrakt darstellen. Instruction[31 26] (also:

Mehr

Arithmetik, Register und Speicherzugriff. Grundlagen der Rechnerarchitektur Assembler 9

Arithmetik, Register und Speicherzugriff. Grundlagen der Rechnerarchitektur Assembler 9 Arithmetik, Register und Speicherzugriff Grundlagen der Rechnerarchitektur Assembler 9 Arithmetik und Zuweisungen Einfache Arithmetik mit Zuweisung C Programm: a = b + c; d = a e; MIPS Instruktionen: Komplexere

Mehr

FEHLERTOLERANZ EINE SEHR GROBE ÜBERSICHT BETRIEBSSYSTEME UND SICHERHEIT, WS 2016/17 HERMANN HÄRTIG

FEHLERTOLERANZ EINE SEHR GROBE ÜBERSICHT BETRIEBSSYSTEME UND SICHERHEIT, WS 2016/17 HERMANN HÄRTIG Faculty of Computer Science Institute of Systems Architecture, Operating Systems Group FEHLERTOLERANZ EINE SEHR GROBE ÜBERSICHT BETRIEBSSYSTEME UND SICHERHEIT, WS 2016/17 HERMANN HÄRTIG BEGRIFFE Sicherheit/Security/Safety

Mehr

Allgemeine Lösung mittels Hazard Detection Unit

Allgemeine Lösung mittels Hazard Detection Unit Allgemeine Lösung mittels Hazard Detection Unit Bildquelle: David A. Patterson und John L. Hennessy, Computer Organization and Design, Fourth Edition, 2012 Grundlagen der Rechnerarchitektur Prozessor 83

Mehr

Mikroprozessortechnik Grundlagen 1

Mikroprozessortechnik Grundlagen 1 Grundlagen - Grundbegriffe, Aufbau, Rechnerarchitekturen, Bus, Speicher - Maschinencode, Zahlendarstellung, Datentypen - ATMELmega28 Progammierung in C - Vergleich C und C++ - Anatomie eines µc-programmes

Mehr

Datenpfad einer einfachen MIPS CPU

Datenpfad einer einfachen MIPS CPU Datenpfad einer einfachen MIPS CPU Die Branch Instruktion beq Grundlagen der Rechnerarchitektur Prozessor 13 Betrachten nun Branch Instruktion beq Erinnerung, Branch Instruktionen beq ist vom I Typ Format:

Mehr

Grundlagen der Rechnerarchitektur

Grundlagen der Rechnerarchitektur Grundlagen der Rechnerarchitektur Prozessor Übersicht Datenpfad Control Pipelining Data Hazards Control Hazards Multiple Issue Grundlagen der Rechnerarchitektur Prozessor 2 Datenpfad einer einfachen MIPS

Mehr

Foliensatz. Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen

Foliensatz. Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen Foliensatz Center for Information Services and High Performance Computing (ZIH) Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen Hochgeschwindigkeitskommunikationen 13. Juli

Mehr

Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7)

Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7) Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7) Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7) J. Zhang zhang@informatik.uni-hamburg.de Universität Hamburg AB Technische Aspekte Multimodaler Systeme

Mehr

2. Computer (Hardware) K. Bothe, Institut für Informatik, HU Berlin, GdP, WS 2015/16

2. Computer (Hardware) K. Bothe, Institut für Informatik, HU Berlin, GdP, WS 2015/16 2. Computer (Hardware) K. Bothe, Institut für Informatik, HU Berlin, GdP, WS 2015/16 Version: 14. Okt. 2015 Computeraufbau: nur ein Überblick Genauer: Modul Digitale Systeme (2. Semester) Jetzt: Grundverständnis

Mehr

Grundlagen der Informatik III

Grundlagen der Informatik III Grundlagen der Informatik III WS 2008 / 2009 [Folien basierend auf VL von Prof. Dr. Claudia Eckert, WS 07/08] Prof. Dr. rer. nat. Frederik Armknecht Sascha Müller Daniel Mäurer Fachbereich Informatik /

Mehr

Hardware Logik-Analysatoren

Hardware Logik-Analysatoren Hardware Logik-Analysatoren Dr.-Ing. Matthias Sand Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2010/2011 Hardware Logik-Analysatoren 1/24 2010-10-12

Mehr

Hochschule Düsseldorf University of Applied Sciences HSD RISC &CISC

Hochschule Düsseldorf University of Applied Sciences HSD RISC &CISC HSD RISC &CISC CISC - Complex Instruction Set Computer - Annahme: größerer Befehlssatz und komplexere Befehlen höhere Leistungsfähigkeit - Möglichst wenige Zeilen verwendet, um Aufgaben auszuführen - Großer

Mehr

Verlustleistungsreduzierung in Datenpfaden

Verlustleistungsreduzierung in Datenpfaden Verlustleistungsreduzierung in Datenpfaden F. Grassert, F. Sill, D. Timmermann Inhalt Motivation Analyse der Ausgangssituation Verlustleistung in der Schaltungstechnik Selbstgetaktete dynamische Logiken

Mehr

High-Tech Speicher. NOVOPOS AG Wollerau - - FON

High-Tech Speicher. NOVOPOS AG Wollerau -  - FON High-Tech Speicher Solid State Drives (SSD) SSD Vorteile Ihr POS System verdient innovativere Technologie! Herkömmliche Festplatten besitzen mechanische Teile, die die Geschwindigkeit begrenzen, grosse

Mehr

Multicore Architektur vs. Amdahl`s Gesetz

Multicore Architektur vs. Amdahl`s Gesetz Fakultätsname Informatik, Professur Technische Informatik Multicore Architektur vs. Amdahl`s Gesetz Dresden, 21.Juli.2010 Motivation Veröffentlichung von IEEE Computer 2008 von Mark D. Hill (University

Mehr

Oracle HA-Technologien im Überlick

Oracle HA-Technologien im Überlick Oracle HA-Technologien im Überlick Björn Bröhl OPITZ CONSULTING Gummersbach GmbH Seite 1 Übersicht Was bedeutet Hochverfügbarkeit? Oracle HA-Technologien Standby Dataguard Failover-Cluster / Failsafe Seite

Mehr

Arduino Nano. Hello World per LED On-Board LED (Pin D13) Beispiel: Arduino IDE / Beispiele / Basics / Blink 5 / 20

Arduino Nano. Hello World per LED On-Board LED (Pin D13) Beispiel: Arduino IDE / Beispiele / Basics / Blink 5 / 20 Inhalt Inbetriebnahme Arduino Nano Einführung I2C Bus Inbetriebnahme Real-Time-Clock DS1307 (I2C) Inbetriebnahme 4x 7-Segment Anzeige TM1637 Kombination RTC mit 7-Segment Anzeige => Uhr 2 / 20 Arduino

Mehr

Aufbau und Funktionsweise eines Computers

Aufbau und Funktionsweise eines Computers Aufbau und Funktionsweise eines Computers Thomas Röfer Hardware und Software von Neumann Architektur Schichtenmodell der Software Zahlsysteme Repräsentation von Daten im Computer Praktische Informatik

Mehr

Übung 1. Letzte Änderung: 5. Mai 2017

Übung 1. Letzte Änderung: 5. Mai 2017 Übung 1 Letzte Änderung: 5. Mai 2017 Abhängigkeitsanalyse Synthese Mul prozessor Mul computer Compiler Parallelismustest Vektorrechner Rechenfelder Op mierung Flynns Schema Modelle Theorie Parallele Systeme

Mehr

Technische Informatik 1 Übung 8 Instruktionsparallelität (Rechenübung) Andreas Tretter 8./9. Dezember Bitte immer eine Reihe freilassen

Technische Informatik 1 Übung 8 Instruktionsparallelität (Rechenübung) Andreas Tretter 8./9. Dezember Bitte immer eine Reihe freilassen Technische Informatik 1 Übung 8 Instruktionsparallelität (Rechenübung) Andreas Tretter 8./9. Dezember 2016 Bitte immer eine Reihe freilassen Ziele der Übung Verschiedene Arten von Instruktionsparallelität

Mehr

Dr. Jörg Tautrim Engineering

Dr. Jörg Tautrim Engineering Zuverlässigkeit und (Z&I) Programm Seite Zuverlässigkeit und (Z&I) Grundlagen 1. SB Zuverlässigkeit und (Z&I) Grundlagen 2. Vertraulichkeitsklausel 3. Inhaltsübersicht 4. Strukturierung der Schulung Z&I-Grundlagen

Mehr

Datenübertragung per Direct Memory Access (DMA)

Datenübertragung per Direct Memory Access (DMA) Datenübertragung per Direct Memory Access (DMA) Durch einen direkten Speicherzugriff können die Daten ohne Umweg über den Prozessor in den Speicher geschrieben werden. So lässt sich die Ausführungsgeschwindigkeit

Mehr

Entwurfsmuster und Softwarearchitekturen für sicherheitskritische Systeme

Entwurfsmuster und Softwarearchitekturen für sicherheitskritische Systeme 1 Entwurfsmuster und Softwarearchitekturen für sicherheitskritische Systeme Für das Seminar Analyse, Entwurf und Implementierung zuverlässiger Software Von: Andreas Seibel Betreut durch: Dr. Holger Giese

Mehr

Computergestützte Ansteuerung digitaler Eisenbahnanlagen

Computergestützte Ansteuerung digitaler Eisenbahnanlagen Computergestützte Ansteuerung digitaler Eisenbahnanlagen Märklin Digital Paul Römer Agenda 2 Märklin & Märklin Digital Wissenswertes Bedienelemente Ansteuerung Steuercomputer Interface und Digitalstrom

Mehr