Die Geschichte und Gegenwart der Cray-Supercomputer

Größe: px
Ab Seite anzeigen:

Download "Die Geschichte und Gegenwart der Cray-Supercomputer"

Transkript

1 Technische Universität Ilmenau Fakultät für Informatik und Automatisierung Fachgebiet Rechnerarchitekturen Betreuer: Dr-Ing Bernd Däne Hauptseminar Sommersemester 2005 Zum Thema Die Geschichte und Gegenwart der Cray-Supercomputer Bearbeiter: Markus Malicke Termin: 07 Juli 2005

2 Inhaltsverzeichnis INHALTSVERZEICHNIS 2 1 Einleitung 3 2 Vorbetrachtungen 3 21 Supercomputer Eine Definition 3 22 Einsatzgebiete von Cray-Supercomputern 5 3 Die Geschichte der Cray-Supercomputer 6 31 Seymour Cray Ein Mann mit einer Vision 6 32 Die Cray Die Cray Die Cray Der Cray XD1 Supercomputer 14 4 Schlussbemerkungen Zusammenfassung Ausblick 19 ABKÜRZUNGSVERZEICHNIS 20 ABBILDUNGSVERZEICHNIS 21 LITERATURVERZEICHNIS 22 Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer - 2 -

3 1 Einleitung Gegenstand und Ziel dieser Arbeit ist es, einen Einblick in den historischen Werdegang der Supercomputer der Marke Cray zu gewähren Dieser reicht von der Entstehung der ersten Systeme bis in die Gegenwart Anhand von ausgewählten Beispielmaschinen werden technische Details näher erläutert Dadurch ist die Beschreibung des technischen und auch wirtschaftlichen Entwicklungswegs möglich Außerdem wird die gegenwärtige und perspektivische Bedeutung von Cray-Supercomputern gezeigt 2 Vorbetrachtungen 21 Supercomputer Eine Definition Wann spricht man von einem Supercomputer? Zunächst eine weniger seriöse Definition: Ein Supercomputer ist jeder Computer, der IBM s gegenwärtig schnellsten Computer aussticht macht es also für IBM unmöglich, einen Supercomputer herzustellen [Wird einem Professor an der University of South Wales zugeschrieben (1990)] Das erste Mal wurde der Begriff Supercomputer 1920 in der Zeitschrift New York World erwähnt Darin bezog sich der Begriff auf große Tabulatoren (gewöhnliche Rechenmaschinen), die von der Firma IBM hergestellt wurden Die Grundfunktion war das Zählen und/oder Addieren mit Hilfe von Lochkarten Der Tabulator wurde vom IBM-Gründer Herman Hollerith ( ) erfunden [2] Abbildung 21/1 zeigt eine solche Rechenmaschine Es gibt ein breites Spektrum an Definitionen in Lexika In einem Satz gesagt: Supercomputer sind die leistungsfähigste Form von Computern Dazu führt der Brockhaus aus: Supercomputer, ein Höchstleistungsrechner mit hoher Rechenleistung, Datenspeicherkapazität und Übertragungsgeschwindigkeit [1] Demnach bezeichnet man Hochleistungsrechner als Supercomputer, die zum Zeitpunkt ihrer Einführung im obersten überhaupt realisierbaren Leistungsbereich operieren Im Abb 21/1 Hollerith Typ III Tabulator (1932) [2] Gegensatz zu konventionellen Rechnern haben Supercomputer gewöhnlich mehr als einen Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer - 3 -

4 Prozessor, die auf einen sehr großen Hauptspeicher zugreifen und meistens parallel arbeiten Höhere Performance wird mit MPP (Massively Parallel Processing) erreicht, wobei tausende von Prozessoren miteinander vernetzt sind Ebenso besitzen sie eine sehr schnelle Ein- /Ausgabe-Fähigkeit In Abbildung 21/2 werden einige interessante Leistungen von speziellen Supercomputern genannt Mittlerweile etablieren sich auch so genannte Cluster, bei denen (meist preiswerte) Einzelrechner zu einem großen Rechner vernetzt werden [3] Leistungen* von Supercomputern Sämtliche Berechnungen aller Computer weltweit von 1960 bis 1970 könnte der Earth Simulator (Yokohama, Japan) in etwa 35 Minuten durchführen Deep Blue 2 (Hochleistungsrechner von IBM) schlägt als erster Computer einen Schachweltmeister in einem offiziellen Zweikampf Yasumasa Kanada bestimmt die Kreiszahl π mit einem Hitachi SR8000 der Uni Tokyo auf 1,24 Billionen Stellen genau * im weiteren Sinne Abb 21/2 Leistungen spezieller Großrechner [3] Die schnellsten Supercomputer werden halbjährlich in der Top-500-Liste aufgeführt Das Projekt wurde 1993 gestartet, um Trends im High Performance Computing (HPC) feststellen zu können Als Bewertungsgrundlage dient der Linpack-Benchmark Die 24 Top- 500-Liste wurde am 8 November 2004 während der Supercomputer Conference (SC2004) in Pittsburgh, PA herausgegeben Auf Platz 1 befindet sich der BlueGene/L der Firma IBM (siehe Abbildung 21/3) Ein aktuelles System der Firma Cray Inc erscheint auf Platz 29 Die Werte R max und R peak beziehen sich auf den Linpack-Benchmark und werden in GFlops angegeben (1 Milliarde Fließkommazahloperationen pro Sekunde) R max steht für die maximale, im Test erreichte Leistung, während R peak die theoretische Spitzenleistung angibt Das Jahr kennzeichnet den Installationszeitpunkt Rang Standort Land/Jahr 1 IBM/DOE United States/ NASA/Ames Research Center/NAS United States/2004 Computer / Prozessoren Hersteller BlueGene/L beta-system BlueGene/L DD2 beta- System (07 GHz PowerPC 440) / IBM Columbia SGI Altix 15 GHz, Voltaire Infiniband / SGI Computer Familie Model IBM BlueGene/L BlueGene/L SGI Altix SGI Altix 15 GHz, Infiniband Zweck R max R peak Forschung Forschung The Earth Simulator Center Japan/2002 Earth-Simulator / 5120 NEC NEC Vector SX6 Forschung Oak Ridge National Laboratory United States/2004 Cray X1 / 504 Cray Inc Cray X1 Cray X1 Abb 21/3 Auszug: 24 Top-500-Liste (11/2004) [4] Forschung Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer - 4 -

5 Die 25 Top-500-Liste wird auf der 20 International Supercomputer Conference (ISC2005) in Heidelberg, Deutschland vom Juni 2005 veröffentlicht 22 Einsatzgebiete von Cray-Supercomputern Supercomputer der Firma Cray Inc finden heute auf vielerlei Weise Anwendung in der Industrie, in Wissenschaft und Forschung, in Regierungseinrichtungen, beim Militär, usw Dabei sind komplexe Problemstellungen mit vielen voneinander abhängigen Variablen typische Beispiele für das Einsatzgebiet Gerade für die Vorhersage natürlicher Ereignisse, wie Hurrikans (Abbildung 22/1), Wetter und Klimaveränderungen, sind Supercomputer unverzichtbar Die Modellierung spielt eine Schlüsselrolle bei der Untersuchung und Vorhersage Supercomputer sind dabei notwendig, um die physikalischen und chemischen Prozesse zu simulieren, die den natürlichen Phänomenen zugrunde liegen Sie unterstützen Wissenschaftler dabei, den globalen Kohlenstoffzyklus zu studieren, und zu ermitteln, ob man den CO 2 - Abb 22/1 Hurrikan Gehalt verringern kann und dadurch die globale Erwärmung Man benötigt immer größere Rechenleistung und Speicherkapazität, um komplexere Systeme zu modellieren, und Modelle schnell genug zu simulieren Nur so kann das Wetter vorhergesagt werden, bevor es eintritt Das Oak Ridge National Laboratory, die Korea Meteorological Administration, das Institutio Nacional de Meteorologia (INM) in Spanien u a benutzen Cray-Supercomputer für die Modellierung und Vorhersage von Wetter und Klima Ein weiteres Einsatzgebiet von Cray-Systemen ist die pharmazeutische Industrie Kunden sind zb das Artic Regional Supercomputing Center, das Army High Performance Computing Research Center, Bionumerik Pharmaceuticals und das South African National Bioinformatics Institute Ziel ist es, die Wirkung und Sicherheit lebensrettender Arzneimittel schneller und gründlicher festzusetzen, bevor man Zeit und Geld in klinische Versuche investiert Das Entschlüsseln und Aufzeichnen des menschlichen Genoms war der Anfang einer neuen Ära Durch Vorstöße in der Labortechnologie, wie zb Massenspektrometrie, erfährt man eine Überflutung mit Daten Damit man dieses immense Datenvolumen effektiv bearbeiten kann, müssen medizinisch-wissenschaftliche Anwendungen und die Computersysteme, auf denen sie laufen, miteinander Schritthalten Deswegen wird ein höherer Level an Leistung gefordert Die grundlegende und angewandte wissenschaftliche Forschung im Bereich Physik, Fluiddynamik, Thermodynamik, Testen im Windkanal, Signalanalyse und Chemie fordert immer mehr den Einsatz von Supercomputern Die Helmut Schmidt Universität in Hamburg, das NASA Ames Research Center in den USA und das Pacific Northwest National Laboratory des US Department of Energy sind drei von mehreren Einrichtungen, die für ihre Untersuchungen Supercomputer der Firma Cray Inc verwenden Produktentwickler auf der ganzen Welt stützen sich vermehrt auf den CAE-Entwurf, um die Kosten für neue Produktentwicklungen zu reduzieren Dieser rechnergestützte Entwurf macht es möglich, komplexere Designaufgaben in kurzer Zeit zu lösen Da die Modelle immer größer und komplexer werden, müssen die Computer, auf denen die CAE-Werkzeuge laufen, Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer - 5 -

6 dem entsprechend mehr Leistung und Geschwindigkeit zur Verfügung stellen Einrichtungen und Firmen wie Boeing, Ford Motor Company und das Army High Performance Computing Research Center (AHPCRC) verwenden Cray-Systeme [5] 1978 wurde die Cray User Group (CUG) gegründet Sie ist eine unabhängige, freiwillig organisierte, internationale Vereinigung von Mitgliedsorganisationen, die Cray Inc Computersysteme besitzen oder benutzen mit Nachdruck auf high-end-leistung, technische Berechnung und Visualisierung Die CUG hat es sich zur Aufgabe gemacht, die Führung und den Informationsaustausch zu sichern, um die Entwicklung und effektive Benutzung von Hochleistungscomputersystemen zu gewährleisten, wobei Geschäftsfähigkeit und Forschungsobjekte für CUG - Mitglieder geschaffen werden [9] 3 Die Geschichte der Cray-Supercomputer 31 Seymour Cray Ein Mann mit einer Vision Die Suche nach dem Anfang der Cray-Computersysteme führt auf den Namen Seymour Cray Er ist weitläufig als der Vater des Supercomputers bekannt geworden Seymour Cray wurde am 28 September 1925 in Chippewa Falls (Wisconsin, USA) geboren Als Kind interessierte er sich für Chemie und Radios Er absolvierte einen Ingenieursstudiengang an der Universität von Minnesota 1951 trat er der Engineering Research Associates bei, die Computer für die NAVY entwickelte Seymour Cray spielte eine Schlüsselrolle bei der Erfindung der ersten Generation von Supercomputern, dem UNIVAC 1103 In den 60er Jahren war Seymour Cray der Mitbegründer der Control Data Corporation (CDC) Er war ständig auf der Suche nach neuen Ideen Die Computer sollten größer und noch schneller werden So beschloss Seymour, seinen eigenen Weg zu gehen, um Abb 31/1 Seymour Cray [6] seine Visionen zu verwirklichen 1972 gründete er seine eigene Firma Cray Research Der Geschäftshauptsitz samt Management war in Minneapolis (Minnesota), während die Fabrikation in seiner Heimatstadt Chippewa Falls (Wisconsin) angesiedelt war Damit war der Grundstein für die Entwicklung der Cray-Supercomputer gelegt [7], [8] Seymour Cray war ein Visionär, der sich weniger um die Kostenfrage kümmerte Das war ein Teil des Geheimnisses um seinen Erfolg Er beschrieb seine Philosophie einmal wie folgt: "In all of the machines that I've designed, cost has been very much a secondary consideration Figure out how to build it as fast as possible, completely disregarding the cost of construction" Aus einer Ansprache von Seymour Cray (1974) [6] Im Folgenden möchte ich auf einige ausgewählte Beispielmaschinen eingehen, um die historische und technologische Entwicklung der Cray-Systeme zu zeigen Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer - 6 -

7 32 Die Cray-1 Die Cray-1 (siehe Abbildung 32/1) war der erste Supercomputer der Firma Cray, dessen Architektur vom Team um Seymour Cray entwickelt wurde Seymour Cray war dabei für die Technologie der Vektor-Register zuständig Die erste Cray-1 wurde 1976 am Los Alamos National Laboratory in Betrieb genommen und kostete 8,86 Millionen Dollar Diese Maschine überholte die damals existierende Technologie Sie erreichte eine maximale Rechengeschwindigkeit von 133 MFlops (133 Millionen Fließkommazahl-Operationen pro Sekunde), laut Cray Inc MFlops [10] Wenn man diese Leistung auf konventionellem Weg erreichen will, müsste man 3333 Sun4-Rechner miteinander verbinden [6] Abb 32/1 Cray-1 [10] Die Architektur der Cray-1 spiegelte Seymour Cray s Fähigkeit wieder, technische Probleme mit revolutionären Ideen zu überbrücken Um die Rechengeschwindigkeit zu erhöhen, hatte die Cray-1 eine Hufeisenform Auf diese Weise lagen die Schaltkreise dichter beieinander Kein Kabel innerhalb des Systems war länger als 4 Fuß ( 1,2 Meter) Das Hauptsächliche an diesem System war der leistungsfähige Mikroprozessor Er arbeitete mit einer für damalige Verhältnisse enormen Frequenz von 80 MHz Cray-1 hatte einen 8 MB großen Hauptspeicher (1 Million Speicherzellen á 64 Bit) und 64 Vektor-Register in der Wortbreite von 64 Bit Das Gesamtsystem verursachte eine immense Wärmeentwicklung Tatsächlich war es so, dass Seymour Cray s Entwickler diese Wärme nutzten, um ihre Büros im Winter zu heizen Abb 32/2 Kühlsystem der Cray-1 [10] Deswegen setzte man ein spezielles, neues Kühlsystem ein, dargestellt in Abbildung 32/2 Man verwendete Freon als Kühlmittel Ausgelöst durch die 1 Million Speicherzellen verbrauchte Cray-1 einschließlich Stromversorgung 115 kw Wenn man die Kühlung dazurechnet, wird der Wert annähernd verdoppelt Da die Computer heute immer leistungsfähiger und kompakter werden, ist es schwer vorstellbar, dass Supercomputer wie Cray-1 damals ganze Räume ausnutzten Man brauchte Platz für die große Haupteinheit, für die Stromversorgung daneben und für ein paar Computer, mit deren Hilfe man das Ganze mit Daten füttern konnte Die Cray-1A (eine erste Variante) wog 5,5 Tonnen einschließlich des Freon Kühlsystems Die Cray-1 war ein Vektorrechner basierend auf SIMD-Architektur Mit Hilfe dieser Architektur erreicht man Parallelität mit wenig Chip-Fläche, da mehrere Rechenwerke vorhanden sind Der Datensatz wird aufgespalten, und alle Daten werden einem Befehl unterzogen Ein Vorteil ist die leichte Skalierbarkeit, d h das Erweitern der Hardware- Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer - 7 -

8 Struktur gestaltet sich einfacher Bei Supercomputern ist der globale Takt ein Problem Das Steuerwerk fällt wesentlich größer aus als bei konventionellen Computern (mitunter Schrankgröße) Trotzdem benötigt jedes Element den gleichen Takt Durch lange Kabel entstehen Taktverschiebungen Bei Cray-1 wurde dieses Problem durch die Hufeisenform und die dadurch wesentlich kürzeren Kabel kompensiert Einzigartig an Cray-1 war die Verwendung von ECL-Schaltkreisen (Emittergekoppelte Logik) mit geringer Dichte und sehr hoher Schaltgeschwindigkeit Es gab keine Mikroprozessoren Die individuellen Schaltkreise auf den Platinen erfüllten verschiedene Funktionen (siehe Abbildung 32/3) ECL ist wie ein Differenzverstärker aufgebaut Mehrere Transistoren (Anzahl ist schaltungsabhängig) sind über den Emitteranschluss miteinander verbunden und gemeinsam über eine Konstantstromquelle geführt Unabhängig vom Zustand der Logikschaltung ist die Gesamtstromaufnahme dadurch konstant, es ergeben sich keine Stromspitzen beim Umschalten, wie es bei anderen Logikfamilien häufig der Fall ist, und die Zustände können sehr schnell gewechselt werden Die Verstärkung dieser Struktur ist klein, auch im linearen Betrieb führen langsame Eingangsflanken zu keinen parasitären Schwingungen ECL-Schaltkreise arbeiten mit Abb 32/3 Logik-Recheneinheit der Cray-1 [10] negativer Spannungsversorgung (Abbildung 32/4: V cc = 5,2V) und benutzen Logiklevel, die mit anderen Logikfamilien inkompatibel sind Daraus folgt, dass sich die Interaktion von ECL-Schaltkreisen mit anderen Designs schwierig gestaltet Die Tatsache, dass die hohen und niedrigen Logiklevels nah beieinander liegen, hat schmale Rauschgrenzen zur Folge, was unter Umständen zu Problemen führen kann Die ECL gehört zu den schnellsten, erhältlichen Logikfamilien und weist Verzögerungszeiten kleiner als eine Nanosekunde auf Da die Transistoren ständig Strom ziehen, ist jedoch die Leistungsaufnahme bei kleinen Schaltzeiten groß, wodurch auch eine Menge Wärme erzeugt wird ECL wurde dort eingesetzt, wo das Hauptaugenmerk auf Leistung gelegt wurde Mittlerweile haben sich andere Logikfamilien wie TTL (Transistor-Transistor-Logik) und CMOS (complementary-metal-oxide-semiconductor) weiterentwickelt und ECL in einigen Anwendungen ersetzt [11] Es dauerte mehrere Monate, um einen Cray-1- Supercomputer aufzubauen Hunderte von Leiterplatten und tausende von Kabeln mussten korrekt eingesetzt werden Das war eine richtige handerzeugte Maschine, sagte Abb 32/4 Gwen Bell von The Computer Museum History Center [6] Man denkt bei diesen ganzen Kabeln an eine Art Haufen, aber jedes einzelne hat eine präzise Länge Das National Center for Atmospheric Research (NCAR) war im Juli 1977 der erste offizielle, Gnd V cc Beispiel ECL OR/NOR- Gatter mit 4 Eingängen [21] Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer - 8 -

9 kommerzielle Kunde der Firma Cray NCAR bezahlte 886 Millionen US-Dollar, davon eine Million für den Speicher Diese Cray-1 wurde erst 1989 außer Betrieb genommen Mit Preisen zwischen 5 Mio und 8 Mio Dollar wurden ungefähr 80 Cray-1 weltweit verkauft Das schöne daran war, dass man die Maschine in jeder Farbe bestellen konnte, die man haben wollte und die hält noch bis heute Cray war ein wunderbarer Packer Er lernte, wie man Dinge mit sehr hohen Geschwindigkeiten dicht aneinander setzt, schneller, als es irgendjemand anderes tun konnte Gwen Bell (The Computer Museum History Center) [6] 1978 wurde das erste Standardsoftwarepaket für die Cray-1 herausgegeben Es bestand aus einem Betriebssystem, dem Cray Operating System (COS), welches später durch eine Cray spezifische Unix-Variante, das UniCOS abgelöst wurde, der Cray Assembler Language (CAL) und Cray Fortran, einem Fortran Compiler, der als erster vollautomatisch vektorisieren konnte Die Kombination von ECL und Hufeisenform gab der Cray-1 die damals sehr hohe Leistung von 133 MFlops in einem relativ kleinen Paket 33 Die Cray wurde die Cray-1 durch die 500 MFflops schnelle Cray X-MP abgelöst, die die erste Multiprozessormaschine der Firma Cray war 1985 kam dann die sehr fortgeschrittene Cray-2 auf den Markt Diese war schon in der Lage 1,9 GFlops (1 Milliarde Fließkommazahl- Operationen pro Sekunde) in der Spitze zu erreichen Die Cray-2 war eine Klasse für sich Sie war auch ein Vektorrechner, besaß bis zu 4 Prozessoren mit je einem Taktzyklus von 4,1 Nanosekunden (entsprechend 243 MHz) und hatte einen Hauptspeicher angefangen bei 512 MB bis zu 4 GB Diese Größe wurde von anderen Computersystemen für ein Jahrzehnt nicht überboten Die Cray-2 hatte wie die Cray-1 eine Hufeisenform Sie war bereits etwas kleiner einen Durchmesser von 1,35 Meter und eine Höhe von 1,15 Meter Sie benötigte einen separaten Kühlturm Dazu aber später mehr Abbildung 33/1 zeigt im Vordergrund die Cray-2 und den Kühlturm rechts daneben Links im Hintergrund steht eine Cray-1 [12] Seymour Cray baute auf seinem Erfolg mit der Cray-1 auf Ab 1979 hatte er die ständigen Unterbrechungen seiner Arbeit durch das Abb 33/1 Cray-2 mit Kühlturm [12] Management satt und beschloss, die Managementstelle zu schließen und ein neues Labor zu gründen Das Management verstand Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer - 9 -

10 seine Bedürfnisse und unterstütze ihn bei der Errichtung eines neuen Labors, genannt Cray Labs, in Boulder (Colorado) Dort fungierte er als unabhängiger Berater Seymour Cray stellte ein Team zusammen, und arbeitete an einem komplett neuen Design Hier ein kleiner Rückblick Cray unternahm früher drei Maßnahmen, um das Problem der steigenden Geschwindigkeiten anzugehen Mehr Funktionseinheiten gaben dem System höhere Parallelität Die Baugruppen mussten dichter gepackt werden, um die Verzögerungszeiten zu minimieren Nicht zuletzt konnte eine höhere Taktrate für das System nur durch schnellere Komponenten gewährleistet werden Durch die unglaubliche Dichte der Komponenten wurde zwar die Taktrate erheblich erhöht Aber gleichzeitig konnte sie zum Absturz der Maschine führen Ein einzelner defekter Transistor legt ein komplettes Modul lahm Dann werden mehrere dieser Module dicht auf eine Schaltkreisplatine gepackt Durch dieses System vergrößert sich die Wahrscheinlichkeit, dass jedes Modul einer Schaltkreisplatine ausfällt Dieses Problem konnte man umgehen, indem man Integrierte Schaltkreise (ICs) anstelle von individuellen Komponenten benutzte Diese enthielten eine Auswahl an Komponenten von den Modulen, die automatisch vorgefertigt wurden War ein IC defekt, konnte man ihn einfach durch einen neuen ersetzen Seymour Cray vertrat auch die Meinung, dass die Zeit der Silizium-Schaltkreise bald vorbei sein würde Die Cray-1 erreichte zwar einen Taktzyklus von 12,5 ns, aber mehr als eine Verdopplung der Geschwindigkeit auf Siliziumbasis schien nicht so einfach machbar Es gab noch die Möglichkeit der galliumarsenid-basierenden (GaAs) Schaltkreise Diese boten die zehnfache Schaltgeschwindigkeit, verbrauchten weniger Strom und erzeugten auch weniger Hitze Aber diese Schaltkreise waren Ende der 70er und Anfang der 80er Jahre noch nicht bereit für die Produktion, und so musste man für Cray-2 mit existierenden siliziumbasierenden Designs auskommen Ein anderes Designproblem war die Leistungskluft zwischen Prozessor und Hauptspeicher Ende der 60er Jahre, als Seymour Cray noch für Control Data Corporation arbeitete, liefen beide noch mit einer Taktgeschwindigkeit Damals gestaltete sich die Einspeisung des Prozessors mit Daten schwierig Cray löste das, indem er 10 kleinere Computer an das System anschloss, die mit externen Speichermedien (Disketten und Kassetten) interagierten und Daten in den Hauptspeicher einspeisten, während der Prozessor beschäftigt war Diese Lösung war nun nicht mehr zeitgemäß und bot keine Vorteile Der RAM war groß genug, um ganze Datensätze einzulesen, aber der Prozessor lief mit einer höheren Taktrate, sodass oft kostbare Zeit verloren ging, die der Prozessor mit Warten auf ankommende Daten vergeudete Cray-2 hatte 4 Prozessoren, was das Problem noch vergrößerte Um dieses Problem zu vermeiden, Abb 33/2 Innerhalb der Cray-2 [12] beinhaltete das neue Design einen 128 Kilobyte großen Block des schnellsten Speichers, der damals möglich war Dieser Cache wurde mittels einer separaten High-speed-Pipeline mit 4 Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer

11 so genannten Hintergrundprozessoren verbunden und durch einen Vordergrundprozessor mit Daten gefüttert Der Vordergrundprozessor war über eine Anzahl von Leitern (Datenrate von mehreren Gigabit pro Sekunde) mit dem Hauptspeicher verbunden, und hatte die Aufgabe, den Computer zu steuern Er steuerte ebenfalls den Speichervorgang und sorgte für eine effiziente Nutzung der Kanäle zum Hauptprozessor Ebenso gab er Befehle an die Hintergrundprozessoren weiter Heutige Computer verwenden ein ähnliches Prinzip, nur bezieht sich der Vordergrundprozessor dann auf die load/store unit (Lade/Speicher- Einheit) Cray-2 Modelle basierten auf einem Konzept mit großen Schaltkreisplatinen, die voll mit IC s bestückt waren Sie waren aber so dicht bepackt, dass es fast unmöglich war, sie zusammenzulöten, und die Dichte war noch immer nicht groß genug, um die gesetzten Anforderungen zu erfüllen Mehrere Teams arbeiteten beinahe 2 Jahre am Design, bevor selbst Seymour Cray aufgab, und beschloss, das Projekt zu beenden und jeden zu feuern, der daran beteiligt war Les Davis, Cray s Hauptmitarbeiter, wollte es mit geringer Priorität fortsetzen 6 Monate später hatte man die Lösung gefunden Anstelle einer großen Schaltkreisplatine sollte jede Karte aus einem 3D-Stapel mit 8 Schaltkreisplatinen bestehen, Abb 33/3 3D-Stapel mit Schaltkreisen und pogo -Pins [12] die mit Pins (bekannt als pogos oder z-pins ) verbunden waren, die von der Oberfläche abstanden Abbildung 33/3 zeigt diese goldgefärbten Stäbe zwischen den Schaltkreisen Ein konventionelles Kühlsystem war nun bei dieser Dichte nicht mehr verwendbar, da zu wenig Platz für die Luftzirkulation zwischen den ICs vorhanden war Stattdessen wurde das System in eine Kühlflüssigkeit namens Fluorinert der Firma 3M eingetaucht Es ist eine elektrisch isolierende, zähe, bronze-akryl-farbene Flour-Carbon-Flüssigkeit, die hauptsächlich zur Kühlung elektronischer Systeme verwendet wird Wenn sich die Flüssigkeit erhitzt, steigt diese im Computer nach oben auf Von da aus wird sie in einen separaten Kühlturm abgepumpt, dort abgekühlt und dem Computersystem wieder zugeführt Auf diese Weise wurde eine höhere Dichte erreicht als mit anderen Möglichkeiten Die Cray-2 wurde zur Bearbeitung gewaltiger Datensätze eingesetzt Sie wurde in erster Linie für die American Departments of Defense and Energy entwickelt Die Benutzung tendierte zur Nuklearwaffenforschung bzw zur ozeanischen (Sonar) Entwicklung Sie fand auch Einzug in zivile Einrichtungen, so zb in das NASA Ames Research Center, und in Universitäten [12] Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer

12 34 Die Cray-3 Die Arbeit an der Cray-3 begann in den 1980er Jahren im neuen Labor Cray Labs in Colorado Mit der Cray-2 kamen die neuen 3D-Stapel mit integrierten Schaltkreisen, die eine höhere Dichte erlaubten Es schien so, als könnte man das ganze noch verbessern Seymour Cray dachte noch weiter, denn wie er meinte würde das dichte Verpacken allein nicht ausreichen Man dachte ja, die Cray-2 würde die Grenze der Geschwindigkeit von siliziumbasierenden Schaltkreisen erreichen, die bei 4,1 Nanosekunden lag, und es schien unmöglich, mehr als das Doppelte an Geschwindigkeit herauszuholen Damals war man noch nicht so weit, galliumarsenid-basierende Schaltkreise in Supercomputer einzubauen, doch Mitte der 80er Jahre änderte sich die Situation Für Seymour Cray waren GaAs-Schaltkreise die einzige Lösung, und er investierte in diese GigaBit-Logik Das war ein riskanter Schritt, denn wenn sich die Technologie nicht bewähren würde, wäre das gesamte Cray-3-Projekt zum Scheitern verurteilt Bei der Cray-2 hatte es nicht funktioniert Außerdem befand sich Cray Research mitten in der Entwicklung eines anderen Systems mit Namen Cray Y-MP So beschloss das Management, dass die Cray-3 mit geringer Priorität weiterentwickelt werden sollte Das passierte Seymour nicht zum ersten Mal Wie in der Vergangenheit gründete er einfach 1989 seine eigene Firma, um das Projekt fortsetzen zu können Das Ergebnis war die Cray Computer Corporation, die zu einem großen Teil vom Hauptkunden NCAR (National Center for Atmospheric Research) unterstütz wurde Abb 34/1 Cray-3 am NCAR Mesa Laboratory in Boulder [14] Der Kern der Cray-3 bestand wie bei vorherigen Designs aus einer Anzahl Module Abbildung 34/2 zeigt ein solches Modul Die Galliumarsenid-Chips wurden nicht verpackt, sondern mittels Ultraschallbonden direkt auf eine 1 Zoll ( 2,5 cm) mal 1 Zoll große Platte aufgetragen Diese wurde umgedreht und auf eine zweite Platte mit den Anschlusskabeln gelegt Von dort aus verliefen die Kabel durch Löcher in die Chipträgerkarte und wurden dort gebondet Das Ergebnis war ein Sandwich zwei dünne Platten und die Chips dazwischen 16 dieser Submodule fanden Platz auf einem Board Das ganze viermal hintereinander ergab ein Modul Wie bei Cray-2 entstand ein 3D-Schaltkreis Auf diese Weise erreichte man eine Logikdichte von 100 Gattern pro Kubikzoll Die Metallstecker am oberen Rand in Abbildung 34/2 dienten der Spannungsversorgung Ein Modul war also quadratisch und 4 Zoll ( 10 cm) breit [13] 32 solcher Module wurden gestapelt und in ein Aluminiumgehäuse montiert, das als Brick (deutsch: Ziegelstein ) bezeichnet wurde Die Bricks wurden in eine Kühlflüssigkeit (wie bei Cray-2 Fluorinert ) eingetaucht Diese wurde zwischen den Modulen hindurchgepumpt Mit einer großen Abb 34/2 Cray-3-Modul [13] Anzahl twisted-pair-kabel schloss man die Module an einen Prozessor an In Abbildung 34/3 ist ein kompletter Prozessor- Brick dargestellt Die Module waren vertikal angeordnet Ein Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer

13 4-Prozessor-System verbrauchte ca Watt und erzeugte eine Wärme, die sechs 600 m 2 - Wohnungen beheizen konnte Das ganze 4-Prozessor-System war ca 50 cm hoch und etwas mehr als 60 cm breit Es befand sich am oberen Ende eines grauen Schrankes, der 1,20 Meter hoch, 0,91 Meter breit und genauso lang war Eine Ebene tiefer befand sich der Speicher, danach das Energieversorgungssystem und ganz unten das Kühlsystem (siehe Abbildung 34/1) Alles in allem war die Cray-3 viel kleiner als die Cray-2 Im Gegensatz zur Cray-2 stieg die Anzahl der maximal einsetzbaren Prozessoren von 4 auf 16 Die Taktzykluszeit wurde halbiert Sie betrug nun 2,11 Nanosekunden; das entspricht 500 MHz Daraus resultierte für jeden Prozessor eine Leistung von 0,948 GFlops für das ganze System also eine Leistung von 15,17 GFlops Der Schlüssel dazu war der Highspeed-Zugriff (Bandbreite von 8 GB pro Sekunde) auf den Hauptspeicher Die Entwicklung schleppte sich hin Erst am 24 Mai 1993 wurde die erste und einzige fertige Cray-3 an das NCAR Mesa Laboratory in Boulder ausgeliefert Sie bekam den Namen Graywolf (zu Deutsch: Grauer Wolf ) Das geht auf eine Tradition von NCAR zurück, alle eigenen Computer nach Berggipfeln in den Colorado Rocky Mountains zu benennen Das Design sah zwar bis zu 16 Prozessoren vor, aber diese Variante besaß nur 4 Des Weiteren hatte sie einen 6 GB großen Hauptspeicher Während der Produktion bekam man mit, dass der Programmiercode einen Bug enthielt Einer der 4 Prozessoren arbeitete deswegen nicht zuverlässig Der Austausch einiger Komponenten war zwar vorgesehen, aber anscheinend nicht durchgeführt NCAR hatte die Maschine noch nicht bezahlt; somit war es mehr eine Leihgabe der Cray Computer Corporation Diese hatte 1995 um die 300 Millionen Dollar in den Sand gesetzt NCAR s Supercomputer wurde offiziell zurückgebracht, doch es wurden lediglich zwei Prozessoren entfernt, und die Maschine wurde für einige Zeit noch inoffiziell weiterbenutzt Das System wurde für atmosphärische und ozeanographische Berechnungen, sowie für die Softwareentwicklung der CCC verwendet Insgesamt wurden sieben Gehäuse für Cray-3- Computer gebaut (die meisten für kleinere 2- CPU-Maschinen), aber nur ein fertiges System wurde jemals ausgeliefert Drei von den kleineren wurden für das Cray-4-Projekt verwendet Der Cray-4-Supercomputer war letztlich ein Cray-3 mit 64 schnelleren Prozessoren, die bei je 1 GHz liefen Der Misserfolg der Cray-3 schien nur zu einem kleinen Teil an der Maschine selbst zu liegen Abb 34/3 Cray-3-Module im Brick [13] Aber er sollte komplett mit dem wechselnden politischen Klima zu tun haben Die Cray-3 wurde während des Zusammenbruchs des Warschauer Paktes entwickelt Mit diesem Ereignis endete der Kalte Krieg Das führte zu einem massiven Rückgang der Nachfrage an großen Supercomputern Der Markt ist zwar seither wieder gestiegen, aber nur für MPP-Systeme, und es scheint, dass die Zeit der Einprozessorarchitekturen vorbei ist Der ganze Galliumarsenid-Markt wurde damals regelrecht heimgesucht Man glaubt, wenn der Kalte Krieg nicht beendet worden wäre, würde man heute viel mehr Computer vorfinden, die Galliumarsenid-Schaltkreise verwenden Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer

14 1993 bot Cray Research sein erstes MPP-System an den Cray T3D-Supercomputer Gleichzeitig nahm man die Führung auf dem MPP-Markt anderen Anbietern wie Thinking Machines und MasPar weg Der Nachfolger Cray T3E ließ sich als MPP-Computer seit seiner Einführung im Jahre 1995 weltweit am besten verkaufen Im November 1998 verwendete ein Team aus Wissenschaftlern des Oak Ridge National Laboratory, des National Energy Research Scientific Computing Center (NERSC), des Pittsburgh Supercomputing Center und der University of Bristol (UK) einen Cray T3E-1200E für eine Magnetismusanwendung Dieses System war das erste, das bei einer realen Anwendung eine Leistung von 1,02 TFlops erreichte Cray Research und die Firma Silicon Graphics, Inc (SGI) fusionierten im Februar 1996 Tragischerweise kam Seymour Cray im September desselben Jahres im Alter von 71 Jahren bei einem Autounfall ums Leben Er hatte noch viele Ideen, der er leider nicht mehr verwirklichen konnte Vier Jahre später (2000) wurde die Firma in Cray, Inc umbenannt [15] 35 Der Cray XD1 Supercomputer Die XD1 ist einer der neueren Supercomputer der Firma Cray Inc Dieses System wird seit dem 4 Oktober 2004 zum Kauf angeboten und kostet je nach Variante zwischen und 2 Millionen Dollar Die XD1 basiert auf einem System, das OctigaBay aus Vancouver in Kanada entwickelt hat Nach der Übernahme durch Cray im Frühjahr 2004 firmieren die Supercomputer-Spezialisten unter Cray Kanada Abb 35/1 Cray XD1 Chassis [16] Die XD1 ist ein Cluster-System, das heißt sie besteht aus mehreren Rechnern, die nach außen wie einer erscheinen Vorteile eines Clusters sind höhere Ausfallsicherheit und Skalierbarkeit Nachteilig ist der höhere Programmieraufwand, da der aktuelle Status auf allen Rechnern realisiert werden muss Auch bei der XD1 werden Standardkomponenten verwendet, wie etwa der aktuelle 64-bit AMD-Opteron-Prozessor Cray wertet diese aber durch einen eigenen schnellen Interconnect, Management- und Rekonfigurations-Features sowie Beschleunigungsprozessoren für spezielle Applikationen auf Für den Anwender steht ein auf HPC zugeschnittenes Linux-Betriebssystem zur Verfügung, das als Plattform für die Anwendungen Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer

15 dient Die Hardware wurde von Cray so zugeschnitten, dass auch AMD-Dual-Core- Prozessoren eingesetzt werden können Dadurch ist, rein theoretisch, eine Verdopplung der Rechenleistung möglich, wenn die Verteilung der Rechenlast auf die Kerne optimal ist Nun einige Angaben zum Umfang des Gesamtsystems Bis zu 12 XD1-Systeme (12 Chassis) lassen sich in einem Rack unterbringen (Abbildung 35/1) Ein Chassis ist 13,3 cm hoch, 58,4 cm breit und 91,4 cm tief, enthält 12 Opteron-CPUs, maximal 96 GB PC2700 (DDR333) SDRAM oder maximal 48 GB PC3200 (DDR400) SDRAM (1-8 GB pro Socket) und bis zu 2 TB Plattenspeicher Laut Cray erreicht ein System mit 12 AMD-Dual-Core-Prozessoren mit je 2,2 GHz eine theoretische Spitzenleistung von 106 GFlops Cray ist in der Lage, mehrere Racks zu koppeln Dadurch sind Rechnersysteme mit einer Spitzenleistung von über 2 TFlops realisierbar [18] Im Folgenden möchte ich auf einige Besonderheiten der Rechnerarchitektur eingehen Die Fähigkeit eines Cluster-Systems, tausende von Prozessoren mit Daten zu füttern, ist ein begrenzender Faktor bezüglich der Leistung Seit Ende der 80er Jahre verwenden traditionelle HPC-Architekturen die teure SMP shared-memory-technologie oder I/O-Busse, um mehrere Prozessoren miteinander zu verbinden Diese Techniken begrenzen aber die Skalierbarkeit und Leistung von Multiprozessorsystemen Bei der I/O-Connected- Architektur fungiert der PCI-Bus als I/O-Bus (Siehe Abbildung 35/2) Man verwendet Network Interface Cards (NICs), die in PCI-Slots gesteckt werden Übliche Cluster verwenden das Gigabit Ethernet oder eventuell Infinband als Standardverbindung Diese Systeme sind zwar preislich günstig, aber die Verteilung von Daten auf einzelne Abb 35/2 I/O-Connected Architektur [17] Prozessoren ist weniger effizient Bei Cluster-Systemen, die die Memory-Connected- Architektur benutzen, findet die Interaktion von Prozessoren unterschiedlicher Cluster über den Hauptspeicher statt (Abbildung 35/3) [17] Per Symmetrischem Multiprocessing (SMP) werden die laufenden Prozesse auf alle Prozessoren verteilt, während beim Asymmetrischen Multiprocessing jedem CPU eine Aufgabe fest zugewiesen wird ZB CPU 0: Betriebssystemaufrufe und CPU 1: Benutzerprozesse Die Möglichkeit, dass jede CPU jeden Prozess ausführen können muss, führt jedoch bei größeren Systemen dazu, dass der Speicherbus zum Flaschenhals wird Mit jeder zusätzlichen CPU sinkt der relative Leistungs-Gewinn, da die Speichersubsysteme die Daten nicht mehr schnell genug liefern können, um alle vorhandenen CPUs auszulasten Diese Nachteile werden durch die von Cray entwickelte Direct Connected Processor (DCP) Architektur kompensiert Dieses Interconnect führt zu einer schnelleren Kommunikation der Prozessoren untereinander Abbildung 35/4 zeigt schematisch diese Architektur Das Cray- RapidArray-Interconnect zeichnet sich durch eine hohe Memory- Bandbreite und geringe Latenzzeit aus (Siehe Abbildung Abb 35/3 Connected 35/5) Es nutzt zwölf eigene Kommunikationsprozessoren Architektur [17] und ein 96-GB/s-non-blocking-Switching-Fabric pro Chassis Damit stellt Cray eine theoretische Bandbreite von acht GB/s zwischen jedem der Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer

16 Knoten aus zwei Opteron-Prozessoren in SMP-Topologie bereit Davon stehen effektiv 5,8 GB/s pro Knoten zur Verfügung Die MPI- (Message Passing Interface) Latenz liegt bei 1,6 Mikrosekunden Zur Verbindung mehrerer Chassis verfügt jedes über 24 externe RapidArray- Interchassis-Links mit einer Bandbreite von insgesamt 48 GB/s Die Hardware unterstützt MPI (Message Passing Interface), shmem (eine verbreitete, Cray-spezifische Kommunikationsbibliothek) und Bibliotheken für globale Arrays Für eine höhere Geschwindigkeit kann die zugehörige Kommunikations-Software den Linux-Kernel umgehen Mit den Interconnects lassen sich beliebige Netzwerktopologien aufbauen wie etwa Fat Tree, Torus, und Hypercube [16] Abb 35/4 Cray Direct Connected Processor (DCP) Architektur [17] Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer

17 Abb 35/5 Latenzzeit der Prozessorkommunikation bei Parallelrechnern [16] Eine weitere Besonderheit des Cray XD1-Supercomputers sind die sechs optionalen Prozessoren Die Xilink-Virtex II Pro FPGAs beschleunigen spezielle Anwendungen und arbeiten mit den Opteron-Prozessoren eng zusammen Per Software kann man die Schaltkreise in den FPGAs konfigurieren Dadurch lässt sich dynamisch ein Koprozessor generieren, der die benötigte Teilaufgabe in Hardware, also ohne das sequentielle Abarbeiten von Programmcode, löst Cray bietet eine Programmbibliothek an, aus der der Anwender erprobte Lösungen aufrufen kann Die FPGAs lassen sich aber auch frei programmieren Die FPGAs haben direkten Zugriff auf den Opteron-Hauptspeicher und sind in das RapidArray eingebunden (Abbildung 35/6) Beispiele für das Entlasten der Opterons sind spezielle Such- und Sortierverfahren, die Signalverarbeitung und die Verschlüsselung Bei der Genome- Sequenzierung in der Bioinformatik etwa führt der Einsatz der FPGAs zu einer Beschleunigung um mehr als den Faktor Abb 35/6 Beschleunigung mit FPGA [19] 100 Mit Hilfe eines Active-Manager-Subsystems wird die Verfügbarkeit des XD1-Systems sichergestellt und es lassen sich spezifische Konfigurationen regeln Es stellt den aktuellen Zustand des Systems fest, stellt ihn grafisch dar und führt damit eine zukunftsgerichtete Fehlervorhersage durch Etwa 200 kritische Größen wie Spannung, Temperatur oder fehlererkennende Schaltkreise werden dazu regelmäßig überwacht Auf diese Weise werden kritische Hardware-Komponenten von Operationen suspendiert und aus der SMP- Konfiguration ausgeblendet Der Active Manager kann die XD1 in mehrere kleine, unabhängige Supercomputer partitionieren oder auch die gesamte Rechenleistung einer Anwendung zuweisen [16] Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer

18 4 Schlussbemerkungen 41 Zusammenfassung Alles begann mit dem Namen Seymour Cray Er kann zu Recht als Vater des Supercomputers bezeichnet werden Für ihn galten beim Entwickeln von Supercomputern 3 wichtige Prinzipien: mehr Funktionseinheiten (Parallelität), engere Anordnung der Baugruppen und schnellere Komponenten An der Entwicklung der ersten Supercomputer Ende der 60er und Anfang der 70er Jahre war er maßgeblich beteiligt Unter dem Firmennamen Cray Research wurde 1976 der Vektorrechner Cray-1 entwickelt und gebaut Dies war ein frühes Beispiel für den Begriff Supercomputer Diese Maschine überholte die damals existierende Technologie Die innovative Hufeisenform ermöglichte ein engeres Beieinanderliegen der Schaltkreise, die Signallaufzeiten wurden dadurch verringert und die Rechenleistung erhöht Damals füllten diese Apparate noch ganze Räume aus, und sie waren halbe Heizkraftwerke Doch der technische Fortschritt war nicht aufzuhalten 1982 folgte die Cray-2 Sie besaß bis zu 4 Prozessoren zu je 243 MHz und hatte einen Hauptspeicher angefangen bei 512 Megabyte bis zu 4 Gigabyte Diese Größe wurde von anderen Computersystemen für ein Jahrzehnt nicht überboten Für Seymour Cray gab es fast kein Problem, das nicht irgendwie auch eine Lösung nach sich zog Höhere Dichte erreichte man zb durch 3D-Stapel mit mehreren Schaltkreisplatinen Luftkühlung wurde durch eine Kühlflüssigkeit namens Fluorinert ersetzt Bei der Entwicklung der Cray-3 in den 1980er Jahren stieg man dann auf leistungsfähigere Galliumarsenid-Schaltkreise um Beim Kern dieses Supercomputers behielt man das Modul-Prinzip bei Leider wurde von diesem System nur ein einziges fertig gestellt An diesen 3 Systemen lässt sich die Leistungssteigerung von Supercomputern innerhalb von 3 Jahrzehnten sehr gut veranschaulichen Währen die Cray-1 eine Spitzenleistung von 133 MFlops mit einem Prozessor erreichte, besaß die Cray-2 bereits 4 Prozessoren, und erreichte schon 1,9 GFlops Das Cray-3-System konnte auf bis zu 16 CPUs erweitert werden und hatte dann eine Spitzenleitung von 15,17 GFlops Die Gesamtgröße der Systeme schrumpfte auch zusehends während dieser Zeit Das Beispiel der Cray XD1 zeigt, dass man heute zu so genannten Cluster-Systemen übergegangen ist Diese bestehen aus mehreren Rechnern, die nach außen wie einer erscheinen Vorteile eines Clusters sind höhere Ausfallsicherheit und Skalierbarkeit Laut Cray erreicht ein XD1-System mit 12 AMD-Dual-Core-Prozessoren mit je 2,2 GHz eine theoretische Spitzenleistung von 106 GFlops Aus der gesamten Betrachtung ergibt sich, dass Seymour Cray mit seinen Systemen eine Schlüsselrolle bei der Entwicklung von Supercomputern einnimmt Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer

19 42 Ausblick Wie gezeigt wurde, finden Cray-Systeme heute ein breites Anwendungsspektrum in der Industrie, in Wissenschaft und Forschung, in Regierungseinrichtungen, beim Militär, usw Modellbeschreibungen in der Physik, in der Medizin, bei der Wettervorhersage und in anderen Anwendungsgebieten werden immer komplexer Dadurch steigt die Menge der zu bewältigenden Daten Für die Berechnung und Simulation werden Supercomputer auch in der Zukunft unverzichtbar sein Der Entwicklungsweg hat uns gezeigt, dass Hochleistungsrechner immer schneller und auch kompakter geworden sind Auf die Frage, wann heutige GigaFlops auf dem Desktop verfügbar sein werden, antwortete Professor Viktor K Prasanna von der University of Southern California: Es wird nicht sehr lange dauern Wir haben bereits einen single desk Prozessor im Bereich von einigen 100 GigaFlops, den RS6000 Wenn man Workstations betrachtet, wird es in ein bis zwei Jahren der Fall sein Wenn man Home-PCs betrachtet, werden es eine Anzahl Jahre sein [20] Es ist also nur eine Frage der Zeit vielleicht einige Jahrzehnte bis unser Universalrechner zu Hause an die Leistung heutiger Supercomputer anknüpfen kann und diese Performance auch einigermaßen bezahlbar ist Stand: Artikel erschien am 22 Januar 1998 Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer

20 ABKÜRZUNGSVERZEICHNIS CAE CAL CDC cm CMOS COS CPU CUG DCP DDR ECL FPGA GaAs GB GFlops GHz HPC IC kw MB MHz MFlops MPI MPP NCAR RAM SDRAM SIMD SMP TB TFlops TTL Computer Aided Engineering Cray Assembler Language Control Data Corporation Zentimeter Complementary Metal Oxide Semiconductor Cray Operating System Central Processing Unit Cray User Group Direct Connected Processor Double Data Rate Emitter Coupled Logic Field Programmable Gate Array Galliumarsenid Gigabyte Giga Floatingpoint Operations per Second Gigaherz High-Performance Computing Integrated Circuit Kilowatt Megabyte Megaherz Mega Floatingpoint Operations per Second Message Passing Interface Massively Parallel Processing National Center for Atmospheric Research Random Access Memory Synchronous Dynamic Random Access Memory Single Instruction Multiple Data Symmetrisches Multiprocessing Terabyte Tera Floatingpoint Operations per Second Transistor-Transistor-Logik Hauptseminar: Die Geschichte und Gegenwart der Cray-Supercomputer

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1 Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer

Mehr

Ein kleines Computer-Lexikon

Ein kleines Computer-Lexikon Stefan Edelmann 10b NIS-Klasse Ein kleines Computer-Lexikon Mainboard Die Hauptplatine! Sie wird auch Motherboard genannt. An ihr wird das gesamte Computerzubehör angeschlossen: z.b. Grafikkarte Soundkarte

Mehr

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at

Mehr

Ausarbeitung Seminarvortrag High-Performance-Computing WS 2011/2012

Ausarbeitung Seminarvortrag High-Performance-Computing WS 2011/2012 Ausarbeitung Seminarvortrag High-Performance-Computing WS 2011/2012 Matthias Bott 9. Januar 2012 2 VOM PC ZUM HPC 2 1 Movtivation Auf die Frage, wofür Computer in der Kernphysik benötigt werden, gibt es

Mehr

Im Original veränderbare Word-Dateien

Im Original veränderbare Word-Dateien Das Von-Neumann-Prinzip Prinzipien der Datenverarbeitung Fast alle modernen Computer funktionieren nach dem Von- Neumann-Prinzip. Der Erfinder dieses Konzeptes John von Neumann (1903-1957) war ein in den

Mehr

IT für Führungskräfte. Zentraleinheiten. 11.04.2002 Gruppe 2 - CPU 1

IT für Führungskräfte. Zentraleinheiten. 11.04.2002 Gruppe 2 - CPU 1 IT für Führungskräfte Zentraleinheiten 11.04.2002 Gruppe 2 - CPU 1 CPU DAS TEAM CPU heißt Central Processing Unit! Björn Heppner (Folien 1-4, 15-20, Rollenspielpräsentation 1-4) Harald Grabner (Folien

Mehr

Brückenkurs / Computer

Brückenkurs / Computer Brückenkurs / Computer Sebastian Stabinger IIS 22 September 2014 1 / 24 Content 1 Allgemeines zum Studium 2 Was ist ein Computer? 3 Geschichte des Computers 4 Komponenten eines Computers 5 Aufbau eines

Mehr

Multicore Herausforderungen an das Software-Engineering. Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010

Multicore Herausforderungen an das Software-Engineering. Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010 Multicore Herausforderungen an das Software-Engineering Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010 Inhalt _ Motivation _ Herausforderung 1: Hardware _ Herausforderung 2: Software-Partitionierung

Mehr

Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation

Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation 1 Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation Dr. G. Wellein, Regionales Rechenzentrum Erlangen Supercomputer

Mehr

Algorithmus, siehe (1)

Algorithmus, siehe (1) Der Computer als elektronische Rechenmaschine entstand in den vierziger Jahren des 20. Jahrhunderts. Die Gedankenwelt der Informatik lässt sich aber bedeutend weiter zurückverfolgen. Mit diesem Kapitel

Mehr

Enterprise Computing

Enterprise Computing Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth Teil 6 Partitionierung NUMA Sharing Disk Storage HP Superdome Cell Board 4 Itanium 2 CPU Chips 32 128 Gbyte I/O Bus mit Kühlern Hauptspeicher Anschlüsse

Mehr

Brückenkurs / Computer

Brückenkurs / Computer Brückenkurs / Computer Sebastian Stabinger IIS 23 September 2013 Sebastian Stabinger (IIS) Brückenkurs / Computer 23 September 2013 1 / 20 Content 1 Allgemeines zum Studium 2 Was ist ein Computer? 3 Geschichte

Mehr

Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA)

Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA) Proseminar KVBK Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA) Arian Bär 12.07.2004 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) 2.1. Allgemeines 2.2. Architektur 3. Speicherarchitekturen

Mehr

Einführung (0) Erster funktionsfähiger programmgesteuerter Rechenautomat Z3, fertiggestellt 1941 Bild: Nachbau im Deutschen Museum München

Einführung (0) Erster funktionsfähiger programmgesteuerter Rechenautomat Z3, fertiggestellt 1941 Bild: Nachbau im Deutschen Museum München Einführung (0) Erster funktionsfähiger programmgesteuerter Rechenautomat Z3, fertiggestellt 1941 Bild: Nachbau im Deutschen Museum München Einführung (1) Was ist ein Rechner? Maschine, die Probleme für

Mehr

Informatik Mensch Gesellschaft. Historische Entwicklung der Informationstechnik (von Anfang bis Heute)

Informatik Mensch Gesellschaft. Historische Entwicklung der Informationstechnik (von Anfang bis Heute) Informatik Mensch Gesellschaft Historische Entwicklung der Informationstechnik (von Anfang bis Heute) Algorithmen-Automat Schritt-für-Schritt-Anleitung zum Lösen mathematischer Probleme kann immer wieder

Mehr

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Johannes Schemmel Forschungsgruppe Electronic Vision(s) Lehrstuhl Prof. K. Meier Ruprecht-Karls-Universität Heidelberg Mitarbeiter:

Mehr

Grundlagen der Rechnerarchitektur

Grundlagen der Rechnerarchitektur Grundlagen der Rechnerarchitektur Einführung Unsere erste Amtshandlung: Wir schrauben einen Rechner auf Grundlagen der Rechnerarchitektur Einführung 2 Vorlesungsinhalte Binäre Arithmetik MIPS Assembler

Mehr

Die Vision Landschaft und was sie mit Moore s Gesetz zu tun hat

Die Vision Landschaft und was sie mit Moore s Gesetz zu tun hat Die Vision Landschaft und was sie mit Moore s Gesetz zu tun hat Horst A. Mattfeldt Produkt Manager Matrix Vision GmbH V1.0 10/2010 MATRIX VISION GmbH 1 Inhalt/Content: Vom Vision Sensor über Atom Boxen

Mehr

Mikrocontroller Grundlagen. Markus Koch April 2011

Mikrocontroller Grundlagen. Markus Koch April 2011 Mikrocontroller Grundlagen Markus Koch April 2011 Übersicht Was ist ein Mikrocontroller Aufbau (CPU/RAM/ROM/Takt/Peripherie) Unterschied zum Mikroprozessor Unterschiede der Controllerarten Unterschiede

Mehr

Computermuseum WSI. Prof. Dr. Herbert Klaeren

Computermuseum WSI. Prof. Dr. Herbert Klaeren Computermuseum WSI Prof. Dr. Herbert Klaeren http://www.wsi.uni-tuebingen.de/fachbereich/wilhelm-schickard-institut-fuer-informatik/computermuseum.html 1 Herbert Klaeren WSI TÜBIX, 13. Juni 2015 IBM 7090

Mehr

RAC auf Sun Cluster 3.0

RAC auf Sun Cluster 3.0 RAC auf Sun Cluster 3.0 Schlüsselworte RAC, OPS, Sun Cluster, Performance, Availability Zusammenfassung Oracle hat mit dem Real Application Cluster (RAC) aus einer Hochverfügbarkeitslösung eine Höchstverfügbarkeitslösung

Mehr

Technische Informatik 1

Technische Informatik 1 Technische Informatik 1 1 Einleitung Lothar Thiele Computer Engineering and Networks Laboratory Technische Informatik 1 2 Was ist Technische Informatik? A. Ralston, E.D. Reilly: Encyclopedia of Computer

Mehr

Die Geschichte des Computers

Die Geschichte des Computers Inhaltsverzeichnis Der Vorbote des Computers... 3 Der Erfinder des ersten Computers... 3 Die Computer... 4 Der erste Computer Z1... 4 Der zweite Computer Z3... 5 Der Mark I... 6 Der ENIAC... 7 Der SSEC...

Mehr

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz MOGON Markus Tacke HPC ZDV HPC - AHRP Was ist Mogon allgemein? Das neue High Performance Cluster der JGU Ein neues wichtiges Werkzeug für Auswertung von Messdaten und Simulationen Beispiele Kondensierte

Mehr

Grundlagen der Parallelisierung

Grundlagen der Parallelisierung Grundlagen der Parallelisierung Philipp Kegel, Sergei Gorlatch AG Parallele und Verteilte Systeme Institut für Informatik Westfälische Wilhelms-Universität Münster 3. Juli 2009 Inhaltsverzeichnis 1 Einführung

Mehr

Die Mikroprogrammebene eines Rechners

Die Mikroprogrammebene eines Rechners Die Mikroprogrammebene eines Rechners Das Abarbeiten eines Arbeitszyklus eines einzelnen Befehls besteht selbst wieder aus verschiedenen Schritten, z.b. Befehl holen Befehl dekodieren Operanden holen etc.

Mehr

Hardware-Architekturen

Hardware-Architekturen Kapitel 3 Hardware-Architekturen Hardware-Architekturen Architekturkategorien Mehrprozessorsysteme Begriffsbildungen g Verbindungsnetze Cluster, Constellation, Grid Abgrenzungen Beispiele 1 Fragestellungen

Mehr

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2.

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2. Cloud Computing Frank Hallas und Alexander Butiu Universität Erlangen Nürnberg, Lehrstuhl für Hardware/Software CoDesign Multicorearchitectures and Programming Seminar, Sommersemester 2013 1. Definition

Mehr

The world we live in and Supercomputing in general

The world we live in and Supercomputing in general The world we live in and Supercomputing in general Achim Streit aktuelle Prozessoren Desktop Intel Pentium 4 mit 3.2 GHz AMD Athlon XP 3200+ mit 2.2 GHz IBM PowerPC G5 mit 2.0 GHz (64-bit) Server & Workstation

Mehr

High Performance Computing

High Performance Computing High Performance Computing SS 2004 PD Dr. A. Strey Abteilung Neuroinformatik, Universität Ulm Email: strey@informatik.uni-ulm.de Inhalt Einführung hohe Leistung durch Parallelität! kurze Historie des High

Mehr

Leistungsanalyse von Rechnersystemen

Leistungsanalyse von Rechnersystemen Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) Leistungsanalyse von Rechnersystemen Auf Ein-/Ausgabe spezialisierte Benchmarks Zellescher Weg 12 Willers-Bau A109 Tel. +49 351-463 - 32424

Mehr

Herzlichen Glückwunsch!... 9

Herzlichen Glückwunsch!... 9 Inhalt Einführung Herzlichen Glückwunsch!...................... 9 Teil I Darwins Algorithmus 1. Geradewegs ins Chaos....................... 17 2. Was Darwin nicht wusste..................... 36 3. Die

Mehr

Fragestellung: Wie viele CPU Kerne sollte eine VM unter Virtualbox zugewiesen bekommen?

Fragestellung: Wie viele CPU Kerne sollte eine VM unter Virtualbox zugewiesen bekommen? Fragestellung: Wie viele CPU Kerne sollte eine VM unter Virtualbox zugewiesen bekommen? Umgebung Getestet wurde auf einem Linux-System mit voller invis-server Installation, auf dem eine virtuelle Maschine

Mehr

GinLink Interface 1GHz RISC CPU M-RAM High-Speed Feldbus Controller RISC-CPU, 800MHz... 1GHz Bis zu 256 MByte SDRAM

GinLink Interface 1GHz RISC CPU M-RAM High-Speed Feldbus Controller RISC-CPU, 800MHz... 1GHz Bis zu 256 MByte SDRAM GinLink-News Feldbus-Controller GinLink Interface 1GHz RISC CPU M-RAM High-Speed Feldbus Controller RISC-CPU, 800MHz... 1GHz Bis zu 256 MByte SDRAM Technische Daten GIN-SAM3 610736800 Schnittstellen 2

Mehr

Angewandte Informatik

Angewandte Informatik Angewandte Informatik Teil 2.1 Was ist Hardware? Die Zentraleinheit! 1 von 24 Inhaltsverzeichnis 3... Was ist Hardware? 4... Teile des Computers 5... Zentraleinheit 6... Die Zentraleinheit 7... Netzteil

Mehr

Projekt für Systemprogrammierung WS 06/07

Projekt für Systemprogrammierung WS 06/07 Dienstag 30.01.2007 Projekt für Systemprogrammierung WS 06/07 Von: Hassan Bellamin E-Mail: h_bellamin@web.de Gliederung: 1. Geschichte und Definition 2. Was ist Virtualisierung? 3. Welche Virtualisierungssoftware

Mehr

Einführung in die Informatik

Einführung in die Informatik Einführung in die Informatik Geschichte und Einteilung der Informatik 01101101 01011001 11010011 10011000 00000011 00011100 01111111 11111111 00110100 00101110 11101110 01110010 10011101 00111010 2 Der

Mehr

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk Haftungsausschluss Microsoft kann für die Richtigkeit

Mehr

Teil VIII Von Neumann Rechner 1

Teil VIII Von Neumann Rechner 1 Teil VIII Von Neumann Rechner 1 Grundlegende Architektur Zentraleinheit: Central Processing Unit (CPU) Ausführen von Befehlen und Ablaufsteuerung Speicher: Memory Ablage von Daten und Programmen Read Only

Mehr

Grundlagen der Rechnerarchitektur

Grundlagen der Rechnerarchitektur Grundlagen der Rechnerarchitektur Ein und Ausgabe Übersicht Grundbegriffe Hard Disks und Flash RAM Zugriff auf IO Geräte RAID Systeme SS 2012 Grundlagen der Rechnerarchitektur Ein und Ausgabe 2 Grundbegriffe

Mehr

CPU-Update. Wie Äpfel zu Melonen werden. best OpenSystems Day April 2010. Unterföhring

CPU-Update. Wie Äpfel zu Melonen werden. best OpenSystems Day April 2010. Unterföhring CPU-Update Wie Äpfel zu Melonen werden best OpenSystems Day April 2010 Unterföhring Wolfgang Stief wolfgang.stief@best.de Senior Systemingenieur best Systeme GmbH GUUG Board Member Motivation Alles wird

Mehr

RAID. Name: Artur Neumann

RAID. Name: Artur Neumann Name: Inhaltsverzeichnis 1 Was ist RAID 3 1.1 RAID-Level... 3 2 Wozu RAID 3 3 Wie werden RAID Gruppen verwaltet 3 3.1 Software RAID... 3 3.2 Hardware RAID... 4 4 Die Verschiedenen RAID-Level 4 4.1 RAID

Mehr

ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf

ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012 Scientific Computing in Düsseldorf Peter Schreiber schreiber@hhu.de 0211-81-13913 http://www.zim.hhu.de ZKI Arbeitskreis Supercomputing 20.-21.09.2012

Mehr

Effiziente Wärmeableitung von PCB-Power-Modulen

Effiziente Wärmeableitung von PCB-Power-Modulen Effiziente Wärmeableitung von PCB-Power-Modulen Entwickler von Stromversorgungsmodulen sind stets auf der Suche nach mehr Leistungsdichte auf kleinerem Raum. Dies trifft vor allem auf Server in Datencentern

Mehr

Microcontroller Kurs. 08.07.11 Microcontroller Kurs/Johannes Fuchs 1

Microcontroller Kurs. 08.07.11 Microcontroller Kurs/Johannes Fuchs 1 Microcontroller Kurs 08.07.11 Microcontroller Kurs/Johannes Fuchs 1 Was ist ein Microcontroller Wikipedia: A microcontroller (sometimes abbreviated µc, uc or MCU) is a small computer on a single integrated

Mehr

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13 UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13 Verarbeitungsgrundlagen Teil 2 Virtual Storage el0100 copyright

Mehr

Super rechnen ohne Superrechner Oder: Was hat das Grid mit Monte Carlo zu tun?

Super rechnen ohne Superrechner Oder: Was hat das Grid mit Monte Carlo zu tun? Super rechnen ohne Superrechner Oder: Was hat das Grid mit Monte Carlo zu tun? Marius Mertens 20.02.2015 Super rechnen ohne Superrechner? Warum? Algorithmik und Parallelisierung Wie? Alternative Architekturen

Mehr

IT Storage Cluster Lösung

IT Storage Cluster Lösung @ EDV - Solution IT Storage Cluster Lösung Leistbar, Hochverfügbar, erprobtes System, Hersteller unabhängig @ EDV - Solution Kontakt Tel.: +43 (0)7612 / 62208-0 Fax: +43 (0)7612 / 62208-15 4810 Gmunden

Mehr

Computer-Generationen

Computer-Generationen (K.Zuses Z3, 1941) (Vorschlag) Generation Beispiel Technologie Geschw./Speich. Software Vorgeneration Z3 Elektro- 0,0002 MIPS Verdrahtet 1941-1944 Mark1 mechanik 1.Generation ENIAC, Z22 Elektronen- 0,02

Mehr

bluechip Modular Server Sven Müller

bluechip Modular Server Sven Müller bluechip Modular Server Sven Müller Produktmanager Server & Storage bluechip Computer AG Geschwister-Scholl-Straße 11a 04610 Meuselwitz www.bluechip.de Tel. 03448-755-0 Übersicht Produktpositionierung

Mehr

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Jörg Rödel Virtualization - Whats out there? Virtualisierung hat bereits längere Geschichte auf x86 Startete mit VMware Setzte

Mehr

Hochleistungsrechnen für Wissenschaft und Wirtschaft im internationalen Verbund

Hochleistungsrechnen für Wissenschaft und Wirtschaft im internationalen Verbund Hochleistungsrechnen für Wissenschaft und Wirtschaft im internationalen Verbund Prof. Dr. rer. nat. Christian Schröder Dipl.-Ing. Thomas Hilbig, Dipl.-Ing. Gerhard Hartmann Fachbereich Elektrotechnik und

Mehr

Programmierbare Logik CPLDs. Studienprojekt B Tammo van Lessen

Programmierbare Logik CPLDs. Studienprojekt B Tammo van Lessen Programmierbare Logik CPLDs Studienprojekt B Tammo van Lessen Gliederung Programmierbare Logik Verschiedene Typen Speichertechnologie Komplexe Programmierbare Logik System On a Chip Motivation Warum Programmierbare

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel Freiberuflicher Schwerpunkte: Unix, Oracle, Netzwerk 2005 1 Testaufbauten von Oracle 10g RAC auf preiswerter Hardware 2 3 Typisches Cluster System Clients Public Network Node A Node B Cluster Interconnect

Mehr

Inhalte der heutigen Vorlesung

Inhalte der heutigen Vorlesung Inhalte der heutigen Vorlesung Wiederholung und Fortsetzung Hardware Von-Neumann-Architektur (Rechnerarchitektur) Speicher Software Wie groß ist ein Gigabyte? http://www.spiegel.de/netzwelt/tech/0,1518,606308,00.html

Mehr

FHZ. K01 Geschichte des Computers. Lernziele. Hochschule Technik+Architektur Luzern. Inhalt

FHZ. K01 Geschichte des Computers. Lernziele. Hochschule Technik+Architektur Luzern. Inhalt Inhalt 1. Geschichte Folie 1 Lernziele Sie kennen die wichtigsten Punkte in der Geschichte des Computers Sie sind mit einigen Begriffen vertraut Folie 2 Seite 1 Computer als elektronische Rechenmaschine:

Mehr

5. PC-Architekturen und Bussysteme

5. PC-Architekturen und Bussysteme Abb. 5.1: Aufbau des klassischen PC-AT Abb. 5.2: Busslot im PC-AT Port-Adresse Verwendung 000h-00fh 1. DMA-Chip 8237A 020h-021h 1. PIC 8259A 040h-043h PIT 8253 060h-063h Tastaturcontroller 8042 070h-071h

Mehr

Speicher- und Dateisysteme - Sommersemester 2012 - Jan-Ole Zürcher. Proseminar. Speicher- und Dateisysteme

Speicher- und Dateisysteme - Sommersemester 2012 - Jan-Ole Zürcher. Proseminar. Speicher- und Dateisysteme Proseminar Speicher- und Dateisysteme Schriftliche Ausarbeitung zu meinem Vortrag am 01.06.2012 über Zukünftige Speichertechnologien -HVD, Racetrack und mehr- Jan-Ole Zürcher, 6325134 Universität Hamburg

Mehr

Vorlesung Programmieren

Vorlesung Programmieren Vorlesung Programmieren Funktionsweise von Computern Prof. Dr. Stefan Fischer Institut für Telematik, Universität zu Lübeck http://www.itm.uni-luebeck.de/people/fischer Inhalt 1. Ein Blick zurück 2. Stand

Mehr

internationalen Verbund

internationalen Verbund University of Applied Sciences 1 zur Optimierung der Wertschöpfungsketten Hochleistungsrechnen für Wissenschaft und Wirtschaft im internationalen Verbund Prof. Dr. rer. nat. Christian Schröder stellv.

Mehr

Leistung von PV-Topologien bei Abschattung

Leistung von PV-Topologien bei Abschattung Leistung von PV-Topologien bei Abschattung DATUM: JULI 2013 ÜBERSICHT Laut einer vom PV Evolutions Lab (PVEL) durchgeführten standardisierten Verschattungsstudie des National Renewable Energy Laboratory

Mehr

Codesigned Virtual Machines

Codesigned Virtual Machines Codesigned Virtual Machines Seminar Virtualisierung Philipp Kirchhofer philipp.kirchhofer@student.kit.edu Institut für Technische Informatik Lehrstuhl für Rechnerarchitektur Universität Karlsruhe (TH)

Mehr

L3. Datenmanipulation

L3. Datenmanipulation L Datenmanipulation Aufbau eines Computers Prozessor, Arbeitsspeicher und system Maschinensprachen und Maschinenbefehle Beispiel einer vereinfachten Maschinensprache Ausführung des Programms und Befehlszyklus

Mehr

Convey, Hybrid-Core Computing

Convey, Hybrid-Core Computing Convey, Hybrid-Core Computing Vortrag im Rahmen des Seminars Ausgewählte Themen in Hardwareentwurf und Optik HWS 09 Universität Mannheim Markus Müller 1 Inhalt Hybrid-Core Computing? Convey HC-1 Überblick

Mehr

FPGAs an der Hochschule München in Lehre und Forschung. Christian Münker, Hochschule München

FPGAs an der Hochschule München in Lehre und Forschung. Christian Münker, Hochschule München FPGAs an der Hochschule München in Lehre und Forschung Christian Münker, Hochschule München Überblick Hochschule München 2 www.hm.edu Gegründet 1971 Eine der größten Hochschulen für angewandte Wissenschaften

Mehr

Übersicht geschlossene Bauform im Alugehäuse, Schutzart IP65, integrierte seitliche Griffleisten

Übersicht geschlossene Bauform im Alugehäuse, Schutzart IP65, integrierte seitliche Griffleisten IDS819-SL4000 Industrie PC / Display Übersicht geschlossene Bauform im Alugehäuse, Schutzart IP65, integrierte seitliche Griffleisten verschiedene PC Leistungsklassen Dual Core Atom / Core i5 lüfterloses

Mehr

Cluster Operating Systems

Cluster Operating Systems Lehrstuhl für Rechnerarchitektur, Professor Brüning Cluster Operating Systems Seminarvortrag im Wintersemester 2003/04 von Frank Ueltzhöffer 1. Einführung und Motivation 2. Charakterisierung 3. Herausforderungen

Mehr

Parallels Workstation Extreme: Weltweit erste professionelle Virtualisierungslösung für native 3D-Grafik

Parallels Workstation Extreme: Weltweit erste professionelle Virtualisierungslösung für native 3D-Grafik Parallels Workstation Extreme: Weltweit erste professionelle Virtualisierungslösung für native 3D-Grafik Technologie-Allianz mit HP, Intel und NVIDIA ermöglicht Betrieb dedizierter Profi-Grafikkarten im

Mehr

Felix Großkreuz Philipps-Universität Marburg Fachbereich 12 Seminar IT-Administration SS2011

Felix Großkreuz Philipps-Universität Marburg Fachbereich 12 Seminar IT-Administration SS2011 Felix Großkreuz Philipps-Universität Marburg Fachbereich 12 Seminar IT-Administration SS2011 Griff in die Geschichte Erste Festplatte, SLED, ab 1988 RAID-Level 0, 1 5, 6 Kombinationen Einrichten von RAID

Mehr

High Performance Computing in der Teilchenphysik

High Performance Computing in der Teilchenphysik High Performance Computing in der Teilchenphysik Gründe für den Einsatz von Computern in der Physik: Auswertung der Messdaten aufgrund ihrer Größe nur noch mit Computern möglich Computer ermöglichen Simulationen,

Mehr

Session 3: Projektvorstellung Transferprojekt itsowl-tt-hapromesy 18. August 2015, Gütersloh. www.its-owl.de

Session 3: Projektvorstellung Transferprojekt itsowl-tt-hapromesy 18. August 2015, Gütersloh. www.its-owl.de Session 3: Projektvorstellung Transferprojekt itsowl-tt-hapromesy 18. August 2015, Gütersloh www.its-owl.de Agenda Abschlusspräsentation itsowl-tt-hapromesy Einführung Zielsetzung Ergebnisse Resümee und

Mehr

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension

Mehr

Asynchrone Schaltungen

Asynchrone Schaltungen Asynchrone Schaltungen Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2013 Asynchrone Schaltungen 1/25 2013/07/18 Asynchrone Schaltungen

Mehr

Computer: PC. Informationstechnik für Luft-und Raumfahrt Aerospace Information Technology

Computer: PC. Informationstechnik für Luft-und Raumfahrt Aerospace Information Technology Computer: PC Informationstechnik für Luft-und Raumfahrt Ab Morgen nur eingebete Systeme Aber es gibt auch PCs Na gut... dann Heute. dann haben wir es hinter uns Und nicht wenige! PCs in N Jahren Industrie

Mehr

Komplexe Softwaresysteme 2 - SS 2014. Dominik Korner

Komplexe Softwaresysteme 2 - SS 2014. Dominik Korner Komplexe Softwaresysteme 2 - SS 2014 Dominik Korner 24. März 2014 Inhaltsverzeichnis 1 Übung 1 2 1.1 Heap.............................................. 2 A Zeichnen Sie den (min)-heap, der durch Einfügen

Mehr

Titelmasterformat durch Klicken bearbeiten

Titelmasterformat durch Klicken bearbeiten Titelmasterformat durch Klicken Titelmasterformat durch Klicken Huawei Enterprise Server Systeme Global Player auf dem Server- und Storagemarkt Scale up Übersicht Titelmasterformat durch Klicken Textmasterformat

Mehr

PRÄSENTATION MAGNETISCHE FESTPLATTEN. Proseminar Speicher- und Dateisysteme. Björn Fries 10. / 11.03.2011

PRÄSENTATION MAGNETISCHE FESTPLATTEN. Proseminar Speicher- und Dateisysteme. Björn Fries 10. / 11.03.2011 PRÄSENTATION MAGNETISCHE FESTPLATTEN Proseminar Speicher- und Dateisysteme Björn Fries GLIEDERUNG (1) Einleitung o Was ist eine Festplatte? o Aufgabe und Einsatz (2) Technischer Aufbau a. Physikalischer

Mehr

1 Welcher Service Operation Prozesse fehlen? Incident Management, Problem

1 Welcher Service Operation Prozesse fehlen? Incident Management, Problem 1 Welcher Service Operation Prozesse fehlen? Incident Management, Problem Management, Access Management a. Event Management b. Service Desk c. Facilities Management d. Change Management e. Request Fulfilment

Mehr

«EFFIZIENTE UND SICHERE IT-INFRASTRUKTUREN... In&Out AG IT Consulting & Engineering info@inout.ch www.inout.ch

«EFFIZIENTE UND SICHERE IT-INFRASTRUKTUREN... In&Out AG IT Consulting & Engineering info@inout.ch www.inout.ch «EFFIZIENTE UND SICHERE IT-INFRASTRUKTUREN... In&Out AG IT Consulting & Engineering info@inout.ch www.inout.ch DATENCENTERFORUM 2014 WIE DIE ZUKÜNFTIGE ENTWICKLUNG DER IT IHREN DATA CENTER BETRIEB BEEINFLUSSEN

Mehr

Hardware-Interfaces für FlexRay und CAN

Hardware-Interfaces für FlexRay und CAN Hardware-Interfaces für FlexRay und CAN FlexRay, das Bussystem für hohe Datenraten im Fahrzeug, stellt sehr hohe Anforderungen an die Hardwareschnittstellen. Nutzen Sie die Vector FlexRay Interfaces für

Mehr

Aufbau und Funktionsweise eines Computers

Aufbau und Funktionsweise eines Computers Aufbau und Funktionsweise eines Computers Thomas Röfer Hardware und Software von Neumann Architektur Schichtenmodell der Software Zahlsysteme Repräsentation von Daten im Computer Hardware Prozessor (CPU)

Mehr

Next generation of Power

Next generation of Power Next generation of Power 29. April Executive Briefing Center Böblingen Volker Haug Power Systems Architekt Mitglied des IBM Technical Expert Council (TEC) IBM Deutschland GmbH Systems & Technology Group

Mehr

Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de

Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften Agenda Einleitung Vor- und Nachteile der Virtualisierung Virtualisierungssoftware

Mehr

Resultate exakter Diagonalisierung stark korrelierter Elektron-Phonon-Systeme

Resultate exakter Diagonalisierung stark korrelierter Elektron-Phonon-Systeme Resultate exakter Diagonalisierung stark korrelierter Elektron-Phonon-Systeme Prof. H. Fehske Lehrstuhl Theoretische Physik I, Universität Bayreuth/ Institut für Physik, Universität Greifswald Dr. G. Wellein

Mehr

L 371/128 DE Amtsblatt der Europäischen Union 30.12.2014

L 371/128 DE Amtsblatt der Europäischen Union 30.12.2014 L 371/128 DE Amtsblatt der Europäischen Union 30.12.2014 KATEGORIE 4 RECHNER Anmerkung 1: Rechner, verwandte Geräte und Software für Telekommunikations- oder Local Area Network - Funktionen sind auch nach

Mehr

science + computing ag

science + computing ag science + computing ag Evaluation der Integration von Windows HPC in eine bestehende Berechnungsumgebung Harry Schlagenhauf science + computing ag IT-Dienstleistungen und Software für anspruchsvolle Rechnernetze

Mehr

Grundlagen der Programmierung 2. Parallele Verarbeitung

Grundlagen der Programmierung 2. Parallele Verarbeitung Grundlagen der Programmierung 2 Parallele Verarbeitung Prof. Dr. Manfred Schmidt-Schauÿ Künstliche Intelligenz und Softwaretechnologie 27. Mai 2009 Parallele Algorithmen und Ressourcenbedarf Themen: Nebenläufigkeit,

Mehr

Einleitung. Einführung in die Technische Informatik Falko Dressler und Stefan Podlipnig Universität Innsbruck

Einleitung. Einführung in die Technische Informatik Falko Dressler und Stefan Podlipnig Universität Innsbruck Einleitung Einführung in die Technische Informatik Falko Dressler und Stefan Podlipnig Universität Innsbruck Früher Prozessor: ~ 1 MHz Speicher: 8-64 kb Datenträger: Magnetband, Floppy Disk (~1 MB) Einleitung

Mehr

Brainware für Green IT

Brainware für Green IT Brainware für Green IT Christian Bischof FG Scientific Computing Hochschulrechenzentrum Technische Universität Darmstadt 04.06.2012 Einweihung HPC Cluster Rheinland Pfalz C. Bischof 1 Die Welt des High-Performance

Mehr

Nanotechnologie. Es gibt noch viel Platz da unten. Alemayhu Gemeda und Volker Heiselmayer. Richard P. Feynmann (1918-1988)

Nanotechnologie. Es gibt noch viel Platz da unten. Alemayhu Gemeda und Volker Heiselmayer. Richard P. Feynmann (1918-1988) Nanotechnologie Es gibt noch viel Platz da unten. Richard P. Feynmann (1918-1988) Alemayhu Gemeda und Volker Heiselmayer Inhalt Was ist Nanotechnologie? Die ersten Ideen und Historie Möglichkeiten der

Mehr

Aktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation

Aktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation Aktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation Kai Diethelm GNS Gesellschaft für numerische Simulation mbh Braunschweig engineering software development Folie 1 Überblick Vorstellung

Mehr

Perzentile mit Hadoop ermitteln

Perzentile mit Hadoop ermitteln Perzentile mit Hadoop ermitteln Ausgangspunkt Ziel dieses Projektes war, einen Hadoop Job zu entwickeln, der mit Hilfe gegebener Parameter Simulationen durchführt und aus den Ergebnissen die Perzentile

Mehr

Anwendungen. Miroslawa Utzka Oktober 2004. Grid Computing

Anwendungen. Miroslawa Utzka Oktober 2004. Grid Computing Anwendungen Miroslawa Utzka Oktober 2004 Grid Computing Übersicht Einleitung Einsatzgebiete und Beispielprojekte Grid Anwendungen BOINC Projekte rund um BOINC Seti@home Ausblick Wenn Kosten eine Rolle

Mehr

Wir bauen einen Computer! (oder: Wie man einen Laptop zerstört)

Wir bauen einen Computer! (oder: Wie man einen Laptop zerstört) INSO Wir bauen einen Computer! (oder: Wie man einen Laptop zerstört) Informatik Prolog WS 2012 Matthias Neugschwandtner Christian Platzer Institut für Rechnergestützte Automation E183/1 Dezentrale Automation

Mehr

Energieeffizienz in Rechenzentren

Energieeffizienz in Rechenzentren Energieeffizienz in Rechenzentren Dr. Ralph Hintemann Borderstep Institut für Innovation und Nachhaltigkeit Stellv. Vorsitzender des BITKOM-Arbeitskreises Rechenzentrum & Infrastruktur 01 Fragestellungen

Mehr

CFD in KMU Swiss VPE Symposium 2012

CFD in KMU Swiss VPE Symposium 2012 Institut für Energietechnik CFD in KMU Swiss VPE Symposium 2012 Rapperswil, 19. April 2012 Strömungen in der Technik CFD wird seit langem von Grosskonzernen genutzt Spezielle Computerumgebungen (Linux)

Mehr

Versuch 17.2 Der Transistor

Versuch 17.2 Der Transistor Physikalisches A-Praktikum Versuch 17.2 Der Transistor Praktikanten: Gruppe: Julius Strake Niklas Bölter B006 Betreuer: Johannes Schmidt Durchgeführt: 11.09.2012 Unterschrift: E-Mail: niklas.boelter@stud.uni-goettingen.de

Mehr

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz Hochverfügbar und Skalierung mit und ohne RAC Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC Alexander Scholz Copyright its-people Alexander Scholz 1 Einleitung Hochverfügbarkeit

Mehr