Eine PCI-SCI-Adapterkarte für ein PC-Cluster mit verteiltem gemeinsamen Speicher

Größe: px
Ab Seite anzeigen:

Download "Eine PCI-SCI-Adapterkarte für ein PC-Cluster mit verteiltem gemeinsamen Speicher"

Transkript

1 Eine PCI-SCI-Adapterkarte für ein PC-Cluster mit verteiltem gemeinsamen Speicher Georg Acher, Hermann Hellwagner, Wolfgang Karl, Markus Leberecht Lehreinheit für Rechnertechnik und Rechnerorganisation / Parallelrechnerarchitektur (LRR-TUM) Institut für Informatik, Technische Universität München D München Kurzfassung Das Projekt SMiLE (Shared Memory in a LAN-like Environment) am LRR-TUM nutzt Scalable Coherent Interface (SCI) zum Aufbau eines Clusters von Standard-PCs mit verteiltem gemeinsamen Speicher (Distributed Shared Memory, DSM). Die SCI-Vernetzung bietet hohe Bandbreite und (vor allem über DSM) kurze Latenzzeiten für Interprozessorkommunikation und macht das Cluster bei geringen Kosten für Parallelverarbeitung gut geeignet. Auf diese Plattform werden zunächst Programmiersysteme für die Entwicklung paralleler Software adaptiert und unter Nutzung des DSM optimiert, z.b. Active Messages, eine Bibliothek für Kommunikation über Sockets und Parallel Virtual Machine (PVM). Weitere Forschungsarbeiten haben zum Ziel, Programmiersysteme und Werkzeuge zur effizienten Nutzung von DSM-Systemen zu entwickeln und zu erproben. Der Beitrag umreißt zunächst Ziele, bisherige Arbeiten und Ergebnisse des SMiLE-Projekts. Im Schwerpunkt wird eine am LRR-TUM entwickelte PCI-SCI-Adapterkarte vorgestellt, die zum Aufbau des PC-Clusters verwendet wird. Funktionsmerkmale, Architektur, einige Entwurfsentscheidungen und Ergebnisse erster Leistungsmessungen dieser Netzwerkkarte werden beschrieben. Die Karte wird in einer weiteren Version mit Monitoring- Hardware ausgestattet, die u.a. entfernte Speicherzugriffe zu erfassen erlaubt und Leistungsanalyse und -optimierung von DSM-Programmen ermöglicht. 1 Einleitung Workstation-Netze haben sich in den letzten Jahren als die kostengünstigste Plattform für Parallelverarbeitung etabliert, eine Entwicklung, die auch maßgeblich durch die freie Verfügbarkeit von Kommunikationsbibliotheken wie PVM [5] getragen wurde. Als Schwachpunkte heutiger Workstation-Cluster bei Nutzung als Parallelrechner gelten ihre geringe Kommunikationsleistung sowie die (für praktische Belange und effiziente parallele Programme nicht zu umgehende) Festlegung auf ein Programmiermodell mit Nachrichtenaustausch, wie es etwa durch PVM gegeben ist. Die geringe Kommunikationsleistung rührt daher, daß der Botschaftenaustausch über Standard-LANs, z.b. Ethernet, auf der TCP/IP-Protokollfamilie basiert. Der hohe Software-Aufwand für die Protokollbearbeitung bedingt Latenzzeiten von Nachrichtentransfers im Millisekundenbereich für effiziente Parallelverarbeitung zwei bis drei Größenordnungen zu hoch [10]. Dies trifft auch für sog. schnelle Netze zu, z.b. LANs auf der Basis von ATM. In einer Reihe von Projekten wurden neue Kommunikationsarchitekturen in Hardware und Software und alternative Programmiersysteme zur Lösung der beiden genannten Probleme

2 entwickelt. Diese zielen insbesondere darauf ab, die für Parallelverarbeitung zu hohen Latenzzeiten von Standardnetzen und -protokollen entscheidend zu verringern, Speicherkopplung über Knotengrenzen hinweg zu ermöglichen oder dem Programmierer die Abstraktion eines gemeinsamen Speichers zur Verfügung zu stellen (DSM); siehe z.b. [6][10][13][15]. Eine Technologie, die diese angestrebten Eigenschaften eines Clusters besonders gut unterstützt, ist Scalable Coherent Interface (SCI) [16]. Dieser Verbindungsstandard spezifiziert die üblichen Dienste eines Computer-Busses, zeigt aber deren vollständig verteilte Implementierung mit schnellen Punkt-zu-Punkt-Verbindungen. DSM in Hardware (optional mit Erhaltung von Cache-Kohärenz), Übertragungsprotokolle mit Split Transactions, hohe Bandbreiten sowie Sicherungs- und Fehlererkennungsmechanismen in Hardware sind einige Merkmale von SCI; siehe z.b. [9][16]. Über DSM kann somit Kommunikation in einem SCI-Netz auf Benutzerebene und ohne schwergewichtige, im Betriebssystem integrierte Protokolle wie TCP/IP stattfinden. Dies bedeutet Kommunikationslatenzen im Mikrosekundenbereich und (über in SCI ebenso definierte Nachrichtentransfers) hohe Durchsatzraten [14]. Das Projekt SMiLE (Shared Memory in a LAN-like Environment) am LRR-TUM nutzt SCI zum Aufbau eines kostengünstigen Clusters von Standard-PCs mit DSM, das durch hohe Kommunikationsleistung für Parallelverarbeitung gut geeignet sein soll. Der Beitrag geht in Abschnitt 2 kurz auf die Ziele, bisher durchgeführte Arbeiten und erzielte Ergebnisse des SMiLE-Projekts ein. Abschnitt 3 beschreibt eines dieser Ergebnisse: eine PCI-SCI-Adapterkarte, die zum Aufbau des PC-Clusters verwendet wird. Funktionsmerkmale, Architektur, einige wichtige Entwurfsentscheidungen und erste Leistungsmessungen werden beschrieben. Abschnitt 4 faßt zusammen und gibt einen Ausblick. 2 Das Projekt SMiLE Das Projekt SMiLE verfolgt als übergeordnete Ziele, ein sehr kostengünstiges, weitgehend aus Standard-PC-Komponenten bestehendes und dennoch für Parallelverarbeitung ausreichend leistungsfähiges Cluster mit verteiltem gemeinsamen Speicher aufzubauen und im weiteren dieses für die Entwicklung paralleler Basis- und Anwendungssoftware und für Forschungsarbeiten zur effizienten Nutzung von DSM-Systemen zu nutzen. PCs wurden wegen ihrer weiten Verbreitung (vor allem auch in kleinen und mittelständischen Unternehmen) und ihres guten Preis-/Leistungsverhältnisses gewählt, das ein solches Cluster als kostengünstige Plattform für Parallelverarbeitung erscheinen läßt. Eine Schlüsselrolle spielt das Verbindungssystem SCI, das DSM, hohe Bandbreite und (vor allem über DSM) kurze Latenzzeiten für Interprozessorkommunikation ermöglicht. Entsprechend den Zielen sind die Arbeiten in SMiLE in folgende Bereiche aufgeteilt. Zu diesen Bereichen werden im weiteren die bisherigen Arbeiten und Ergebnisse genannt. Aufbau eines Clusters mit DSM aus Pentium-PCs auf Basis einer SCI-Kopplung In diesen Bereich fällt die Eigenentwicklung einer PCI-SCI-Adapterkarte, die im weiteren Beitrag beschrieben wird. Die Karte ist als Prototyp vorhanden und funktionsfähig. Sie wird in kleiner Stückzahl gefertigt werden, so daß ein kleines PC-Cluster aufgebaut werden kann. Die Entwicklung von Gerätetreibern für Linux und Windows NT, die für die weiteren Software-Arbeiten genutzt werden und die vor allem eine komfortable Nutzung gemeinsamer

3 Speicherbereiche unterstützen sollen, ist im Gange; ebenso der Entwurf von Monitoring- Hardware, die in einer zweiten Version der SCI-Adapter-Hardware entfernte Speicherzugriffe zu erfassen erlaubt. Anpassung und Optimierung von Basissoftware für parallele Programmierung Dies geschieht mit dem Ziel, die besonderen Eigenschaften einer SCI-Kopplung, vor allem gemeinsame Speicherbereiche zwischen Knoten, für hohe Kommunikationsleistung zu nutzen. Da das SMiLE-Cluster noch nicht verfügbar ist, wurden bisherige Software-Arbeiten auf Test-Clustern von SPARCstations-2 bzw. von UltraSPARCs durchgeführt, die über SBus-SCI-Adapterkarten von Dolphin Interconnect Solutions gekoppelt sind. Die Anpassung und Leistungsmessungen von PVM-Routinen zum direkten Datentransfer über SCI [7][8], die Implementierung von Active Messages [4] auf Basis von SCI-Speichertransaktionen [3] und eine Bibliothek, die Kommunikation über Sockets [12] unterstützt und diese intern über SCI-DSM abwickelt [17], sind abgeschlossen. Auf der Sockets-Bibliothek wird eine Implementierung von PVM aufbauen. Die bisherige Software ist weitgehend unter Linux getestet (mit Simulation der SCI-Kommunikation) und wird daher ohne großen Aufwand auf das SMiLE-Cluster unter Linux übertragen werden können. Entwicklung und Erprobung von Konzepten, Programmiermodellen und Werkzeugen zur effizienten Nutzung eines DSM-Clusters Das SMiLE-Cluster bietet hardware-gestützten DSM mit geringen Latenzzeiten von entfernten Speicherzugriffen, die aber zumindest eine Größenordnung über denen lokaler Speicherzugriffe liegen (NUMA-Charakteristik) [11]. Die Nutzung von lokalen Speicherzugriffen ist daher von entscheidender Bedeutung für die Effizienz eines parallelen Programms. Als weiterer Forschungsschwerpunkt sollen daher DSM-Programmiersysteme und Werkzeuge entwickelt, implementiert und erprobt werden, mit deren Hilfe Datenlokalität im Programm (z.b. durch Direktive) spezifiziert, zur Laufzeit (auf Basis von Laufzeitstatistiken) hergestellt und genutzt bzw. (mit Hilfe eines Tools) analysiert werden kann. Dafür wurde ein Monitoring-Konzept erarbeitet; die Hardware wird, wie oben erwähnt, derzeit entworfen. Eine Alternative, mit den langen Latenzen entfernter Speicherzugriffe umzugehen, ist die Nutzung einer speziellen Eigenschaft des SCI-basierten DSM: Buffered Writes auf entfernte Speicher lassen den Prozessor weiterarbeiten, sobald die SCI-Adapterkarte die Kontrolle über den Schreibvorgang übernommen hat; Lesezugriffe über SCI hingegen blockieren den Prozessor, bis ihm das angeforderte Datum zugestellt werden kann. Mit einem Multithreading-Ausführungsmodell, das Threads nach Datenflußprinzipien zur Ausführung bringt und dazu den wartenden Threads die erforderlichen Daten mittels Buffered Writes zustellt, anstelle sie ihre Eingangsdaten lesen zu lassen, gewinnt man Ausführungszeit. Die gewonnene Zeit wird für Scheduling-Aktivitäten genutzt. Diese Ideen werden in dem System MuSE (Multithreading Scheduling Environment) realisiert und erprobt [11]. 3 Die PCI-SCI-Adapterkarte Der Entwicklung einer eigenen PCI-SCI-Schnittstellenkarte [1][2] für die SCI-Vernetzung der PCs hatte zwei Gründe: Zum einen war zu Projektbeginn keine PCI-SCI-Schnittstellen-

4 karte kommerziell erhältlich; zum anderen sollte im Sinne der Projektziele die Möglichkeit geschaffen werden, Monitoring-Hardware in die PCI-SCI-Schnittstelle zu integrieren. 3.1 Funktionsmerkmale Die PCI-SCI-Adapterkarte bildet die Schnittstelle zwischen dem PCI-Bus eines PCs und dem SCI-Netz. Jede Karte hat einen SCI-Eingangs- und einen SCI-Ausgangs-Link. Die angeschlossenen Knoten sind ringförmig verbunden. (Komplexere Topologien können aus Ringen als Basisblock aufgebaut werden.) Die PCI-SCI-Karte bildet SCI-Speicherbereiche in PCI-Adreßbereiche ab. Lese- und Schreibzugriffe auf dem PCI-Bus in SCI-DSM werden von der PCI-SCI-Karte erkannt, in SCI-Transaktionen umgesetzt und auf das SCI-Netz gesandt; ähnlich in umgekehrter Richtung bei eingehenden SCI-Transaktionen. Für andere Knoten adressierte SCI-Pakete werden weitergeleitet. Der PCI-SCI-Adapter übernimmt Adreßumsetzungen sowie die Erzeugung und Abwicklung von SCI-Request- und Response-Paketen und von PCI-Bustransaktionen. An die PCI-SCI-Adapterkarte wurden folgende, für effiziente Parallelverarbeitung in einem SCI-Cluster als notwendig erachtete Anforderungen gestellt: Anbindung an PCI und SCI unter Einhaltung der jeweiligen Standards. Umsetzung von PCI-Transaktionen auf SCI-Transaktionen und umgekehrt. Lesen und Schreiben auf entfernte Speicherbereiche, transparent für Software. Mehrere ausstehende Transaktionen (Split Transactions) für entferntes Schreiben. Schnelle Nachrichtenzustellung über SCI (DSM) mit DMA-Transfers in Endknoten. Eine atomare, in SCI definierte Read-Modify-Write-Speicheroperation zur Konstruktion von Synchronisationsprimitiven. Adreßumsetzung zur Adressierung ausreichend vieler SCI-Knoten. Schnittstelle zu einem Hardware-Monitor. Die entwickelte Karte erfüllt diese Anforderungen. Konkret weist sie SCI-seitig folgende Eigenschaften auf [16]: 16 ausstehende writesb-transaktionen (Buffered Writes). 16 ausstehende nwrite64-transaktionen, die DMA-Transfers nutzen. 1 ausstehende readsb-transaktion. 1 ausstehende locksb-transaktion mit bounded_add als Synchronisationsbefehl. Alle ausstehenden Transaktionen werden durch Timeout-Logik überwacht. Andere SCI-Pakete bis zu 64 Bytes explizit (in Software) konstruierbar. Adreßübersetzung für 8192 Seiten zu je 4 KB möglich. Puffer für 64 eingehende SCI-Pakete. Interrupt-Erzeugung auf entfernter Karte möglich. Es ist zu beachten, daß die PCI-SCI-Karte die in SCI definierten Cache-Kohärenz-Protokolle nicht unterstützt. Dies ist für die in Entwicklung befindliche Software nicht erforderlich und würde darüber hinaus zu hohen Realisierungsaufwand erfordern. Treiber- und Testprogramme ergänzen die Hardware. 3.2 Architektur Bild 1 zeigt den grundlegenden Aufbau der PCI-SCI-Schnittstellenkarte.

5 In der PCI-Einheit sorgt ein PCI9060-Chip von PLX Technologies für die Anbindung an den PCI-Bus. Dieser setzt das PCI-Busprotokoll in das einfachere i960-busprotokoll um, wobei Adressen und Daten im Multiplexbetrieb übertragen werden. Durch die Entwurfsentscheidung, als lokalen Bus der PCI-Einheit den i960-bus in dieser Betriebsart zu verwenden, konnte die Kontrollogik der Karte wesentlich vereinfacht werden. Zudem enthält der PCI9060-Baustein auch zwei DMA-Einheiten, die von den nwrite64-transaktionen genutzt werden. Local Clock FPGA#1 Handshake Bus FPGA#2 CTL SUPER_MAN BAT_MAN PCI PCI9060 AD 32 i960 Local Bus A 12 ATC RAM D DPR Bus DPR 8Kx24 4Kx32 2Kx64 D A A D B-Link 64 B-Link CTL SCI In LC-1 SCI Out EEPROM IO BUF IO SCI Clock PCI Unit Dual Ported RAM SCI Unit Bild 1 Architektur der PCI-SCI-Adapterkarte FPGA#1 (SCI Upload and Packet EncodeR MANager, SUPER_MAN) sorgt für die Umsetzung von Lese- und Schreibzugriffen, die auf dem Bus auftreten, in sog. B-Link-Pakete und umgekehrt. Über Buspuffer (BUF) gelangen die Daten in ein Dual-Ported-RAM (DPR). In einem schnellen RAM (Address Translation Cache, ATC) werden erforderliche PCI-SCI- Adreßumsetzungen vorgenommen (siehe Abschnitt 3.3). Diese Vorgänge (sowie andere wie die Zeitüberwachung ausstehender SCI-Transaktionen) finden unter der Kontrolle des Bausteins SUPER_MAN statt, der unten näher beschrieben wird. Das Dual-Ported-RAM (DPR) puffert und vermittelt im wesentlichen ein- und ausgehende SCI-Pakete zwischen PCI-Einheit und SCI-Einheit. Im DPR sind bereits Rohpakete mit festgelegten Parametern abgelegt, so daß der Paketaufbau sich darauf beschränken kann, die für jede Transaktion spezifischen Daten und Adreßinformationen an den richtigen Stellen einzufügen. Damit kann dieser Schritt schnell abgewickelt werden. Es können auch andere, nicht vorgegebene Pakete zusammengestellt werden. In der SCI-Einheit wickelt der Link Controller LC-1 von Dolphin Interconnect Solutions die SCI-spezifischen Protokolle ab. SCI-Pakete, die für den lokalen Knoten bestimmt sind, werden vom SCI-Netz genommen und in B-Link-Pakete umgewandelt (Backside Link, ein von Dolphin für SCI-Bausteine definierter Bus). FPGA#2 (B-Link Access and Transaction MANager, BAT_MAN) kontrolliert diesen Vorgang (und den umgekehrten); er ist für die Arbitrierung und Steuerung des B-Link sowie Lesen und Schreiben des DPR verantwortlich. Die beiden FPGAs in der PCI- und der SCI-Einheit tauschen Informationen über zu überge-

6 bende Pakete mittels eines Handshake-Busses aus. Der Großteil der Steuerfunktionen der Adapterkarte liegt in dem komplexen FPGA-Baustein SUPER_MAN. Bild 2 zeigt sein Blockdiagramm. TRANS_AM Start Action/Status TRANSAction Manager Transaction Queue 1 + Timeout Transaction Queue 2 + Timeout To/from BAT_MAN CMD Status CONAN CONfiguration manager Microprogram Bus Status PAC_MAN PACket MANager CMD PAN_AM Port/Access/ enable Manager OE WE DPR ADR CMD CMD DPR ADR Local Bus LB_MAN Local Bus MANager Slave Burst Master Latch LSB/Byte Enables SCI CMD Gen. D_MAN Data MANager Accu Adder Compare DPR DATA ATC ADR LC INIT Bild 2 Aufbau des Bausteins SUPER_MAN Die zentrale Steuereinheit des Bausteins ist der PACket MANager (PAC_MAN). Er ist als Mikrocode-Sequenzer mit schreibbarem Mikroprogrammspeicher (mit 64 Mikrobefehlsworten) implementiert. Die Mikrobefehlsworte sind in unabhängige Felder unterteilt, die direkt die anderen Funktionseinheiten steuern sowie die Adresse des Folgebefehls angeben. Damit können die Einheiten von SUPER_MAN parallel arbeiten. Der entscheidende Vorteil, den die Entwurfsentscheidung für eine mikroprogrammierte Steuerung mit sich brachte, ist die Flexibilität und einfache Programmiermöglichkeit von PAC_MAN. Dies hat sich angesichts der Parallelität und Komplexität der Abläufe in SUPER_MAN sehr bewährt. Der Local Bus MANager (LB_MAN) verwaltet den lokalen i960-bus. Er erkennt z.b. Auftreten und Art eines Zugriffs am i960-bus, entscheidet, welches Mikroprogramm auszuführen ist, und gibt diese Information an den TRANSAction Manager (TRANS_AM) weiter. Dieser überprüft, ob in der entsprechenden Transaktionswarteschlange ein Eintrag frei ist und gibt, falls dies der Fall ist, das Kommando zum Start des Mikroprogramms an PAC_MAN ab. Bei eintreffenden SCI-Paketen ist das Vorgehen ähnlich: Aus einem 7-Bit SCI-Kommando wird über eine Umsetzungstabelle (ROM) direkt ein entsprechendes PAC_MAN-Kommando generiert. TRANS_AM verwaltet Ein- und Ausgangspuffer für SCI-Pakete im DPR und startet und überwacht ausstehende Transaktionen. Dies schließt die Warteschlangen- und Timeout-Verwaltung für die jeweils bis zu 16 aktiven writesb- und nwrite64-transaktionen ein. Bei einem Timeout wird die Transaktion abgebrochen und ein Fehlersignal (Interrupt) erzeugt.

7 Der Data Manager (D_MAN) erzeugt die SCI-Kommandos und führt die arithmetischen Operationen bei einer locksb-transaktion auf dem DPR-Bus aus. Der Port, Access und enable Manager (PAN_AM) erzeugt einige spezielle DPR-Adressen und Chip-Select- und Write-Enable-Signale. Der CONfiguration manager (CONAN) schließlich verwaltet und decodiert die internen Konfigurationsregister von SUPER_MAN. Eine weitergehende Architekturbeschreibung sowie ein Beispiel für den Ablauf einer Transaktion sind in [2] zu finden. 3.3 Adressierung und Adreßübersetzung Die PCI-SCI-Schnittstellenkarte belegt einen 64 MB großen Bereich im PCI-Adreßraum. Ein 16 MB-Block bietet Zugriff auf die Hardware-Ressourcen der Karte: die DMA-Register des PCI9060, die internen Register von SUPER_MAN (z.b. zur Mikroprogrammierung), das DPR und das ATC-RAM. Ein weiterer 16 MB-Bereich ist derzeit ungenutzt. Die restlichen beiden 16 MB-Blöcke stellen Adreßfenster in den SCI-Adreßraum dar und werden zur Realisierung des SCI-DSM und für Nachrichtenzustellung verwendet. Über den in Bild 3 dargestellten (mittels des ATC-RAM realisierten) Adreßübersetzungsmechanismus können Speicherbereiche von bis zu 256 SCI-Knoten in den lokalen PCI-Adreßraum eingeblendet und (für die Software transparent) mit Speicherzugriffen erreicht werden. Die Adreßabbildung basiert auf einer Seitengröße von 4 KB. Es ist zu beachten, daß diese Adreßumsetzung (in der PCI-SCI-Karte) zusätzlich zu der (von der MMU des Prozessors ausgeführten) Übersetzung der virtuellen Adresse in eine reale (PCI-) Adresse vorgenommen wird. SCI-DSM erfordert also ein zweistufiges Adreßübersetzungsschema. PCI Address: RAM 8192*8 RAM 8192*16 SCI Address: 15 Node ID Local Address Bild 3 Übersetzung von PCI-Adressen in SCI-Adressen 3.4 Entwicklungsmethodik und -umgebung Die FPGAs als zentrale Komponenten der Karte wurden in VHDL beschrieben, simuliert und zum überwiegenden Teil synthetisiert. Verwendung fand die Entwicklungsumgebung der Firma Synopsis. Als FPGAs wurden Bausteine der Familie XC4000E von Xilinx und die zugehörigen Werkzeuge eingesetzt. 3.5 Erste Leistungsmessungen Der Prototyp des PCI-SCI-Adapters ist getestet, aber noch nicht optimiert. Derzeit sind Systemtakt und B-Link-Takt auf 18 MHz beschränkt. (Der LC-1-Takt läuft mit 100 MHz, der

8 SCI-Takt mit 50 MHz, PCI mit 33 MHz.) Durch Optimierungen an der synthetisierten Schaltung sind die projektierten 25 MHz für den Systemtakt zu erreichen. Bild 4 zeigt erste Latenzmessungen bei einer Schreiboperation an der nicht-optimierten Karte im Loopback-Modus (da nur eine Karte verfügbar ist). Die Zeiten wurden jeweils zu einer Transaktion auf den drei Bussystemen PCI, i960-bus und B-Link genommen. Die gesamte Latenz beträgt etwa 3,1 μs. Dies ist trotz der noch geringen Taktrate erheblich besser als die 5 6 μs Latenzzeit der Dolphin SBus-1-Karten, die im SPARCstation-Cluster des LRR-TUM eingesetzt werden. Bei 25 MHz Systemtakt sollte sich diese Latenz auf ca. 2,4 μs reduzieren. Zudem bietet die PCI-SCI-Karte noch die Möglichkeit des Pipelining von bis zu 16 Schreiboperationen. PCI FRAME i960 ADS B-Link FRAME Mbytes/s Write to SCI 400 ns ca. 7T 550 ns 10T ns (LC, SCI) 8 PCI FRAME i960 ADS B-Link FRAME 6 Write to Mem. PCI: 33 MHz i960/b-link: 1 8MHz SCI: 50 MHz 400 ns ca. 7T Incoming Flag 550 ns 10T 825 ns 15T 275 ns 5T Bild 4 Latenz eines Schreibzugriffs über SCI (Loopback, 18 MHz) Data Transfer Size [bytes] Bild 5 Durchsatz DMA-basierter Transfers über SCI (Loopback, 12 MHz) In Bild 5 ist schließlich der Durchsatz von mit Hilfe von DMA durchgeführten Speichertransfers über SCI (Serie von nwrite64-transaktionen) dargestellt, die zur Realisierung schneller Nachrichtentransfers verwendet werden können. Die Tests wurden wieder im Loopback-Modus, diesmal mit 12 MHz Takt, durchgeführt und schließen den Software-Aufwand für das Setzen und Lesen der DMA-Register mit ein. Bis zu einer zu übertragenden Datenmenge von 1024 Bytes (16 64-Byte-Pakete) ergibt sich ein linearer Anstieg des Durchsatzes bis etwa 9 MB/s, da bis zu 16 nwrite64-transaktionen genutzt und ausstehend sein können. Bei größeren Blöcken ergibt sich keine signifikante Durchsatzsteigerung mehr, da auf die Beendigung der Transaktionen gewartet werden muß. Der resultierende Durchsatz beträgt etwa 10 MB/s, mit 25 MHz Takt sollte er auf etwa 20 MB/s ansteigen. 4 Zusammenfassung und Ausblick Der Beitrag stellt eine PCI-SCI-Schnittstellenkarte vor, die zum Aufbau eines SCI-gekoppelten Clusters von PCs eingesetzt wird. DSM und hohe Kommunikationsleistung, insbesondere kurze Latenzzeiten, sind vorteilhafte Eigenschaften dieses Clusters. Das Projekt SMiLE wird kurz dargestellt, in dem dieses Cluster für parallele Programmierung und für Forschungsarbeiten zur effizienten Nutzung von DSM-Systemen genutzt wird. Ein Prototyp der PCI-SCI-Karte ist funktionsfähig. Derzeit werden Verbesserungen vorgenommen, die die projektierte Leistung der Karte (25 MHz Takt) erbringen sollen. Die Fertigung einiger dieser Karten wird vorbereitet, so daß ein kleines Cluster in Betrieb genommen

9 werden kann. Die PCI-SCI-Schnittstellenkarte wird in einem nächsten Schritt um Monitoring-Hardware erweitert, mit der von einem Knoten ausgehende, entfernte Speicherzugriffe erfaßt und einem Leistungsanalysewerkzeug zur Verfügung gestellt werden können. Die Software-Entwicklungen konzentrieren sich bisher auf die effiziente Realisierung von Bibliotheken zur Nachrichtenkommunikation. Aktuelle Messungen zeigen, daß z.b. für Active Messages durch Nutzung des DSM niedrige Latenzen und hohe Durchsatzraten erzielt werden können, z.b. 15 μs Zwei-Wege-Latenz auf einem SCI-Cluster von UltraSPARCs [9]. Literatur [1] G. Acher. Entwicklung eines SCI-Knotens zur Kopplung von PCI-basierten Arbeitsplatzrechnern mit Hilfe von VHDL. Diplomarbeit, Institut für Informatik, Technische Universität München, Okt [2] G. Acher, H. Hellwagner, W. Karl, M. Leberecht. A PCI-SCI Bridge for Building a PC Cluster with Distributed Shared Memory. Proc. 6th SCIzzL Workshop on SCI-based Local Area Multiprocessors. Santa Clara Univ., Sept [3] M. Eberl. Realisierung einer DSM-Implementation von Active Messages am Beispiel eines SCIgekoppelten Sun Workstation Clusters. Diplomarbeit, Institut für Informatik, Technische Universität München, Aug [4] T. von Eicken, D.E. Culler, S.C. Goldstein, K.E. Schauser. Active Messages: a Mechanism for Integrated Communication and Computation. Proc. 19th Int l. Symp. on Computer Architecture. ACM Press [5] A. Geist, A. Beguelin, J. Dongarra, W. Jiang, R, Manchek, V. Sunderam. PVM: Parallel Virtual Machine. A User s Guide and Tutorial for Networked Parallel Computing. MIT Press [6] R.B. Gillett. Memory Channel for PCI. IEEE Micro, Feb. 1996, [7] H. Hellwagner, V. Sunderam. Parallel Distributed Computing on SCI Workstation Clusters: Early Experiences. PARS-Mitteilungen, Nr. 14, Dez [8] H. Hellwagner, I. Zoraja, V. Sunderam. PVM Data Transfers on SCI Workstation Clusters: Early Experiences. Proc. PVM User Group Meeting 1996, Santa Fe, New Mexico, /bay.lanl.gov/pvmug96/proceedings.html. [9] H. Hellwagner, M. Leberecht, W. Karl. Enabling a PC Cluster for High Performance Computing. To appear in: The SPEEDUP Journal, Vol. 11, No. 1, [10] Special Issue on Hot Interconnects. IEEE Micro, Feb [11] M. Leberecht. A Concept for a Multithreaded Scheduling Environment. Proc. 4th PASA Workshop on Parallel Systems and Architectures. World Scientific Publishing [12] S.J. Leffler, M.K. McKusick, M.J. Karels, J.S. Quarterman. The Design and Implementation of the 4.3BSD UNIX Operating System. Addison-Wesley [13] Proc. Second NOW/Cluster Workshop. [14] K. Omang, B. Parady. Performance of Low-Cost UltraSparc Multiprocessors Connected by SCI. Research Report 219. Dept. of Informatics, University of Oslo, June [15] J. Protic, M Tomasevic, V. Milutinovic. Distributed Shared Memory: Concepts and Systems. IEEE Parallel and Distributed Technology, Summer 1996, [16] ANSI/IEEE Std : IEEE Standard for Scalable Coherent Interface (SCI). IEEE Computer Society Press [17] J. Weidendorfer. Entwurf und Implementierung einer Socket-Bibliothek für ein SCI-Netzwerk. Diplomarbeit, Institut für Informatik, Technische Universität München, Feb

PCI VME Interface SIS1100/SIS3100

PCI VME Interface SIS1100/SIS3100 PCI VME Interface SIS1100/SIS3100 Peter Wüstner Forschungszentrum Jülich, Zentrallobor für Elektronik (ZEL) Designprinzip der im ZEL entwickelten Datenaufnahmesysteme ist es, preiswerte PC Technik mit

Mehr

Verkürzung von Entwurfszeiten

Verkürzung von Entwurfszeiten Verkürzung von Entwurfszeiten durch Matlab-basiertes HPC R. Fink, S. Pawletta Übersicht aktuelle Situation im ingenieurtechnischen Bereich Multi-SCEs als Konzept zur Verkürzung von Entwurfszeiten Realisierung

Mehr

Entwicklung eines Mac OS X Treibers für eine PCI-VME Interface Karte

Entwicklung eines Mac OS X Treibers für eine PCI-VME Interface Karte Entwicklung eines Mac OS X Treibers für eine PCI-VME Interface Karte Matthias Lange Informatikstudent, TU-Dresden 27. September 2005 http://www.matze-lange.de Warum entwickelt jemand einen Treiber für

Mehr

InfiniBand Low Level Protocol

InfiniBand Low Level Protocol InfiniBand Low Level Protocol Seminar Ausgewählte Themen in Hardwareentwurf und Optik HWS 08 17.12.2008 Andreas Walter Universität Mannheim Inhalt Motivation InfiniBand Basics Physical Layer IB Verbs IB

Mehr

Vernetzung von Arbeitsplatzrechnern für Parallelverarbeitung

Vernetzung von Arbeitsplatzrechnern für Parallelverarbeitung Vernetzung von rbeitsplatzrechnern für Parallelverarbeitung Lehreinheit für Rechnertechnik und Rechnerorganisation / Parallelrechnerarchitektur (LRR-TUM) Institut für Informatik Technische Universität

Mehr

Current Implementations of the Virtual Interface Architecture (VIA)

Current Implementations of the Virtual Interface Architecture (VIA) Current Implementations of the Virtual Interface Architecture (VIA) Seminarvortrag von Thorsten Backhaus im Rahmen des Seminars des Lehrstuhls Rechnerarchitektur der Universität Mannheim im Wintersemester

Mehr

User Level Device Driver am Beispiel von TCP

User Level Device Driver am Beispiel von TCP September 17, 2004 Einleitung Motivation für Userlevel Device Driver Probleme von Userlevel Device Driver Motivation für Userlevel Device Driver Modularität, leichterer Austausch/Erneuerung von Komponenten.

Mehr

Lokales Storage Teil 1

Lokales Storage Teil 1 Lokales Storage Teil 1 Zinching Dang 08. Juli 2015 1 Lokales Storage im Allgemeinen Lokales Storage im Allgemeinen Datenträger, die direkt am Host angeschlossen sind Anbindung über verschiedene Bus-Systeme

Mehr

Codesigned Virtual Machines

Codesigned Virtual Machines Codesigned Virtual Machines Seminar Virtualisierung Philipp Kirchhofer philipp.kirchhofer@student.kit.edu Institut für Technische Informatik Lehrstuhl für Rechnerarchitektur Universität Karlsruhe (TH)

Mehr

Neues in Hyper-V Version 2

Neues in Hyper-V Version 2 Michael Korp Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/mkorp Neues in Hyper-V Version 2 - Virtualisieren auf die moderne Art - Windows Server 2008 R2 Hyper-V Robust Basis:

Mehr

DC-FW400 SE. 3+1 Port IEEE 1394 FireWire TM PCI-Controller

DC-FW400 SE. 3+1 Port IEEE 1394 FireWire TM PCI-Controller DC-FW400 SE 3+1 Port IEEE 1394 FireWire TM PCI-Controller Wichtige Information zur Datensicherheit Vor der Installation und bei Änderungen der Konfiguration des DC-FW400 SE sollte unbedingt eine Datensicherung

Mehr

Smartphone Entwicklung mit Android und Java

Smartphone Entwicklung mit Android und Java Smartphone Entwicklung mit Android und Java predic8 GmbH Moltkestr. 40 53173 Bonn Tel: (0228)5552576-0 www.predic8.de info@predic8.de Was ist Android Offene Plattform für mobile Geräte Software Kompletter

Mehr

RAC auf Sun Cluster 3.0

RAC auf Sun Cluster 3.0 RAC auf Sun Cluster 3.0 Schlüsselworte RAC, OPS, Sun Cluster, Performance, Availability Zusammenfassung Oracle hat mit dem Real Application Cluster (RAC) aus einer Hochverfügbarkeitslösung eine Höchstverfügbarkeitslösung

Mehr

Advanced DAQ System Development Using NI-DAQmx and Intelligent DAQ (FPGA)

Advanced DAQ System Development Using NI-DAQmx and Intelligent DAQ (FPGA) Advanced DAQ System Development Using NI-DAQmx and Intelligent DAQ (FPGA) Rudolf Gierlinger National Instruments, Österreich AGENDA Teil 1: Advanced NI-DAQmx Datenerfassungsmöglichkeiten Konfiguration

Mehr

Symmetric Multiprocessing mit einer FPGA basierten. Marco Kirschke INF-M3 Seminar Wintersemester 2010/2011 25. November 2010

Symmetric Multiprocessing mit einer FPGA basierten. Marco Kirschke INF-M3 Seminar Wintersemester 2010/2011 25. November 2010 Symmetric Multiprocessing mit einer FPGA basierten MPSoC Plattform Marco Kirschke INF-M3 Seminar Wintersemester 2010/2011 25. November 2010 Inhalt Motivation Vorarbeiten Ziele für die Masterarbeit Vorgehensweise

Mehr

White Paper. Embedded Treiberframework. Einführung

White Paper. Embedded Treiberframework. Einführung Embedded Treiberframework Einführung White Paper Dieses White Paper beschreibt die Architektur einer Laufzeitumgebung für Gerätetreiber im embedded Umfeld. Dieses Treiberframework ist dabei auf jede embedded

Mehr

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO Anastasios Stomas SFI Technology Services AG 12. März 2003 anastasios.stomas@sfi.ch Seite 1 Hintergrund INHALT Cluster-

Mehr

PVFS (Parallel Virtual File System)

PVFS (Parallel Virtual File System) Management grosser Datenmengen PVFS (Parallel Virtual File System) Thorsten Schütt thorsten.schuett@zib.de Management grosser Datenmengen p.1/?? Inhalt Einführung in verteilte Dateisysteme Architektur

Mehr

DC-1394 PCIe. IEEE 1394 FireWire TM PCIe Card. Windows 2000 / 2003 / 2008 Windows XP / Vista / 7

DC-1394 PCIe. IEEE 1394 FireWire TM PCIe Card. Windows 2000 / 2003 / 2008 Windows XP / Vista / 7 DC-1394 PCIe IEEE 1394 FireWire TM PCIe Card Wichtige Information zur Datensicherheit Vor der Installation und bei Änderungen der Konfiguration des DC-1394 PCIe sollte unbedingt eine Datensicherung durchgeführt

Mehr

Studienvertiefungsrichtung Informationstechnik

Studienvertiefungsrichtung Informationstechnik Studienvertiefungsrichtung Informationstechnik Prof.Dr.-Ing. Ulrich Sauvagerd Lehrgebiet Informationstechnik Nov. 2006, Seite 1 www.etech.haw-hamburg.de/~sauvagerd Lehrgebiet Informationstechnik Nov. 2006,

Mehr

Red Hat Cluster Suite

Red Hat Cluster Suite Red Hat Cluster Suite Building high-available Applications Thomas Grazer Linuxtage 2008 Outline 1 Clusterarten 2 3 Architektur Konfiguration 4 Clusterarten Was ist eigentlich ein Cluster? Wozu braucht

Mehr

2.2 Rechnerorganisation: Aufbau und Funktionsweise

2.2 Rechnerorganisation: Aufbau und Funktionsweise 2.2 Rechnerorganisation: Aufbau und Funktionsweise é Hardware, Software und Firmware é grober Aufbau eines von-neumann-rechners é Arbeitsspeicher, Speicherzelle, Bit, Byte é Prozessor é grobe Arbeitsweise

Mehr

Proseminar Technische Informatik A survey of virtualization technologies

Proseminar Technische Informatik A survey of virtualization technologies Proseminar Technische Informatik A survey of virtualization technologies Referent: Martin Weigelt Proseminar Technische Informatik - A survey of virtualization technologies 1 Übersicht 1. Definition 2.

Mehr

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel Freiberuflicher Schwerpunkte: Unix, Oracle, Netzwerk 2005 1 Testaufbauten von Oracle 10g RAC auf preiswerter Hardware 2 3 Typisches Cluster System Clients Public Network Node A Node B Cluster Interconnect

Mehr

1 Proseminar: Konzepte von Betriebssystem-Komponenten. Thema: Server OS AS/400 Referend: Sand Rainer. Server OS - AS/400

1 Proseminar: Konzepte von Betriebssystem-Komponenten. Thema: Server OS AS/400 Referend: Sand Rainer. Server OS - AS/400 1 Proseminar: Konzepte von Betriebssystem-Komponenten Server OS - AS/400 Gliederung Was ist eine AS/400? Wie ist OS/400 aufgebaut? Was kann eine AS/400? Bsp.: Logische Partitionierung 2 Proseminar: Konzepte

Mehr

11. Mehrrechner-DBMSe / Datenbankmaschinen

11. Mehrrechner-DBMSe / Datenbankmaschinen 11. Mehrrechner-e / Datenbankmaschinen In der Vergangenheit DB-Maschinen oft auf Basis von Spezial-HW-/SW Schnittstelle Anwendungsprogramm - DB-Maschine oft "nicht hoch" genug Interaktion und Integration

Mehr

Rechnernutzung in der Physik. Betriebssysteme

Rechnernutzung in der Physik. Betriebssysteme Rechnernutzung in der Physik Betriebssysteme 1 Betriebssysteme Anwendungsprogramme Betriebssystem Treiber BIOS Direkter Zugriff von Anwenderprogrammen auf Hardware nur in Ausnahmefällen sinnvoll / möglich:

Mehr

Prüfung VO Betriebssysteme SS2008 / 7. Juli 2008

Prüfung VO Betriebssysteme SS2008 / 7. Juli 2008 Name: Matrikel-Nr: Prüfung VO Betriebssysteme SS2008 / 7. Juli 2008 Bitte schreiben Sie leserlich und antworten Sie kurz und präzise. 1. Zeichnen Sie das Schichten-Modell eines Computersystems und markieren

Mehr

1KONFIGURATION ADDRESS TRANSLATION VON NETWORK. Copyright 24. Juni 2005 Funkwerk Enterprise Communications GmbH Bintec Workshop Version 0.

1KONFIGURATION ADDRESS TRANSLATION VON NETWORK. Copyright 24. Juni 2005 Funkwerk Enterprise Communications GmbH Bintec Workshop Version 0. 1KONFIGURATION VON NETWORK ADDRESS TRANSLATION Copyright 24. Juni 2005 Funkwerk Enterprise Communications GmbH Bintec Workshop Version 0.9 Ziel und Zweck Haftung Marken Copyright Richtlinien und Normen

Mehr

B.4. B.4 Betriebssysteme. 2002 Prof. Dr. Rainer Manthey Informatik II 1

B.4. B.4 Betriebssysteme. 2002 Prof. Dr. Rainer Manthey Informatik II 1 Betriebssysteme Betriebssysteme 2002 Prof. Dr. Rainer Manthey Informatik II 1 Bekannte Betriebssysteme Windows 2000 CMS UNIX MS-DOS OS/2 VM/SP BS 2000 MVS Windows NT Solaris Linux 2002 Prof. Dr. Rainer

Mehr

Agenda. Einleitung Produkte vom VMware VMware Player VMware Server VMware ESX VMware Infrastrukture. Virtuelle Netzwerke

Agenda. Einleitung Produkte vom VMware VMware Player VMware Server VMware ESX VMware Infrastrukture. Virtuelle Netzwerke VMware Server Agenda Einleitung Produkte vom VMware VMware Player VMware Server VMware ESX VMware Infrastrukture Virtuelle Netzwerke 2 Einleitung Virtualisierung: Abstrakte Ebene Physikalische Hardware

Mehr

Grundlagen der Rechnerarchitektur

Grundlagen der Rechnerarchitektur Grundlagen der Rechnerarchitektur Ein und Ausgabe Übersicht Grundbegriffe Hard Disks und Flash RAM Zugriff auf IO Geräte RAID Systeme SS 2012 Grundlagen der Rechnerarchitektur Ein und Ausgabe 2 Grundbegriffe

Mehr

IT für Führungskräfte. Zentraleinheiten. 11.04.2002 Gruppe 2 - CPU 1

IT für Führungskräfte. Zentraleinheiten. 11.04.2002 Gruppe 2 - CPU 1 IT für Führungskräfte Zentraleinheiten 11.04.2002 Gruppe 2 - CPU 1 CPU DAS TEAM CPU heißt Central Processing Unit! Björn Heppner (Folien 1-4, 15-20, Rollenspielpräsentation 1-4) Harald Grabner (Folien

Mehr

KVM Performance Optimierungen auf Hypervisor / Linux Eben

KVM Performance Optimierungen auf Hypervisor / Linux Eben KVM Performance Optimierungen auf Hypervisor / Linux Ebene UnFUG WS12/13 17. Januar 2013 1 / 32 Agenda Einleitung 1 Einleitung 2 3 4 5 2 / 32 Hintergrund / Motivation Seminararbeit für die WPV Cloud Computing

Mehr

Untersuchung zur hardwareunterstützten Entwurfsverifikation von Stream-basierten Kommunikations- und Verarbeitungsalgorithmen

Untersuchung zur hardwareunterstützten Entwurfsverifikation von Stream-basierten Kommunikations- und Verarbeitungsalgorithmen Fakultät Informatik Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Untersuchung zur hardwareunterstützten Entwurfsverifikation von Stream-basierten Kommunikations-

Mehr

Projekt im Sommersemester 2008. Complex and Distributed IT-Systems TU Berlin

Projekt im Sommersemester 2008. Complex and Distributed IT-Systems TU Berlin Virtuelle Systeme Projekt im Sommersemester 2008 Complex and Distributed IT-Systems TU Berlin Beispiel: VMWare 24.10.2007 CIT, Einführung Projekt Virtualisierung 2 Virtualisierung 24.10.2007 CIT, Einführung

Mehr

1.) Nennen Sie Aufgaben und mögliche Dienste der Transportschicht (Transport Layer) des ISO/OSI-Schichtenmodells.

1.) Nennen Sie Aufgaben und mögliche Dienste der Transportschicht (Transport Layer) des ISO/OSI-Schichtenmodells. Übung 7 1.) Nennen Sie Aufgaben und mögliche Dienste der Transportschicht (Transport Layer) des ISO/OSI-Schichtenmodells. 2.) Charakterisieren Sie kurz das User Datagram Protokoll (UDP) aus der Internetprotokollfamilie

Mehr

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13 UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13 Verarbeitungsgrundlagen Teil 2 Virtual Storage el0100 copyright

Mehr

Cisco erweitert Gigabit-Ethernet-Portfolio

Cisco erweitert Gigabit-Ethernet-Portfolio Seite 1/6 Kleine und mittelständische Unternehmen Neue 1000BaseT-Produkte erleichtern die Migration zur Gigabit-Ethernet- Technologie WIEN. Cisco Systems stellt eine Lösung vor, die mittelständischen Unternehmen

Mehr

1KONFIGURATION VON WIRELESS LAN MIT WPA PSK

1KONFIGURATION VON WIRELESS LAN MIT WPA PSK 1KONFIGURATION VON WIRELESS LAN MIT WPA PSK Copyright 26. August 2005 Funkwerk Enterprise Communications GmbH bintec Workshop Version 0.9 Ziel und Zweck Haftung Marken Copyright Richtlinien und Normen

Mehr

Session 3: Projektvorstellung Transferprojekt itsowl-tt-hapromesy 18. August 2015, Gütersloh. www.its-owl.de

Session 3: Projektvorstellung Transferprojekt itsowl-tt-hapromesy 18. August 2015, Gütersloh. www.its-owl.de Session 3: Projektvorstellung Transferprojekt itsowl-tt-hapromesy 18. August 2015, Gütersloh www.its-owl.de Agenda Abschlusspräsentation itsowl-tt-hapromesy Einführung Zielsetzung Ergebnisse Resümee und

Mehr

bintec Workshop Konfiguration von Wireless LAN mit WDS Link Copyright 8. November 2005 Funkwerk Enterprise Communications GmbH Version 0.

bintec Workshop Konfiguration von Wireless LAN mit WDS Link Copyright 8. November 2005 Funkwerk Enterprise Communications GmbH Version 0. bintec Workshop Konfiguration von Wireless LAN mit WDS Link Copyright 8. November 2005 Funkwerk Enterprise Communications GmbH Version 0.9 Ziel und Zweck Haftung Marken Copyright Richtlinien und Normen

Mehr

Mainframe Internet Integration. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013. Java Connection Architecture Teil 3

Mainframe Internet Integration. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013. Java Connection Architecture Teil 3 UNIVERSITÄT LEIPZIG Mainframe Internet Integration Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth SS2013 Java Connection Architecture Teil 3 CICS Transaction Gateway el0100 copyright W. G. Spruth,

Mehr

Version 2.0. Copyright 2013 DataCore Software Corp. All Rights Reserved.

Version 2.0. Copyright 2013 DataCore Software Corp. All Rights Reserved. Version 2.0 Copyright 2013 DataCore Software Corp. All Rights Reserved. VDI Virtual Desktop Infrastructure Die Desktop-Virtualisierung im Unternehmen ist die konsequente Weiterentwicklung der Server und

Mehr

Teil VIII Von Neumann Rechner 1

Teil VIII Von Neumann Rechner 1 Teil VIII Von Neumann Rechner 1 Grundlegende Architektur Zentraleinheit: Central Processing Unit (CPU) Ausführen von Befehlen und Ablaufsteuerung Speicher: Memory Ablage von Daten und Programmen Read Only

Mehr

Einführung in Betriebssysteme

Einführung in Betriebssysteme Einführung in Betriebssysteme APPLE ios Entwicklung von ios Entwickelt auf der Basis von MacOS X UNIX Vorgestellt am 9.1.2007 Zusammen mit iphone Markenname von Cisco Internetwork Operating System Für

Mehr

Entwicklung mit Xilinx-FPGAs

Entwicklung mit Xilinx-FPGAs Entwicklung mit Xilinx-FPGAs FZJ - ZEL - Abteilung für Experimentsysteme und Kommunikationstechnik (Harald Kleines) Motivation Technologie Entwicklungsprozeß DAQ in der Hadronenphysik Projekte im FZJ mit

Mehr

Rechnerstrukturen. 6. System. Systemebene. Rechnerstrukturen Wintersemester 2002/03. (c) Peter Sturm, Universität Trier 1. Prozessor.

Rechnerstrukturen. 6. System. Systemebene. Rechnerstrukturen Wintersemester 2002/03. (c) Peter Sturm, Universität Trier 1. Prozessor. Rechnerstrukturen 6. System Systemebene 1 (Monoprozessor) 2-n n (Multiprozessor) s L1- in der L2- ( oder Motherboard) ggf. L3- MMU Speicher Memory Controller (Refresh etc.) E/A-Geräte (c) Peter Sturm,

Mehr

Virtualisierung im Echtzeitbereich. Andreas Hollmann FH Landshut EADS Military Air Systems

Virtualisierung im Echtzeitbereich. Andreas Hollmann FH Landshut EADS Military Air Systems Virtualisierung im Echtzeitbereich Andreas Hollmann FH Landshut EADS Military Air Systems 2 Überblick Hintergrund und Motivation Vorstellung von Lösungsansätzen Auswahl und Evaluierung Einschränkungen

Mehr

6.6.4 Cluster Interconnect im Private Network

6.6.4 Cluster Interconnect im Private Network Hardware-Architektur 221 6.6.4 Cluster Interconnect im Private Network Zwischen den Knoten des RAC werden viele, meist sehr kleine Pakete über den Cluster Interconnect ausgetauscht. Kurze Latenzzeiten

Mehr

Hardware PCI, PCIe und Bus-Bridges

Hardware PCI, PCIe und Bus-Bridges Hardware PCI, PCIe und Bus-Bridges Dr.-Ing. Matthias Sand Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2010/2011 Hardware PCI, PCIe und Bus-Bridges

Mehr

Vorlesung Objektorientierte Softwareentwicklung. Kapitel 0. Java-Überblick

Vorlesung Objektorientierte Softwareentwicklung. Kapitel 0. Java-Überblick Vorlesung Objektorientierte Softwareentwicklung Sommersemester este 2008 Kapitel 0. Java-Überblick Was sind die Ziele? Warum Java? Komplexe Anwendungen e-business verteilt zuverlässig sicher mobil persistent

Mehr

Technische Informatik I. Übung 3 Speicherhierarchie. v t d 0 d 1 d 2 d 3 0 1 2 3. Technische Informatik I Übung 3. Technische Informatik I Übung 3

Technische Informatik I. Übung 3 Speicherhierarchie. v t d 0 d 1 d 2 d 3 0 1 2 3. Technische Informatik I Übung 3. Technische Informatik I Übung 3 Institut für Kommunikationsnetze und Rechnersysteme Technische Informatik I Paul J. Kühn, Matthias Meyer Übung 3 Speicherhierarchie Inhaltsübersicht Aufgabe 3.1 Daten-Cache Aufgabe 3.2 Virtueller Speicher

Mehr

The Unbreakable Database System

The Unbreakable Database System The Unbreakable Database System Real Application Cluster Unterföhring, 04.2005 M. Kühn 1 Comparisson HA - HA Ziele, DataGuard, HA Oracle, RAC RAC Features - Cache Fusion, TAF, Load Balancing RAC on Solaris

Mehr

Konfigurationsanleitung Network Address Translation (NAT) Funkwerk. Seite - 1 - Copyright Stefan Dahler - www.neo-one.de 13. Oktober 2008 Version 1.

Konfigurationsanleitung Network Address Translation (NAT) Funkwerk. Seite - 1 - Copyright Stefan Dahler - www.neo-one.de 13. Oktober 2008 Version 1. Konfigurationsanleitung Network Address Translation (NAT) Funkwerk Copyright Stefan Dahler - www.neo-one.de 13. Oktober 2008 Version 1.1 Seite - 1 - 1. Konfiguration von Network Address Translation 1.1

Mehr

Matrox Framegrabber für alle Auflösungen von PAL bis Full-HD

Matrox Framegrabber für alle Auflösungen von PAL bis Full-HD Matrox Framegrabber für alle Auflösungen von PAL bis Full-HD und alle Interfaces Analog Camera Link CoaXPress SDI DVI/HDMI IEEE 1394 GigE Vision Matrox Framegrabber Matrox ist seit über 30 Jahren der führende

Mehr

Hybride Apps DPR und Android auf dem Xilinx ZYNQ. Endric Schubert, Missing Link Electronics Fabian Zentner, Univ. Ulm

Hybride Apps DPR und Android auf dem Xilinx ZYNQ. Endric Schubert, Missing Link Electronics Fabian Zentner, Univ. Ulm Hybride Apps DPR und Android auf dem Xilinx ZYNQ Endric Schubert, Missing Link Electronics Fabian Zentner, Univ. Ulm Konvergenz der Rechenplattformen Processing System Memory Interfaces 7 Series Programmable

Mehr

56 Maßnahmen zur Sicherung der Verfügbarkeit in Oracle-Umgebungen. Client Client Client Client Client. Public Network. aktiv. Private Network.

56 Maßnahmen zur Sicherung der Verfügbarkeit in Oracle-Umgebungen. Client Client Client Client Client. Public Network. aktiv. Private Network. 56 Maßnahmen zur Sicherung der Verfügbarkeit in Oracle-Umgebungen aktiv inaktiv Node 1 ( Aktiv ) Node 2 ( Passiv ) Private Network aktiv inaktiv (exklusiver Zugriff) Abbildung 3.1: Schematische Darstellung

Mehr

Multicore Herausforderungen an das Software-Engineering. Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010

Multicore Herausforderungen an das Software-Engineering. Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010 Multicore Herausforderungen an das Software-Engineering Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010 Inhalt _ Motivation _ Herausforderung 1: Hardware _ Herausforderung 2: Software-Partitionierung

Mehr

DBUS Interprozess-Kommunikation für Embedded-Plattformen

DBUS Interprozess-Kommunikation für Embedded-Plattformen DBUS Interprozess-Kommunikation für Embedded-Plattformen Andreas Schwarz Neratec Solutions AG Firmenprofil Neratec Solutions AG Produkt-Entwicklungen für kundenspezifische elektronische Produkte Produkte

Mehr

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk Haftungsausschluss Microsoft kann für die Richtigkeit

Mehr

Military Air Systems

Military Air Systems Trennung von Applikationen unterschiedlicher Kritikalität in der Luftfahrt durch Software en am Beispiel des Real-time Operating Systems PikeOS Dr. Bert Feldmann DGLR Workshop Garching, 09.10.2007 Seite

Mehr

Grid Computing. Einführung. Marc Lechtenfeld. Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen

Grid Computing. Einführung. Marc Lechtenfeld. Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen * Grid Computing Einführung Marc Lechtenfeld Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen Übersicht 1 Problematik 2 Systemanforderungen 3 Architektur 4 Implementation 5 Projekte

Mehr

Next generation of Power

Next generation of Power Next generation of Power 29. April Executive Briefing Center Böblingen Volker Haug Power Systems Architekt Mitglied des IBM Technical Expert Council (TEC) IBM Deutschland GmbH Systems & Technology Group

Mehr

Projekt für Systemprogrammierung WS 06/07

Projekt für Systemprogrammierung WS 06/07 Dienstag 30.01.2007 Projekt für Systemprogrammierung WS 06/07 Von: Hassan Bellamin E-Mail: h_bellamin@web.de Gliederung: 1. Geschichte und Definition 2. Was ist Virtualisierung? 3. Welche Virtualisierungssoftware

Mehr

Linux auf dem Nios II Softcore Prozessor

Linux auf dem Nios II Softcore Prozessor Linux auf dem Nios II Softcore Prozessor Tobias Klauser Institute of Embedded Systems Zürcher Hochschule für Angewandte Wissenschaften 30. August 2011 Tobias Klauser (InES)

Mehr

Cluster Operating Systems

Cluster Operating Systems Lehrstuhl für Rechnerarchitektur, Professor Brüning Cluster Operating Systems Seminarvortrag im Wintersemester 2003/04 von Frank Ueltzhöffer 1. Einführung und Motivation 2. Charakterisierung 3. Herausforderungen

Mehr

GinLink Interface 1GHz RISC CPU M-RAM High-Speed Feldbus Controller RISC-CPU, 800MHz... 1GHz Bis zu 256 MByte SDRAM

GinLink Interface 1GHz RISC CPU M-RAM High-Speed Feldbus Controller RISC-CPU, 800MHz... 1GHz Bis zu 256 MByte SDRAM GinLink-News Feldbus-Controller GinLink Interface 1GHz RISC CPU M-RAM High-Speed Feldbus Controller RISC-CPU, 800MHz... 1GHz Bis zu 256 MByte SDRAM Technische Daten GIN-SAM3 610736800 Schnittstellen 2

Mehr

Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur. PCI Express. Dirk Wischeropp. Dresden, 07.06.

Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur. PCI Express. Dirk Wischeropp. Dresden, 07.06. Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur PCI Express Dirk Wischeropp Dresden, 07.06.2011 Gliederung 1 Einleitung 2 Architektur 3 Layering 4 Zusammenfassung

Mehr

Seminar Großrechneraspekte (Mainframe): Von Betriebssystemen bis zur Datenbank und darüber hinaus. E/A Architektur

Seminar Großrechneraspekte (Mainframe): Von Betriebssystemen bis zur Datenbank und darüber hinaus. E/A Architektur Seminar Großrechneraspekte (Mainframe): Von Betriebssystemen bis zur Datenbank und darüber hinaus E/A Architektur Thomas Scheffler e-mail: thomas.scheffler@uni-jena.de Friedrich-Schiller-Universität Jena

Mehr

Jan Hendrik Bartels Seminar: Leistungsanalyse unter Linux

Jan Hendrik Bartels Seminar: Leistungsanalyse unter Linux Jan Hendrik Bartels Seminar: Leistungsanalyse unter Linux Jan H. Bartels XXX XXX XXX XXX XXX Einführung Leistungskennzahlen & Komponenten Methoden der Leistungsanalyse Zusammenfassung XXX XXX 23.06.2011

Mehr

IT-Infrastruktur, WS 2014/15, Hans-Georg Eßer

IT-Infrastruktur, WS 2014/15, Hans-Georg Eßer ITIS-D'' IT-Infrastruktur WS 2014/15 Hans-Georg Eßer Dipl.-Math., Dipl.-Inform. Foliensatz D'': Rechnerstrukturen, Teil 3 v1.0, 2014/11/27 Folie D''-1 Dieser Foliensatz Vorlesungsübersicht Seminar Wiss.

Mehr

NAT und Firewalls. Jörn Stuphorn stuphorn@rvs.uni-bielefeld.de. Universität Bielefeld Technische Fakultät

NAT und Firewalls. Jörn Stuphorn stuphorn@rvs.uni-bielefeld.de. Universität Bielefeld Technische Fakultät NAT und Firewalls Jörn Stuphorn stuphorn@rvs.uni-bielefeld.de Universität Bielefeld Technische Fakultät Stand der Veranstaltung 13. April 2005 Unix-Umgebung 20. April 2005 Unix-Umgebung 27. April 2005

Mehr

Ausarbeitung Seminarvortrag High-Performance-Computing WS 2011/2012

Ausarbeitung Seminarvortrag High-Performance-Computing WS 2011/2012 Ausarbeitung Seminarvortrag High-Performance-Computing WS 2011/2012 Matthias Bott 9. Januar 2012 2 VOM PC ZUM HPC 2 1 Movtivation Auf die Frage, wofür Computer in der Kernphysik benötigt werden, gibt es

Mehr

Convey, Hybrid-Core Computing

Convey, Hybrid-Core Computing Convey, Hybrid-Core Computing Vortrag im Rahmen des Seminars Ausgewählte Themen in Hardwareentwurf und Optik HWS 09 Universität Mannheim Markus Müller 1 Inhalt Hybrid-Core Computing? Convey HC-1 Überblick

Mehr

Aufbau eigener Cloud-Infrastrukturen mit Eucalyptus Hochschule Mannheim

Aufbau eigener Cloud-Infrastrukturen mit Eucalyptus Hochschule Mannheim Andreas Ries Cloud-Computing Seminar Hochschule Mannheim WS0910 1/26 Aufbau eigener Cloud-Infrastrukturen mit Eucalyptus Hochschule Mannheim Andreas Ries Fakultät für Informatik Hochschule Mannheim ries.andreas@web.de

Mehr

Debugging mit uclinux auf ARM-Prozessoren

Debugging mit uclinux auf ARM-Prozessoren Debugging mit uclinux auf ARM-Prozessoren Thema der Diplomarbeit betreut durch Steffen Köhler 15.06.2005 TU Dresden, Institut für Technische Informatik 1 µclinux µ für micro und C für Controller sprich:

Mehr

Grundlagen der Parallelisierung

Grundlagen der Parallelisierung Grundlagen der Parallelisierung Philipp Kegel, Sergei Gorlatch AG Parallele und Verteilte Systeme Institut für Informatik Westfälische Wilhelms-Universität Münster 3. Juli 2009 Inhaltsverzeichnis 1 Einführung

Mehr

Spezifikationen und Voraussetzung

Spezifikationen und Voraussetzung Projekt IGH DataExpert Paynet Adapter Spezifikationen Voraussetzungen Datum : 21.07.08 Version : 1.0.0.2 21.07.2008 Seite 1 von 7 Inhaltsverzeichnis 1 Einleitung... 3 2 Architektur... 3 2.1 Grundsätze

Mehr

Modulbeschreibung. The course is principally designed to impart: technical skills 50%, method skills 40%, system skills 10%, social skills 0%.

Modulbeschreibung. The course is principally designed to impart: technical skills 50%, method skills 40%, system skills 10%, social skills 0%. Titel des Moduls: Parallel Systems Dt.: Parallele Systeme Verantwortlich für das Modul: Heiß, Hans-Ulrich E-Mail: lehre@kbs.tu-berlin.de URL: http://www.kbs.tu-berlin.de/ Modulnr.: 866 (Version 2) - Status:

Mehr

Performance-Vergleich zwischen dem Open-E NAS Enterprise Server und dem Microsoft Windows Storage Server 2003

Performance-Vergleich zwischen dem Open-E NAS Enterprise Server und dem Microsoft Windows Storage Server 2003 Performance-Vergleich zwischen dem Open-E NAS Enterprise Server und dem Microsoft Windows Storage Server 2003 In diesem Whitepaper werden zwei wichtige NAS Betriebssysteme gegenübergestellt und auf ihre

Mehr

5. PC-Architekturen und Bussysteme

5. PC-Architekturen und Bussysteme Abb. 5.1: Aufbau des klassischen PC-AT Abb. 5.2: Busslot im PC-AT Port-Adresse Verwendung 000h-00fh 1. DMA-Chip 8237A 020h-021h 1. PIC 8259A 040h-043h PIT 8253 060h-063h Tastaturcontroller 8042 070h-071h

Mehr

32-Bit Microcontroller based, passive and intelligent UHF RFID Gen2 Tag. Zürcher Fachhochschule

32-Bit Microcontroller based, passive and intelligent UHF RFID Gen2 Tag. Zürcher Fachhochschule 32-Bit Microcontroller based, passive and intelligent UHF RFID Gen2 Tag Inhalt Vorgeschichte Was wurde erreicht Hardware Energy Micro Microcontroller µctag Plattform EPC Gen2 Tag Standard Protokoll-Vorgaben

Mehr

Linux-HA-Cluster Heartbeat mit DRBD

Linux-HA-Cluster Heartbeat mit DRBD Linux-HA-Cluster Heartbeat mit DRBD Thomas Röhl 01. Oktober 2004 Inhalt Was ist ein HA-Cluster? Vorbereiten des Projekts Hardware Software Allgemeiner Aufbau des Clusters Installation von DRBD Installation

Mehr

Warum also mit einem 32-Bit-System arbeiten, wenn es Systeme für 64 Bit gibt?

Warum also mit einem 32-Bit-System arbeiten, wenn es Systeme für 64 Bit gibt? Mehr als 4GB RAM mit 32-Bit Windows XP nutzen ( Mit freundlicher Erlaubnis: https://grafvondiepelrath.wordpress.com/2015/01/10/windowsxp-mit-8-gb-ram-betreiben/) Das Windows XP -32-Bit-System wird auch

Mehr

Spezifikationen und Voraussetzung

Spezifikationen und Voraussetzung Projekt IGH DataExpert Yellowbill Adapter Spezifikationen Voraussetzungen Datum : 22.08.2013 Version : 1.0.0.2 22.08.2013 Seite 1 von 7 Inhaltsverzeichnis 1 Einleitung...3 2 Architektur...3 2.1 Grundsätze

Mehr

Netzwerkperformance 2.0

Netzwerkperformance 2.0 Netzwerkperformance 2.0 Die KPI`s als Schlüsselfaktoren der Netzwerke Andreas Dobesch, Product Manager DataCenter Forum 2014, Trafo Baden ISATEL Electronic AG Hinterbergstrasse 9 CH 6330 Cham Tel. 041

Mehr

Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA)

Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA) Proseminar KVBK Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA) Arian Bär 12.07.2004 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) 2.1. Allgemeines 2.2. Architektur 3. Speicherarchitekturen

Mehr

Dienstgüte in Mobilen Ad Hoc Netzen

Dienstgüte in Mobilen Ad Hoc Netzen Dienstgüte in Mobilen Ad Hoc Netzen KM-/VS-Seminar Wintersemester 2002/2003 Betreuer: Oliver Wellnitz 1 Was ist Dienstgüte? Einleitung The collective effect of service performance which determine the degree

Mehr

Überblick über die InfiniBand Architecture

Überblick über die InfiniBand Architecture Überblick über die InfiniBand Architecture Hynek Schlawack - hynek@hys.in-berlin.de 17. Mai 2002 Inhaltsverzeichnis 1 Einführung 2 1.1 Allgemeines.............................. 2 1.2 Features................................

Mehr

Einleitung. Storage-Monitoring mit Nagios

Einleitung. Storage-Monitoring mit Nagios Einleitung Storage-Monitoring mit Nagios Kapitel 01: Einleitung Überblick... 01.01 NetApp - Network Appliance... 01.03 Data ONTAP & WAFL... 01.04 Interner Aufbau... 01.05 Überblick Storage-Monitoring mit

Mehr

Messsysteme für den SwissFEL

Messsysteme für den SwissFEL Messsysteme für den SwissFEL Signalauswertung mit Xilinx Virtex-5 FPGAs Embedded Computing Conference 2011 Christa Zimmerli Masterstudentin MSE Wissenschaftliche Assistentin christa.zimmerli@fhnw.ch Institut

Mehr

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1 Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer

Mehr

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Jörg Rödel Virtualization - Whats out there? Virtualisierung hat bereits längere Geschichte auf x86 Startete mit VMware Setzte

Mehr

Peripherie Komplexe serielle Schnittstellen

Peripherie Komplexe serielle Schnittstellen Peripherie Komplexe serielle Schnittstellen Kennzeichen Aufwändigere Physical Layer Darstellungen Praktisch immer asynchron Blockübertragungen Asynchronität: Taktrückgewinnung nötig Overhead bei Bit-Übertragung

Mehr

INES-Webserver. Damit gehen Ihre Geräte und Anlagen online. 1 Inhalt

INES-Webserver. Damit gehen Ihre Geräte und Anlagen online. 1 Inhalt Damit gehen Ihre Geräte und Anlagen online Mit dem Webbrowser bedienen, steuern und überwachen Sie INES und die daran angeschlossene Peripherie... ganz einfach übers Internet. 1 Inhalt 1 Inhalt 1 2 Anwendungen

Mehr

Hardware-Interfaces für FlexRay und CAN

Hardware-Interfaces für FlexRay und CAN Hardware-Interfaces für FlexRay und CAN FlexRay, das Bussystem für hohe Datenraten im Fahrzeug, stellt sehr hohe Anforderungen an die Hardwareschnittstellen. Nutzen Sie die Vector FlexRay Interfaces für

Mehr

Gliederung Hardware fuer die Zeitmessung Zeitmanagement auf Uniprozessorsystemen. Timing Measurements. Timo Schneider. 4.

Gliederung Hardware fuer die Zeitmessung Zeitmanagement auf Uniprozessorsystemen. Timing Measurements. Timo Schneider. 4. 4. Juni 2005 1 2 Timer Interrupts Software Timer System Calls Die Real Time Clock befindet sich zusammen mit CMOS-RAM (Bios) auf einem Chip, zb Motorola 1416818. Wenn der PC ausgeschaltet wird, wird die

Mehr

Security. Stefan Dahler. 6. Zone Defense. 6.1 Einleitung

Security. Stefan Dahler. 6. Zone Defense. 6.1 Einleitung 6. Zone Defense 6.1 Einleitung Im Folgenden wird die Konfiguration von Zone Defense gezeigt. Sie verwenden einen Rechner für die Administration, den anderen für Ihre Tests. In der Firewall können Sie entweder

Mehr