SMiLE. DSM Softwarearchitekturen und Programmierumgebungen. Martin Schulz

Größe: px
Ab Seite anzeigen:

Download "SMiLE. DSM Softwarearchitekturen und Programmierumgebungen. Martin Schulz"

Transkript

1 SMiLE DSM Softwarearchitekturen und Programmierumgebungen Martin Schulz Lehrstuhl für Rechnertechnik und Rechnerorganisation (LRR) Technische Universität München Vortrag im Rahmen der Vorlesung Cluster- und Gridcomputing Technische Universität Chemnitz, 26. Juni 2001

2 Parallele Programmierparadigmen Basisprinzipien der parallelen Programmierung Wie wird Parallelität spezifiziert? Wie werden Daten ausgetauscht? Die 2 wichtigsten Ansätze Nachrichtenaustausch (Message Passing) Gemeinsamer Speicher (Shared Memory) Beide Ansätze haben viele Anhänger Streit um den besseren Ansatz Fazit: Beides sollten unterstützt werden! 2

3 Paradigma vs. Architektur UMA/SMP NORMA/Cluster Bus CPU 1 CPU 2 Cache Speicher Cache... I/O Eigenschaften Globaler Speicherzugriff + Kommunikationsleistung Paradigmen Nativ: Shared Memory MP Implement. einfach CPU 1 Cache Speicher I/O CPU 2 Cache Speicher Eigenschaften Standard-Netzwerk + Skalierbarkeit Paradigmen Nativ: Message Passing Shmem??? I/O... Netzwerk 3

4 Distributed Shared Memory Shared Memory für NORMA Systeme Software Emulation eines globalen Speichers Implementierung auf Basis von Nachrichten Fragestellungen Transparenz der Speicherabstraktion Umsetzung in einzelne Nachrichten Speicherkonsistenz Effizienz des Gesamtsystems Unterstützte Shared Memory APIs Geeignete Anwendungen 4

5 Gliederung Distributed Shared Memory Klassische Implementierungstechniken Speicherkonsistenz Alternative Implementierungen Hardware Unterstützung Shared Memory für SCI/NUMA Cluster HAMSTER: Flexible Shared Memory Umgebung Anwendungen: Nuklearmed. Bildverarb. Zusammenfassung 5

6 SMiLE Klassische DSM Konzepte Seitenbasiertes DSM Prinzip und Protokolle

7 Distributed Shared Memory Globaler Virtueller Speicher Physikalisch verteilter Speicher Transparent für Anwendungen Unabhängig von zugrundeliegender Architektur Klassischer Ansatz: Software-DSM Segmentierung auf Seitenbasis Zugriffserkennung durch virtuellem Speicher Datentransport durch Nachrichten Erstes System: Kai Li s IVY (1986) Integrated shared Virtual memory at Yale 7

8 DSM Prinzip Knoten A Knoten B Prozeß auf A Prozeß auf B Virtueller AdreßraumGlobaler auf A Virtueller Adreßraum Virtueller Adreßraum auf B VMM Seiten Manager Phys. Speicher VMM 3 Seiten Manager Phys. Speicher 3 6 Netzwerk 8

9 DSM Protokolle Keine Migration Migration Keine Replikation Zentrales Schema Migrations Schema Replikation Volle Replikation Lese Replikation 9

10 DSM Protokolle Keine Migration Migration Keine Replikation Zentrales Schema Migrations Schema Replikation Volle Replikation Lese Replikation Zentrales Schema Alle Daten in einem zentralen Server Lese-Zugriff: Server schickt Daten Schreib-Zugriff: Server führt Schreiben aus + Ack. - Server kann Flaschenhals werden 10

11 DSM Protokolle Keine Migration Migration Keine Replikation Zentrales Schema Migrations Schema Replikation Volle Replikation Lese Replikation Migrations Schema Daten werden bei Zugriff verschoben Single Reader / Single Writer Jede Seite nur einmal im System - Gefahr: Seitenflattern 11

12 DSM Protokolle Keine Migration Migration Keine Replikation Zentrales Schema Migrations Schema Replikation Volle Replikation Lese Replikation Lese Replikation Erweiterung des Migrations Schemas durch Kopien Multiple Reader / Single Writer Invalidierung von Lesekopien bei Schreibzugriff Liste aller Kopien pro Seite nötig 12

13 DSM Protokolle Keine Migration Migration Keine Replikation Zentrales Schema Migrations Schema Replikation Volle Replikation Lese Replikation Volle Replikation Erweiterung des Lese Replikationsschemas Multiple Reader / Multiple Writer Kommunikation von Write-Updates Oft: Nutzung von Seiten- Diffs 13

14 Weitere Systemparameter Seitenlokalisierung Feste Zuordnungen (Home-based DSM) Broadcast Seitenmanager (zentral oder verteilt) Seitenersetzungsverfahren Ähnlich zu VMM Verfahren im BS Flags clean / dirty mitführen Löschen von Seiten, von denen Kopien existieren Granularität Bei diesem Ansatz mindestens Seitengröße 14

15 Beispiel: TreadMarks TM Eines der bekanntesten DSM Systeme Entwickelt an der Rice University, Texas, USA Kommerziell verfügbar TreadMarks Protokoll Volle Replikation / verteilter Seitenmanager Kommunikation via UDP/IP Einfach zu verwenden Kleine, einfache API Statische Prozeß-/Thread-Struktur 15

16 TreadMarks API Globale Variablen Tmk_proc_id Tmk_nprocs Initialisierung & Ende Tmk_startup Tmk_exit Shared Memory Verwaltung Tmk_alloc Tmk_free Synchronisation Tmk_barrier Tmk_lock_acquire Tmk_lock_release Verteilung lokaler Information Tmk_distribute Statistikfunktionalität Implizite Leistungsüberwachung 16

17 DSM Prinzipien und Probleme Bereitstellung eines Globalen Speichers Transparent für Anwendungen Anwendbar auch in NORMA Systemen Probleme Overhead durch Speicherverwaltung Granularität False Sharing Kommunikation von Updates (Latenz) Optimierungsmöglichkeiten? Verzögerung / Zusammenfassung von Updates? 17

18 SMiLE Abgeschwächte Speicherkonsistenz Ziel: Reduktion der Kommunikation Frage: Programmierbarkeit?

19 Speicherkonsistenz Verzögerung von Updates wünschenswert Weg von strikter Konsistenz Einfluß auf das Programmiermodell Konsistenzmodell: Vertrag System-Anwendung Charakterisierung des Speicherverhaltens Wann werden Updates garantiert sichtbar? Anpassung der Anwendung bzgl. dieser Garantie Beschrieben durch Regelmenge Weitere Informationen Hwang, Advanced Computer Architecture 19

20 Abgeschwächte Konsistenz Weak Consistency (WC) Aufteilung aller Zugriffe Reguläre Synchronisierend Sync. Zugriffe Globale Zugriffe Reguläre Zugriffe Synchronisationspunkte / Speicherbarrieren Danach Speicher garantiert konsistent Software und Hardware Implementierungen Multiprozessorsysteme (z.b. SPARC) Viele Threadlibraries (z.b. POSIX) 20

21 Release Konsistenz (RC) Unterteilung der Sync. Zugriffe RC Regeln Vor Regulärem Zugriff Alle Acquire abgeschlossen Vor Release Alle Reg. Zugriffe abgeschlossen Sync. Zugriffe strikt geordnet Sync. Zugriffe Acquire Globale Zugriffe Reguläre Zugriffe Release Explizite Signalisierung im Programm Daten fertig, sinnvoll für andere Release Datenupdate nötige Acquire 21

22 Programmierbarkeit Direkter Einfluß auf Anwendungen Explizites Konsistenzmanagement Kombination mit Synchronisationskonstrukte Acquire & Lock Release & Unlock Acq.+Rel. & Barriere Natürliche Erweiterung der Lock Semantik Lock/Acquire Unlock/Release Lock/Acquire Unlock/Release Barriere/Acquire & Release Minimaler Einfluß Die meisten guten Shared Memory Codes laufen 22

23 RC Implementierungsvarianten Eager RC (ERC) Kommunikation sofort bei Release Versand von Updates ohne Anforderung Lazy RC (LRC) Anforderung der Updates erst bei Acquire Verhinderung überflüssiger Kommunikation Erhöhter Verwaltungsaufwand (Update-Speicherung) Home-based LRC (HLRC) Feste Heimatknoten für jede Seite Geringerer Verwaltungsaufwand 23

24 Weitere Konsistenzmodelle Weitere Abschwächung über RC hinaus Acquire/Release haben globale Wirkung Einschränkung zur Optimierung Entry Cons. (EC) - Midway Angabe des Adressbereiches - Aufwendig für Programmierer Acquire(a1,a2) a1 a2 Virt. Adressraum LV3 LV1 LV2 Virt. Adressraum Scope Cons. (ScC) - Brazos Implizite Consistency Scopes Unterscheidung durch mehrere Lockvariablen 24

25 Konsistenz aus DSM Sicht Abgeschwächte Konsistenz nötig Nicht jedes Update sofort verschicken Optimierung der Kommunikation Programmierbarkeit Kombination mit Locks/Barrieren Die meisten Codes laufen unverändert Release Konsistenz am häufigsten LRC: TreadMarks, Shasta ERC: Quarks HLRC: HLRC aus Rutgers Mischsysteme: Midway, CVM 25

26 SMiLE Alternative/Optimierte DSM Systeme Neue Methoden für DSM Systeme Nutzung von Spezialnetzwerken

27 Alternativen zur Seitenbasierung Nachteile von seitenbasierten Systemen Große Granularität Granularität nicht an Anwendung angepaßt Änderungen Abfangen von Zugriffen Speicherstatusmanagement Optionen Codeinstrumentierung Feinere Granularität OO-basierte Systeme Angepaßte Granularität 27

28 Ansatz 1: Instrumentierung Direkte Erkennung jedes globalen Zugriffes Einfügen von Abfragen vor globalen Zugriffen Cache ähnliche Steuerung Bei Cache Miss laden entfernter Daten Wichtig: Beibehaltung der Transparenz Automatisches Einfügen der Instrumentierung Code Transformation Beispiele Shasta (reine Instrumentierung) Midway (Kombination mit Pagefaults) 28

29 Beispiel int i,j; float a,b; Prüfe glob[i,j] If Cache Miss Hole Daten a = glob[i,j]; Lokaler Speicher a = a * b; Lokale Operation glob2[j] = a; Vermerke globalen Speicherzugriff DSM System Cache Protokoll Komm. Schicht Cache Protokoll Basis: Speicherblöcke Beliebige Granularität CC-Verzeichnisse Kombination mit LRC Verzögerung von Updates Optimierungen Compiler Nachrichtenaggregation Overhead bei Shasta < 20% (SPLASH) 29

30 Ansatz 2: Objekt-basierte Systeme Objekte als Granularität Implizite Anpassung an die Anwendung Minimierung von False-Sharing Umsetzung Zugriff über Objektreferenzen Keine Mechanismen zur Zugriffskontrolle nötig Konsistenz auf Objektbasis Implementierung Eigene Compiler / Präprozessor Beispiele: ORCA, ICC++, CC++ 30

31 Chancen und Probleme Flexiblere Systeme Migration von Objekten möglich Alle Zugriffe nur via Referenzen Task-Migration einfacher möglich Methodenausführung am Objektort Größere Codeänderungen nötig Kein reiner Shared Memory Code Objekte müssen explizit benannt werden Fließender Übergang zu DOC Systemen Forschung in Richtung Grids 31

32 Ansatz 3: Netzwerk als Flaschenhals Netzwerk oft der begrenzende Faktor Hauptproblem: Latenz Verzögert Update Zustellungen Kurze und Häufige Nachrichten Protokolle wie TCP/UDP-IP ungeeignet Weiterentwicklung der Netztechnik System Area Networks (SANs) Kommunikation auf Benutzerebene Z.T. weitere Hardware für Shared Memory Wie kann man dies für DSM Systeme nutzen? 32

33 System Area Networks (SANs) Neue Verbindungstechnologien Hohe Bandbreite Geringe Latenz Im PC Bereich Meist als PCI Adapter Beispiele SCI / Scalable Coherent Interface Myrinet Nicht im Laden um die Ecke Relativ teuer 33

34 Kommunikation auf Benutzerebene Nur Setup via Kernel Kommunikation direkt Vorteile Kein BS Overhead Keine Protokolle Direkte HW Ausnutzung Typische Leistung (PCs) Latenzen < 10 µs Bandbreite > 80 MB/s (bis an die PCI Grenze) z.b. Sockets TCP/IP UDP/IP Stack Ethernet Treiber Anwendungen Setup Routinen 1x Setup NIC Treiber Hardware / NIC Betriebssystem Gerätetreiber Benutzerbibliothek Komm. 34

35 Einsatz für DSM Systeme Zwei Optionen Schnelle Kommunikation Direkter Einsatz von Hardwarefähigkeiten Schnelle Kommunikation Ersatz der Kommunikationsroutinen Keine prinzipiellen Änderungen Beispiele SCI: SVMlib, NOA, Madeleine, HPPC-SEA DVSM clan/hw-vi: HLRC Myrinet: Shrimp-2, Madeleine 35

36 Einsatz spezieller Hardware Direkter Einsatz spezieller HW Unterstützung Kleine Erweiterungen im Netzwerkadapter Beibehaltung der Skalierungseigenschaften SHRIMP: Automatic Update Idee: Weiterleitung lokaler Schreibzugriffe Basis: Home-based LRC Updates zum Heimatknoten propagieren CASHMERE: Nutzung von Memory Channel MC ermöglicht entfernte Schreibzugriffe Effiziente Synchronisation & Broadcasts 36

37 Alternativen & Optimierungen Feinere / Angepaßte Granularität Instrumentierung Objekt-basierte Systeme Direkter Einsatz von SANs Keine prinzipiellen Protokolländerungen Einsatz von speziellen HW Techniken Automatic Update in Shrimp Entferntes Schreiben in Cashmere Neue Protokollvarienten nötig 37

38 SMiLE Einen Schritt weiter: NUMA Non-Uniform Memory Architecture Entfernte Lese-/Schreibzugriffe

39 Nächster Schritt: HW-Lesezugriffe Bisher diskutierte Ansätze: Nur entfernte Schreibe/Update Zugriffe Laden von Daten weiterhin explizit DSM weiterhin durch komplexe Updateprotokolle Erweiterte Hardwareunterstützung Entfernte Lesezugriffe in Hardware Ergebnis: NUMA Systeme Ohne Cache Kohärenz im Gegensatz zu CC-NUMA Damit auch für preiswerte Cluster geeignet 39

40 NUMA Architekturen CPU Caches CC Inkons. Caches CPU Caches Systembus CC CPU Caches CPU Caches Systembus I/O Bridge Speicher I/O Bridge Speicher I/OPCI Netzwerk Bridge Adapter Speicher I/O Bridge Netzwerk Glob. Adr.: ID ID // Lokale Adr. NUMA Netzwerk Globaler Physikalischer Adreßraum = HW-DSM 40

41 Nutzung von NUMA Systemen Kommunikation auf Benutzerebene Standard Lese-/Schreibbefehle Sehr geringe Latenz & Hohe Bandbreite Gute Voraussetzung für HPC Vom Prinzip her einfach zu implementieren Kein aufwendiges CC-Protokoll Umsetzung auf Clusters Gutes Preis/Leistungsverhältnis Nutzung der Skalierbarkeit von Clustern Beispiel: Scalable Coherent Interface (SCI) 41

42 SCI = Scalable Coherent Interface IEEE Standard 1596 (seit 1992) Hervorgegangen aus der FutureBus+ Spezifikation Überwindung der Einschränkungen in Bussystemen Aber: Beibehaltung von Busdiensten Hierarchische Ringlets mit bis zu Knoten Packet basiert, split transaction Protokoll Zugriffe auf entfernten Speicher möglich Optionale HW Cache Kohärenz Synchronisations Operationen Anbindung an Hostsystem nicht standardisiert 42

43 SCI-basierte Systeme Verbindungsnetzwerk für CC-NUMA Nutzung des optionalen CC Protokolls Typischerweise eng gekoppelt NUMA-Liine (Data General), NUMA-Q (IBM) I/O Erweiterungen PCI-PCI Brücken Cluster Verbindsnetzwerk (lose Kopplung) PCI-SCI Brücken (von Dolphin ICS) Vergleichbar mit anderen SAN Technologien Aber: mit NUMA Fähigkeiten durch HW-DSM 43

44 Clustering mit SCI PCs mit PCI-SCI Adapter Globaler Adreßraum SCI Verbindungsnetzwerk Hardware DSM mit NUMA Charakteristik Unterstützung von entfernten Speicherzugriffen Globaler Adreßraum, umfaßt alle physikalische Speicher Keine Cache-Kohärenz Reine NUMA Architektur 44

45 Technische Realisierung SCI Ringlet Export Abb. Phys. SCI Adreßraum Export des Phys. Speichers Physikalischer SCI Adreßraum Abbildung in den virt. Speicher Von SCI in den PCI Adreßraum Von PCI in den Virt. Adreßraum Komm. auf Benutzerebene Lesen/Schreiben auf Abbildungen Hohe Komm.leistung Keine Protokolle Kein BS Einfluß Latency: < 2 µs Bandbreite: MB/s 45

46 Überblick: NUMA Systeme Globaler physikalischer Adreßraum Zugriff auf alle Speicher (HW-DSM) Verschiedene Latenzen je nach Zugriff Ohne (komplexe) Cache Köherenz Implementierung auf Clustern möglich Letzter Schritt vor CC-NUMA Systemen Beispiel: Scalable Coherent Interface Fehlend: Software Infrastruktur Nutzung von NUMA in Anwendungen Fokus des SMiLE Projektes am LRR 46

47 SMiLE Das SMiLE Projekt am LRR Aufbau und Nutzung von NUMA Clustern Direkte Nutzung für DSM Systeme

48 SMiLE Shared Memory in a LAN-like Environment SCI als Basistechnologie Ausnutzung der speziellen Eigenschaften von SCI Hardware Entwicklungen PCI-SCI Adapter Hardware Monitor zur Überwachung von Zugriffen Erweiterbarkeit durch FPGA Einsatz Software Entwicklungen Umfassende Multi-Paradigma Infrastruktur 48

49 SMiLE Softwareschichten NT Prot. Stack NDIS Treiber SISAL auf MuSE Zielanwendungen / Benchmarksuites SISCI PVM AM 2.0 SS-lib CML SCI-Nachrichtendienste SCI Treiber & SISCI API SPMD artiges Modell TreadMarks kompatible API HAMSTER Dienste / Module SCI-VM SCI-Hardware: SMiLE & Dolphin Adapter, HW-Monitor Obere SMiLE Schichten Untere SMiLE Schichten Benutzer/Kernel Grenze 49

50 SMiLE Softwareschichten Unterstützung mehrere Parallelen Paradigmen Message Passing Effiziente NUMA Implementierung Mehrere APIs: Sockets, AM, CML, PVM Shared Memory Hybrid DSM Umgebung / Multi-API fähig Experimente: Exoten Datenfluß und Multithreading Visuelle Programmierung 50

51 Shared Memory in SMiLE HAMSTER Hybrid DSM SISALbased Adaptive and auf Modular NT MuSE Prot. Shared Stack Memory architecture Zielanwendungen / Benchmarksuites SISCI PVM AM 2.0 SS-lib CML SCI-Nachrichtendienste SPMD TreadMarks artiges kompatible Modell API HAMSTER Dienste / Module NDIS Treiber SCI Treiber & SISCI API SCI-VM Hybrid-DSM SCI-Hardware: SMiLE & Dolphin Adapter, HW-Monitor Obere SMiLE Schichten Untere SMiLE Schichten Benutzer/Kernel Grenze 51

52 Motivation für HAMSTER Nutzung der NUMA Eigenschaft für DSM Management Unterstützung (DSM aus Lund) Direkter Einsatz von NUMA (HAMSTER) Hybrid DSM System Setup & Management in Software Kommunikation in Hardware Kein Protokoll Overhead Optimale Systemausnutzung Vielfalt an Programmiermodellen HAMSTER als einheitliche Basis 52

53 Shared Memory Vielfalt Große Anzahl von Modellen, z.b. Thread Libraries (e.g. Win32, POSIX, Java,...) APIs von DSM Systemen Parallele Hochsprachen (z.b. HPF) Alle Modelle mit gleicher Basisfunktionalität Gemeinsamer Virtueller Adreßraum Explizite Synchronization Unterschiede zwischen Modellen Task Struktur (statisch / dynamisch) Konkrete Konstrukte (Locks, Barriers, Signals) Kleine Semantische API Unterschiede 53

54 Shared Memory Standardisierung Probleme durch diese Vielfalt Portierungsaufwand zwischen Platformen Keine einheitliche Anwendungsbasis Verringert die Akzeptanz Versuch einer Standard API hoffnungslos Existierende Anwendungen & Akzeptanz Es gibt Ansätze aber nur für UMA/SMPs HAMSTER bietet einheitliche Plattform Shared Memory Dienste in orthogonalen Modulen Basis für beliebige Programmiermodelle 54

55 HAMSTER Übersicht Clusterverw. Shared Memory Anwendung Shared Memory Programmiermodell Aktivitäts Dienste Einzelplatz BS Linux & WinNT Sync. Dienste Cluster aufgebaut aus Standard PC Komponenten Kons. Dienste SCI Treiber Speicher Dienste SCI-VM: Hybrid DSM für SCI Cluster VI-ähnl. Komm. durch dirketen direkten HW Zugriff Große Bandbreite von Programmiermodellen und Anwendungen NUMA Clusterarchitektur SCI / NUMA Netzwerk Basisdienste für Shared Memory Unterstützung 55

56 SCI/NUMA-basierte Cluster Einzelplatz BS Linux & WinNT Cluster aufgebaut aus Standard PC Komponenten SCI Treiber SCI / NUMA Netzwerk 56

57 SMiLE Hardwareplattform Cluster aus Standard SMP Knoten Prozessoren: Intel Xeon TM (450 MHz) Konkrete Konfiguration: 6 Dual SMP Knoten (12 Prozessoren) Je 512 MB Hauptspeicher (3 Gbyte insgesamt) Linux (kernel 2.2.x) oder Windows NT/2000 TM Scalable Coherent Interface (D320 Adapter) Spezielle Treibererweiterungen notwendig Konzept nicht nur an SCI gebunden Im Prinzip auf jede NUMA Architektur anwendbar 57

58 Das SMiLE Labor 58

59 Globale Speicherabstraktion Einzelplatz BS Linux & WinNT Cluster aufgebaut aus Standard PC Komponenten SCI-VM: Hybrid DSM für SCI Cluster SCI Treiber SCI / NUMA Netzwerk 59

60 Hybrid-DSM für NUMA Systeme Einsatz von HW-DSM nicht direkt möglich Basiert auf physikalischem Speicher Benötigt: Globaler virtueller Speicher Getrennte Betriebssysteminstanzen Keine clusterweite Resourcenverwaltung Software Komponente notwendig Aufbau einer globalen virt. Speicherabstraktion Abbildung auf globalen phys. Speicher Globale Prozeß- und Resourcenverwaltung Ergebnis: Hybrid-DSM System 60

61 SCI Virtual Memory (SCI-VM) SCI Virtual Memory Flexible globale virtuelle Speicherabstraktion Einziger prozeßweiter virtueller Speicher Volle Transparenz für den Benutzer Direkter Einsatz von HW-DSM Hybrid DSM System HW-DSM für implizite Kommunikation SW-DSM Komponente für Management Keine Protokoll gestützte Ausführung Im Gegensatz zu SW-DSM Systemen 61

62 SCI-VM Design Globale Prozeßabstraktion Team auf jedem Knoten als Threadumgebung Jedes Team muß den gleichen Virt. Speicher sehen Transparenter Zugriff auf den gesamten Speicher Lokale Zugriffe mittels MMU Abbildung Entfernte Zugriffe zusätzlich durch SCI Aufbau der Abbildungen durch SW Komponente Erweiterung des Virt. Speicher Managements Feingranulare Abbildungen (Seitenweise) Zugang zu internen Routinen 62

63 SCI-VM Abbildungsschema Team auf A Thread Thread Thread Globale Prozeßabstraktion mit SCI Virtual Memory Team auf B Thread Thread Thread Virtueller Adreßraum auf A Virtueller Adreßraum auf B PCI Adr. auf A 1 Phys. Speicher auf A 4 6 PCI Adr. auf B 46 Phys. Speicher auf B 1 Knoten A Physikalischer SCI Adreßraum Knoten B 63

64 Speicherkonsistenz Standardlösung für SCI Cluster Caches abschalten Nicht tragbar für Shared Memory Alternative: Hybrides Cache Management Caches anschalten (+ weitere Puffer) Explizites, anwendungsgetriebenes Cachemngt. Abgeschwächte Speicherkonsistenz In Kombination mit Synchronization Anpaßbar an Programmiermodell 64

65 Shared Memory Dienste Einzelplatz BS Linux & WinNT Sync. Dienste Cluster aufgebaut aus Standard PC Komponenten Kons. Dienste SCI Treiber Speicher Dienste SCI-VM: Hybrid DSM für SCI Cluster VI-ähnl. Komm. durch direkten HW Zugriff SCI / NUMA Netzwerk 65

66 Shared Memory Dienste Speicher Dienste Allokation von globalem Speicher Angabe von Datenverteilungen Konsistenz Dienste Kontrolle über Speicherkonsistenz Routinen um Puffer zu löschen & propagieren Synchronisations Dienste Standardmechanismen Locks & Barrieren Unterstützung für weitere Mechanismen Effiziente, hardware-nahe Implementierung 66

67 Aktivitäts und Cluster-Kontrolle Clusterverw. Aktivitäts Dienste Einzelplatz BS Linux & WinNT Sync. Dienste Cluster aufgebaut aus Standard PC Komponenten Kons. Dienste SCI Treiber Speicher Dienste SCI-VM: Hybrid DSM für SCI Cluster VI-ähnl. Komm. durch direkten HW Zugriff SCI / NUMA Netzwerk 67

68 Aktivitäts und Cluster-Kontrolle Aktivitäts Dienste An- und Abmeldung von lokalen Threads Aktivitätszähler Keine API zur Threadkontrolle Größtmögliche Flexibilität Clusterverwaltung Koordination der verteilten Teams Globale Resourcen-/Prozeßverwaltung Einfache ARPC-ähnliche Nachrichtenschnittstelle Saubere Prozeßterminierung 68

69 HAMSTER Programmiermodelle Clusterverw. Shared Memory Programmermodell Aktivitäts Dienste Einzelplatz BS Linux & WinNT Sync. Dienste Cluster aufgebaut aus Standard PC Komponenten Kons. Dienste SCI Treiber Speicher Dienste SCI-VM: Hybrid DSM für SCI Cluster VI-ähnl. Komm. durch direkten HW Zugriff SCI / NUMA Netzwerk 69

70 Implementierung von Modellen Basis: HAMSTER Interface Sammlung aller Dienste Konkrete Fragestellungen bei Implementierung Speicherkonsistenz Aktivitätsstruktur Initialisierung Geringe Implementierungskomplixität Spezialisierung von HAMSTER Diensten Nur wenige Routine von Grund auf zu schreiben 70

71 Konsistenz am Beispiel von RC Implementierung von Acquire und Release Release Operation Schreibpuffer propagieren Speicherbarriere Unlock ausführen Alle Schreibzugriffe vor Unlock abgeschlossen Acquire Operation Lock ausführen Lesepuffer invalidieren Alle Updates seit letztem Release sichtbar 71

72 Software vs. Hybrid DSM Aus Benutzersicht gleiches Verhalten Zugriffe zwischen Acquire und Release korrekt Systemverhalten bei SW Implementierung Kommunikation nur bei Acquire / Release Ansonsten nur lokale Operationen Systemverhalten bei Hybrid-DSM Kommunikation im laufenden Programm Zugriffe auf globalen Speicher via HW-DSM Acquire / Release sind nur Synchronisationspunkte Im Prinzip lokale Operationen 72

73 Bereits bestehende Prog. Modelle Programmiermodell SPMD SMP/SPMD ANL Makros TreadMarks TM API HLRC API * JiaJia API (Teilm.) * Vert. POSIX Threads Win32 Threads (Teilm.) Cray Shmem API # Zeilen # API Aufrufe * Based on SMP/SPMD Zeilen/ Aufruf Plattform NT & Lin. NT & Lin. NT & Lin. NT & Lin. NT & Lin. NT & Lin. Linux NT Linux 73

74 Last but not least : Anwendungen Clusterverw. Shared Memory Programmiermodell Aktivitäts Dienste Einzelplatz BS Linux & WinNT Cluster aufgebaut aus Standard PC Komponenten Shared Memory Anwendung Sync. Dienste Kons. Dienste SCI Treiber Speicher Dienste SCI-VM: Hybrid DSM für SCI Cluster VI-ähnl. Komm. durch direkten HW Zugriff SCI / NUMA Netzwerk 74

75 Ausführungsumgebung Verwendung von HAMSTER Voraussetzung: Erweiterte SCI und VMM Treiber Erstellung des Programmiermodelles Linken der Anwendung mit Modell und HAMSTER Start auf jedem Knoten mit gleichen Parametern Konfigurationsdatei Beschreibt Cluster SMP Beschreibung (für manche Modelle) ~/.hamster # Name ID ID CPUs smile1 4 2 smile

76 Kleinere Benchmarks Kernel (SPMD/Linux) Arraysumme: SU 2.8 on 4 CPUs MatMult: SU 2.7 on 4 CPUs SOR: SU 3.8 on 4 CPUs Gauss. Elimination: SU 3.5 on 4 CPUs SPLASH-2 Suite SOR (Win32 threads): LU (Win32 threads): WATER (HLRC): SU 6.6 on 8 CPUs SU 7.3 on 8 CPUs SU 7.4 on 12 CPUs 76

77 Rückblick: HAMSTER Shared Memory für NUMA Vervollständigt die SMiLE Infrastruktur Direkte Nutzung der NUMA Eigenschaften Einsatz eines Hybrid-DSM Systemes Umgang mit Vielfalt an Modellen Einheitliche Multi-API Plattform Hauptkomponenten SCI-VM: Hybrid DSM für SCI Module mit Shared Memory Diensten Programmiermodelle 77

78 SMiLE Anwendungen Medizinische Bildverarbeitung Positronen Emissions Tomography

79 DSM Anwendungen Bisher nur wenige große DSM Anwendungen Größtes Problem bei DSM Akzeptanz Oft nur kleinere Benchmarks / SPLASH Gründe: Forschung auf HPC ausgerichtet Dort meist MPI Codes Shared Memory Codes oft nicht HPC Industrielle Akzeptanz für Forschungsysteme gering Rühmliche Ausnahme TreadMarks / ILINK Software 79

80 HAMSTER & Anwendungserfahrung Medizinische Bildverarbeitung von PET Daten PET = Positron Emission Tomography Radioaktiv markierter Tracer (Positron-Emitter) Externe Erkennung der Strahlung aus dem Körper Funktionale Informationen Stoffwechsel, Rezeptordichte im Gehirn Anwendbar auf Gehirn, Brust, Leber, Tumore, Z.B. für: Demenz, Herzgefäße, Überwachung von Krebs, Therapieüberwachung Rechenintensive Verarbeitungsschritte 80

81 Das PET-Prinzip 81

82 PET Bild Rekonstruktion Umwandlung von PET Daten in 3D Volumen Hauptmethode: Gefilterte Rückprojektion + Kurze Rechenzeiten - Bildartefakte Moderne Methoden basierend auf Iteration Vergleich einer Schätzung mittels Vorwärtsprojektion Korrektur des Bildes & Iteration + Hervorragende Bildqualität - Hohe Rechenanforderungen Implementiert mittels SPMD Prog.modell 82

83 Ergebnisbild/-volumen 3D Volumen, Basis für: Volumenrenderingmethoden z.b. Raycasting Visualisierung durch Volumenschnitte Mittels Gefilterter Rückprojektion Mittels Ordered Subset Expectation Maximization (OSEM) 83

84 Datensatz für Experimente Rekonstruktion eines Vollkörpers 282 Schnitte, 130 MB Rohdaten Zielzeit < 5 Minuten 84

85 PET Rekonstruktion / Ergebnisse Speedup Proc/Node 2 Proc/Node 1 Proc/Node (no I/O) 2 Proc/Node (no I/O) Ideal Execution time (sec) I/O Barrier Weights Recon Number of CPUs Number of CPUs

86 Spectral Analyse von PET Daten Analyse von Bildserien Zeitliche Verteilung des Tracers im Körper Unter Verwendung des Tracer-Spektrums E.g.: Quantifizierung der Rezeptordichte im Gehirn Unabhängige Untersuchung für jede Voxelserie Ermöglicht eine feingranulare Verteilung Ergebnis sind ebenfalls Volumen 86

87 Implementierung & Datensatz Implementierung basierend auf TreadMarks TM Master/Slave Ansatz Portierung durch TreadMarks TM API Emulation Erneutes Linken der Anwendung mit HAMSTER Keine weiteren Optimierungen Datensatz für die Experimente: Menschliches Gehirn Sequenz von 25 Scans über 60 Minuten Je Scan: 47 Schnitte zu je 128x128 Pixels 87

88 Spektral Analyse / Ergebnisse Speedup Proc/Node 2 Proc/Node 1 Proc/Node (no I/O) 2 Proc/Node (no I/O) Ideal Execution time (sec) Barrier I/O Overhead Work Number of CPUs Number of CPUs

89 Rückblick: Anwendungen Hauptdefizit bei DSM Systemen Nur wenige größere Anwendungen Experimente mit Med. Bildverarbeitung PET Bildrekonstruktion PET Spektralanalyse Ergebnisse Gute Leistung / Speedup HAMSTER hat sich bewährt bei: Neuen Anwendungen ohne festes Modell Portierung alter Anwendungen 89

90 SMiLE Zusammenfassung & Ausblick DSM Softwarearchitekturen und Programmierumgebungen

91 Zusammenfassung (1) Vielfalt der parallelen Programmierparadigmen Wichtigsten: Message Passing & Shared Memory Unterstützung beider wünschenswert/nötig Möglichst breite Anwendungspalette (SW) DSM System schließen eine Lücke Shared Memory für NORMA Architekturen DSM = Distributed Shared Memory Globale, transparente Speicherabstraktion Basis für Shared Memory Programmierung Architekturunabhängig 91

92 Zusammenfassung (2) Reine Softwarevarianten Seitenbasiertes DSM DSM durch Codeinstrumentierung OO-basiertes DSM Hardware Unterstützung Entfernte Updates/Schreibzugriffe Vollwertiges NUMA / HW-DSM bzw. Hybrid-DSM Komplettes Architekturspektrum abgedeckt Von NORMA über NUMA bis zu SMPs Shared Memory auf allen Plattformen möglich 92

93 DSM Ein Erfolg? Viele Projekte / Systeme Leistungsdaten auf Benchmarks ansprechend Kommerziell kaum erfolgreich Kein Standardpaket auf Parallelrechner Kaum größere Anwendungen Grund: Falsche Anwendungsgebiet? Ziel oft technisch/wissenschaftliche Anwendungen Tests meist nur mit kleinen Benchmarks MPI dominant (erfahrene parallele Programmierer) SEHR leistungsorientiert 93

94 Ausblick Ausbau der bestehenden Systeme Single System Image Ausbau und Nachweis der Skalierbarkeit Neue Zielrichtungen Neue Anwendungsgebiete (CSCW, OLTP, Spiele,...) Werkzeuge für DSM/NUMA Systeme Transfer von DSM Konzepten in andere Gebiete DOC / Grid Computing Enger gekoppelte NUMA Systeme Globale Betriebssysteme für Cluster 94

95 SMiLE Zum Schluß... Danksagungen Weitere Informationen

96 Die SMiLE Gruppe Wolfgang Karl SMiLE Gruppenleitung Martin Schulz Shared Memory & Anwendungen Jürgen Jeitner & Robert Lindhof & SMiLE Hardware Monitor Georg Acher SMiLE SCI Adapter Michael Eberl & Carsten Trinitis Message Passing & Anwendungen Jie Tao Shared Memory Werkzeuge Kooperationen mit Klinik für Nuklearmedizin & ABB Heidelberg & AEA Technologies 96

97 Weiterführendes... Die DSM Seiten: DSM Tutorial: SMiLE & HAMSTER: 97

Enterprise Computing

Enterprise Computing Enterprise Computing Prof. Dr.-Ing. Wilhelm G. Spruth Teil 6 Partitionierung NUMA Sharing Disk Storage HP Superdome Cell Board 4 Itanium 2 CPU Chips 32 128 Gbyte I/O Bus mit Kühlern Hauptspeicher Anschlüsse

Mehr

User Level Device Driver am Beispiel von TCP

User Level Device Driver am Beispiel von TCP September 17, 2004 Einleitung Motivation für Userlevel Device Driver Probleme von Userlevel Device Driver Motivation für Userlevel Device Driver Modularität, leichterer Austausch/Erneuerung von Komponenten.

Mehr

Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA)

Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA) Proseminar KVBK Mehrprozessorarchitekturen (SMP, Cluster, UMA/NUMA) Arian Bär 12.07.2004 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) 2.1. Allgemeines 2.2. Architektur 3. Speicherarchitekturen

Mehr

Software Distributed Shared Memory. Vortrag im Rahmen des Seminars Ausgewählte Themen in Hardwareentwurf und Optik Sarah Neuwirth, 05.

Software Distributed Shared Memory. Vortrag im Rahmen des Seminars Ausgewählte Themen in Hardwareentwurf und Optik Sarah Neuwirth, 05. Software Distributed Shared Memory Vortrag im Rahmen des Seminars Ausgewählte Themen in Hardwareentwurf und Optik Sarah Neuwirth, 05. Juli 2011 Agenda 1. Motivation 2. Was ist Software Distributed Shared

Mehr

Virtualisierung im Echtzeitbereich. Andreas Hollmann FH Landshut EADS Military Air Systems

Virtualisierung im Echtzeitbereich. Andreas Hollmann FH Landshut EADS Military Air Systems Virtualisierung im Echtzeitbereich Andreas Hollmann FH Landshut EADS Military Air Systems 2 Überblick Hintergrund und Motivation Vorstellung von Lösungsansätzen Auswahl und Evaluierung Einschränkungen

Mehr

Current Implementations of the Virtual Interface Architecture (VIA)

Current Implementations of the Virtual Interface Architecture (VIA) Current Implementations of the Virtual Interface Architecture (VIA) Seminarvortrag von Thorsten Backhaus im Rahmen des Seminars des Lehrstuhls Rechnerarchitektur der Universität Mannheim im Wintersemester

Mehr

Dynamische Skalierbarkeit

Dynamische Skalierbarkeit Alexander Eichhorn Verteilte Systeme und Betriebssysteme Technische Universität Ilmenau Frühjahrstreffen der GI Fachgruppe Betriebssysteme 30. Juni 2005 Koblenz Vortragsüberblick Teil 1 Teil 2 Teil 3 Begriffsbestimmungen

Mehr

6.6.4 Cluster Interconnect im Private Network

6.6.4 Cluster Interconnect im Private Network Hardware-Architektur 221 6.6.4 Cluster Interconnect im Private Network Zwischen den Knoten des RAC werden viele, meist sehr kleine Pakete über den Cluster Interconnect ausgetauscht. Kurze Latenzzeiten

Mehr

ein verteiltes und repliziertes Dateisystem XtreemOS IP project is funded by the European Commission under contract IST-FP6-033576

ein verteiltes und repliziertes Dateisystem XtreemOS IP project is funded by the European Commission under contract IST-FP6-033576 ein verteiltes und repliziertes Dateisystem is funded by the European Commission XtreemOS IPunder project contract IST-FP6-033576 1 Das XtreemOS Projekt Europäisches Forschungsprojekt gefördert von der

Mehr

Grundlagen der Parallelisierung

Grundlagen der Parallelisierung Grundlagen der Parallelisierung Philipp Kegel, Sergei Gorlatch AG Parallele und Verteilte Systeme Institut für Informatik Westfälische Wilhelms-Universität Münster 3. Juli 2009 Inhaltsverzeichnis 1 Einführung

Mehr

Projekt für Systemprogrammierung WS 06/07

Projekt für Systemprogrammierung WS 06/07 Dienstag 30.01.2007 Projekt für Systemprogrammierung WS 06/07 Von: Hassan Bellamin E-Mail: h_bellamin@web.de Gliederung: 1. Geschichte und Definition 2. Was ist Virtualisierung? 3. Welche Virtualisierungssoftware

Mehr

Multicore Herausforderungen an das Software-Engineering. Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010

Multicore Herausforderungen an das Software-Engineering. Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010 Multicore Herausforderungen an das Software-Engineering Prof. Dr.-Ing. Michael Uelschen Hochschule Osnabrück 15.09.2010 Inhalt _ Motivation _ Herausforderung 1: Hardware _ Herausforderung 2: Software-Partitionierung

Mehr

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Jörg Rödel Virtualization - Whats out there? Virtualisierung hat bereits längere Geschichte auf x86 Startete mit VMware Setzte

Mehr

Rechnerarchitektur und Betriebssysteme (CS201): Semaphor, Monitor, Deadlocks, Re-Entrance

Rechnerarchitektur und Betriebssysteme (CS201): Semaphor, Monitor, Deadlocks, Re-Entrance Rechnerarchitektur und Betriebssysteme (CS201): Semaphor, Monitor, Deadlocks, Re-Entrance 5. November 2013 Prof. Dr. Christian Tschudin Departement Mathematik und Informatik, Universität Basel Repetition

Mehr

IT-Infrastruktur, WS 2014/15, Hans-Georg Eßer

IT-Infrastruktur, WS 2014/15, Hans-Georg Eßer ITIS-D'' IT-Infrastruktur WS 2014/15 Hans-Georg Eßer Dipl.-Math., Dipl.-Inform. Foliensatz D'': Rechnerstrukturen, Teil 3 v1.0, 2014/11/27 Folie D''-1 Dieser Foliensatz Vorlesungsübersicht Seminar Wiss.

Mehr

Cluster Operating Systems

Cluster Operating Systems Lehrstuhl für Rechnerarchitektur, Professor Brüning Cluster Operating Systems Seminarvortrag im Wintersemester 2003/04 von Frank Ueltzhöffer 1. Einführung und Motivation 2. Charakterisierung 3. Herausforderungen

Mehr

CORBA. Systemprogrammierung WS 2006-2007

CORBA. Systemprogrammierung WS 2006-2007 CORBA Systemprogrammierung WS 2006-2007 Teilnehmer: Bahareh Akherattalab Babak Akherattalab Inhaltsverzeichnis: Verteilte Systeme Vergleich zwischen lokale und verteilte Systeme Verteilte Anwendungen CORBA

Mehr

Hardware Virtualisierungs Support für PikeOS

Hardware Virtualisierungs Support für PikeOS Virtualisierungs Support für PikeOS Design eines Virtual Machine Monitors auf Basis eines Mikrokernels Tobias Stumpf SYSGO AG, Am Pfaenstein 14, 55270 Klein-Winternheim HS Furtwangen, Fakultät Computer

Mehr

Rechnernutzung in der Physik. Betriebssysteme

Rechnernutzung in der Physik. Betriebssysteme Rechnernutzung in der Physik Betriebssysteme 1 Betriebssysteme Anwendungsprogramme Betriebssystem Treiber BIOS Direkter Zugriff von Anwenderprogrammen auf Hardware nur in Ausnahmefällen sinnvoll / möglich:

Mehr

Verkürzung von Entwurfszeiten

Verkürzung von Entwurfszeiten Verkürzung von Entwurfszeiten durch Matlab-basiertes HPC R. Fink, S. Pawletta Übersicht aktuelle Situation im ingenieurtechnischen Bereich Multi-SCEs als Konzept zur Verkürzung von Entwurfszeiten Realisierung

Mehr

Die L4-Mikrokern. Mikrokern-Familie. Hauptseminar Ansätze für Betriebssysteme der Zukunft. Michael Steil. Michael Steil 18.04.2002

Die L4-Mikrokern. Mikrokern-Familie. Hauptseminar Ansätze für Betriebssysteme der Zukunft. Michael Steil. Michael Steil 18.04.2002 Die L4-Mikrokern Mikrokern-Familie Hauptseminar Ansätze für Betriebssysteme der Zukunft 18.04.2002 Folie 1 Aufbau des Vortrags 1. Mikrokerne: Idee und Geschichte 2. L4: ein schneller Mikrokern 3. L4Linux:

Mehr

Codesigned Virtual Machines

Codesigned Virtual Machines Codesigned Virtual Machines Seminar Virtualisierung Philipp Kirchhofer philipp.kirchhofer@student.kit.edu Institut für Technische Informatik Lehrstuhl für Rechnerarchitektur Universität Karlsruhe (TH)

Mehr

ReactOS das zu Windows binärkompatible Open-Source- Betriebssystem. Matthias Kupfer (mkupfer@reactos.org) ReactOS Deutschland e.v.

ReactOS das zu Windows binärkompatible Open-Source- Betriebssystem. Matthias Kupfer (mkupfer@reactos.org) ReactOS Deutschland e.v. ReactOS das zu Windows binärkompatible Open-Source- Betriebssystem Matthias Kupfer (mkupfer@reactos.org) ReactOS Deutschland e.v. Überblick Der Build Prozess Einführung Geschichte von ReactOS Windows NT

Mehr

DBUS Interprozess-Kommunikation für Embedded-Plattformen

DBUS Interprozess-Kommunikation für Embedded-Plattformen DBUS Interprozess-Kommunikation für Embedded-Plattformen Andreas Schwarz Neratec Solutions AG Firmenprofil Neratec Solutions AG Produkt-Entwicklungen für kundenspezifische elektronische Produkte Produkte

Mehr

PVFS (Parallel Virtual File System)

PVFS (Parallel Virtual File System) Management grosser Datenmengen PVFS (Parallel Virtual File System) Thorsten Schütt thorsten.schuett@zib.de Management grosser Datenmengen p.1/?? Inhalt Einführung in verteilte Dateisysteme Architektur

Mehr

Virtual Machines. Peter Schmid 21.12.2007. Hochschule für Technik Zürich Master of Advanced Studies, Informatik

Virtual Machines. Peter Schmid 21.12.2007. Hochschule für Technik Zürich Master of Advanced Studies, Informatik Hochschule für Technik Zürich Master of Advanced Studies, Informatik 21.12.2007 Outline Einführung 1 Einführung Definition, Abgrenzung Geschichtlicher Rückblick 2 Virtualisierungstechnologien Terminologie

Mehr

Cloud-Task-Parallelisierung in.net: Jenseits der lokalen Prozessor-Power

Cloud-Task-Parallelisierung in.net: Jenseits der lokalen Prozessor-Power Cloud-Task-Parallelisierung in.net: Jenseits der lokalen Prozessor-Power Prof. Dr. Luc Bläser Hochschule für Technik Rapperswil Parallel 2013, Karlsruhe 15. Mai 2013 Stufen der Parallelisierung Multi-core

Mehr

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221 Oracle 10g und SQL Server 2005 ein Vergleich Thomas Wächtler 39221 Inhalt 1. Einführung 2. Architektur SQL Server 2005 1. SQLOS 2. Relational Engine 3. Protocol Layer 3. Services 1. Replication 2. Reporting

Mehr

Diplomarbeit von Lars Gohlke. University of Applied Sciences Brandenburg

Diplomarbeit von Lars Gohlke. University of Applied Sciences Brandenburg Diplomarbeit von Lars Gohlke University of Applied Sciences Brandenburg Inhalt Motivation Skype SOA in 5 Schritten Anwendung + Demo Seite 2 Motivation Kommunikation einfach - schnell preiswert - verläßlich

Mehr

A Kompilieren des Kernels... 247. B Lineare Listen in Linux... 251. C Glossar... 257. Interessante WWW-Adressen... 277. Literaturverzeichnis...

A Kompilieren des Kernels... 247. B Lineare Listen in Linux... 251. C Glossar... 257. Interessante WWW-Adressen... 277. Literaturverzeichnis... 1 Einführung................................................ 1 1.1 Was ist ein Betriebssystem?............................... 1 1.1.1 Betriebssystemkern................................ 2 1.1.2 Systemmodule....................................

Mehr

Xenologie oder wie man einen Plastikmainframe baut

Xenologie oder wie man einen Plastikmainframe baut Xenologie oder wie man einen Plastikmainframe baut Alexander Schreiber http://www.thangorodrim.de/ Chemnitzer Linux-Tage 2006 I think there is a world market for maybe five computers.

Mehr

Rapid I/O Toolkit. http://projects.spamt.net/riot. Alexander Bernauer alex@copton.net 08.12.08

Rapid I/O Toolkit. http://projects.spamt.net/riot. Alexander Bernauer alex@copton.net 08.12.08 Rapid I/O Toolkit http://projects.spamt.net/riot Alexander Bernauer alex@copton.net 08.12.08 Inhalt Motivation Architektur Beispiel I/O Features Ausblick Motivation Problemstellung Vorgaben Datenverarbeitung

Mehr

1 Proseminar: Konzepte von Betriebssystem-Komponenten. Thema: Server OS AS/400 Referend: Sand Rainer. Server OS - AS/400

1 Proseminar: Konzepte von Betriebssystem-Komponenten. Thema: Server OS AS/400 Referend: Sand Rainer. Server OS - AS/400 1 Proseminar: Konzepte von Betriebssystem-Komponenten Server OS - AS/400 Gliederung Was ist eine AS/400? Wie ist OS/400 aufgebaut? Was kann eine AS/400? Bsp.: Logische Partitionierung 2 Proseminar: Konzepte

Mehr

8.4 Das Andrew File System 393 8.5 Ausblicke 404 8.6 Zusammenfassung 410 Übungen 411

8.4 Das Andrew File System 393 8.5 Ausblicke 404 8.6 Zusammenfassung 410 Übungen 411 Inhaltsverzeichnis Vorwort 11 Aufgabenbereiche und Leserschaft 11 Aufbau dieses Buches 12 Literatur 12 Änderungen in dieser Auflage 13 Danksagungen 14 Web-Site 14 Kapitel 1 Charakteristische Eigenschaften

Mehr

kernkonzept L4Re ISOLATION UND SCHUTZ IN MIKROKERNBASIERTEN SYSTEMEN kernkonzept 1

kernkonzept L4Re ISOLATION UND SCHUTZ IN MIKROKERNBASIERTEN SYSTEMEN kernkonzept 1 kernkonzept L4Re ISOLATION UND SCHUTZ IN MIKROKERNBASIERTEN SYSTEMEN kernkonzept 1 kernkonzept Systeme mit höchsten Sicherheitsanforderungen trotzdem flexibel und nutzerfreundlich dank Mikrokernen der

Mehr

Slothful Linux: An Efficient Hybrid Real-Time System by Hardware-Based Task Dispatching. Rainer Müller

Slothful Linux: An Efficient Hybrid Real-Time System by Hardware-Based Task Dispatching. Rainer Müller Slothful Linux: An Efficient Hybrid Real-Time System by Hardware-Based Task Dispatching Rainer Müller 21. November 2013 Spezialisierung von Betriebssystemen Vielzweckbetriebssysteme (General Purpose OS,

Mehr

Betriebssysteme. 4y Springer. Eine kompakte Einführung mit Linux. Albrecht Achilles. Mit 31 Abbildungen

Betriebssysteme. 4y Springer. Eine kompakte Einführung mit Linux. Albrecht Achilles. Mit 31 Abbildungen Albrecht Achilles 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Betriebssysteme Eine kompakte Einführung mit Linux

Mehr

Virtual Machines. Peter Schmid 21.12.2007. Hochschule für Technik Zürich Master of Advanced Studies, Informatik

Virtual Machines. Peter Schmid 21.12.2007. Hochschule für Technik Zürich Master of Advanced Studies, Informatik Hochschule für Technik Zürich Master of Advanced Studies, Informatik 21.12.2007 Outline Einführung 1 Einführung Definition, Abgrenzung Geschichtlicher Rückblick 2 Virtualisierungstechnologien Terminologie

Mehr

Einführung in Speichernetze

Einführung in Speichernetze Einführung in Speichernetze Ulf Troppens LAN LAN Disk Disk Server Server Speichernetz Server Disk Disk Disk Server Disk Server Server Agenda Grundlegende Konzepte und Definitionen Beispiel: Speicherkonsolidierung

Mehr

White Paper. Embedded Treiberframework. Einführung

White Paper. Embedded Treiberframework. Einführung Embedded Treiberframework Einführung White Paper Dieses White Paper beschreibt die Architektur einer Laufzeitumgebung für Gerätetreiber im embedded Umfeld. Dieses Treiberframework ist dabei auf jede embedded

Mehr

Military Air Systems

Military Air Systems Trennung von Applikationen unterschiedlicher Kritikalität in der Luftfahrt durch Software en am Beispiel des Real-time Operating Systems PikeOS Dr. Bert Feldmann DGLR Workshop Garching, 09.10.2007 Seite

Mehr

EXASOL @ Symposium on Scalable Analytics. www.exasol.com. Skalierbare Analysen mit EXASolution

EXASOL @ Symposium on Scalable Analytics. www.exasol.com. Skalierbare Analysen mit EXASolution EXASOL @ Symposium on Scalable Analytics Skalierbare Analysen mit EXASolution EXASOL AG Wer sind wir R&D: + seit 2000 + laufend Forschungsprojekte Produkt: Analytische Datenbank EXASolution Focus auf Komplexität

Mehr

Virtuelle Infrastrukturen mit Linux...

Virtuelle Infrastrukturen mit Linux... Virtuelle Infrastrukturen mit Linux...... und deren Integration in OSL SC Christian Schmidt Systemingenieur Virtualisierung "Aufteilung oder Zusammenfassung von Ressourcen" Unterschiedliche Bereiche für

Mehr

Hardware-Architekturen

Hardware-Architekturen Kapitel 3 Hardware-Architekturen Hardware-Architekturen Architekturkategorien Mehrprozessorsysteme Begriffsbildungen g Verbindungsnetze Cluster, Constellation, Grid Abgrenzungen Beispiele 1 Fragestellungen

Mehr

Integrating Architecture Apps for the Enterprise

Integrating Architecture Apps for the Enterprise Integrating Architecture Apps for the Enterprise Ein einheitliches Modulsystem für verteilte Unternehmensanwendungen Motivation und Grundkonzept Inhalt Problem Ursache Herausforderung Grundgedanke Architektur

Mehr

SPARC LDom Performance optimieren

SPARC LDom Performance optimieren SPARC LDom Performance optimieren Marcel Hofstetter hofstetter@jomasoft.ch http://www.jomasoftmarcel.blogspot.ch Mitgründer, Geschäftsführer, Enterprise Consultant JomaSoft GmbH 1 Inhalt Wer ist JomaSoft?

Mehr

Betriebssysteme Kap A: Grundlagen

Betriebssysteme Kap A: Grundlagen Betriebssysteme Kap A: Grundlagen 1 Betriebssystem Definition DIN 44300 Die Programme eines digitalen Rechensystems, die zusammen mit den Eigenschaften dieser Rechenanlage die Basis der möglichen Betriebsarten

Mehr

Multidisziplinäre und verteilte Simulationen in der Industrie

Multidisziplinäre und verteilte Simulationen in der Industrie Multidisziplinäre und verteilte Simulationen in der Industrie Marc Lob Forum»Virtualisierung und Grid Computing«Stuttgart, 27. Mai 2008 Inhalt Gekoppelte Multi-Physics-Simulation Reconfigurable Computing

Mehr

PCI VME Interface SIS1100/SIS3100

PCI VME Interface SIS1100/SIS3100 PCI VME Interface SIS1100/SIS3100 Peter Wüstner Forschungszentrum Jülich, Zentrallobor für Elektronik (ZEL) Designprinzip der im ZEL entwickelten Datenaufnahmesysteme ist es, preiswerte PC Technik mit

Mehr

Aktuelle Themen der Informatik: Virtualisierung

Aktuelle Themen der Informatik: Virtualisierung Aktuelle Themen der Informatik: Virtualisierung Sebastian Siewior 15 Mai 2006 1 / 22 1 Überblick 2 Techniken 3 Paravirtualisierung 4 Ende 2 / 22 Wieso Virtualisieren Wieso mehrere Betriebsysteme auf einer

Mehr

Neues in Hyper-V Version 2

Neues in Hyper-V Version 2 Michael Korp Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/mkorp Neues in Hyper-V Version 2 - Virtualisieren auf die moderne Art - Windows Server 2008 R2 Hyper-V Robust Basis:

Mehr

FlexiScale - Web Hosting mit Cloud-Computing Hochschule Mannheim

FlexiScale - Web Hosting mit Cloud-Computing Hochschule Mannheim Jiaming Song Cloud-Computing Seminar Hochschule Mannheim WS0910 1/31... FlexiScale - Web Hosting mit Cloud-Computing Hochschule Mannheim.... Jiaming Song Fakultät für Informatik Hochschule Mannheim jiaming360@googlemail.com

Mehr

Einführung in COM. 04.04.2006 Seite 1

Einführung in COM. 04.04.2006 Seite 1 Einführung in COM 04.04.2006 Seite 1 Ziele Sie kennen die Funktion der Registry für COM Sie können die Struktur eines COM-Objekts erklären Sie können erklären, wie ein remote-server gestartet wird 04.04.2006

Mehr

Effizienter Einsatz von Flash-Technologien im Data Center

Effizienter Einsatz von Flash-Technologien im Data Center Effizienter Einsatz von Flash-Technologien im Data Center Herbert Bild Solution Marketing Manager Georg Mey Solutions Architect 1 Der Flash-Hype 2 Drei Gründe für den Hype um Flash: 1. Ungebremstes Datenwachstum

Mehr

pimoto - Ein System zum verteilten passiven Monitoring von Sensornetzen

pimoto - Ein System zum verteilten passiven Monitoring von Sensornetzen pimoto - Ein System zum verteilten passiven Monitoring von Sensornetzen Rodrigo Nebel Institut für Informatik Lehrstuhl für Rechnernetze und Kommunikationssysteme (Informatik 7) Friedrich-Alexander-Universität

Mehr

56 Maßnahmen zur Sicherung der Verfügbarkeit in Oracle-Umgebungen. Client Client Client Client Client. Public Network. aktiv. Private Network.

56 Maßnahmen zur Sicherung der Verfügbarkeit in Oracle-Umgebungen. Client Client Client Client Client. Public Network. aktiv. Private Network. 56 Maßnahmen zur Sicherung der Verfügbarkeit in Oracle-Umgebungen aktiv inaktiv Node 1 ( Aktiv ) Node 2 ( Passiv ) Private Network aktiv inaktiv (exklusiver Zugriff) Abbildung 3.1: Schematische Darstellung

Mehr

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick:

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Red Hat Storage Server Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Offene Software Lösung für Storage Ansprache über einen globalen Namensraum Betrachtet Storage als einen virtualisierten

Mehr

Vernetzung von Systemen mit LabVIEW. Christian Mergl Applications and Systems Specialist NI Central European Region

Vernetzung von Systemen mit LabVIEW. Christian Mergl Applications and Systems Specialist NI Central European Region Vernetzung von Systemen mit LabVIEW Christian Mergl Applications and Systems Specialist NI Central European Region Vernetzte Systeme sind von Natur aus interdisziplinär kombinieren Software, Hardware und

Mehr

Die Integration zukünftiger In-Car Multimedia Systeme unter Verwendung von Virtualisierung und Multi-Core Plattformen

Die Integration zukünftiger In-Car Multimedia Systeme unter Verwendung von Virtualisierung und Multi-Core Plattformen Die Integration zukünftiger In-Car Multimedia Systeme unter Verwendung von Virtualisierung und Multi-Core Plattformen 0. November 0 Sergio Vergata, Andreas Knirsch, Joachim Wietzke Echtzeit 0 Agenda Motivation

Mehr

VIRTUALISIERUNG IN MIKROKERN BASIERTEN SYSTEMEN

VIRTUALISIERUNG IN MIKROKERN BASIERTEN SYSTEMEN Fakultät Informatik Institut für Systemarchitektur, Professur Betriebssysteme VIRTUALISIERUNG IN MIKROKERN BASIERTEN SYSTEMEN Henning Schild Dresden, 5.2.2009 Definition Einführung von Abstraktionsschichten

Mehr

Entwicklung eines Mac OS X Treibers für eine PCI-VME Interface Karte

Entwicklung eines Mac OS X Treibers für eine PCI-VME Interface Karte Entwicklung eines Mac OS X Treibers für eine PCI-VME Interface Karte Matthias Lange Informatikstudent, TU-Dresden 27. September 2005 http://www.matze-lange.de Warum entwickelt jemand einen Treiber für

Mehr

Symmetrischer Multiprozessor (SMP)

Symmetrischer Multiprozessor (SMP) Symmetrischer Multiprozessor (SMP) Motivation: ein globaler Adressraum für mehrere Prozesse P i Prozesse P i haben gemeinsame Daten ( shared variables ) private Daten ( private variables ) gemeinsamen

Mehr

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1 Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer

Mehr

VMI 2.0. Frank Mietke frank.mietke@s1998.tu-chemnitz.de. (NCSA - National Center for Supercomputing Applications) Technische Universität Chemnitz

VMI 2.0. Frank Mietke frank.mietke@s1998.tu-chemnitz.de. (NCSA - National Center for Supercomputing Applications) Technische Universität Chemnitz VMI 2.0 (NCSA - National Center for Supercomputing Applications) Frank Mietke frank.mietke@s1998.tu-chemnitz.de Technische Universität Chemnitz Inhalt Problemstellung (Wozu VMI 2.0?) Aufbau und Funktionsweise

Mehr

Client/Server-Systeme

Client/Server-Systeme Fachbereich Informatik Projektgruppe KOSI Kooperative Spiele im Internet Client/Server-Systeme Vortragender Jan-Ole Janssen 26. November 2000 Übersicht Teil 1 Das Client/Server-Konzept Teil 2 Client/Server-Architekturen

Mehr

MySQL Replikationstechnologien

MySQL Replikationstechnologien MySQL Replikationstechnologien Lenz Grimmer MySQL Community Relations Specialist $ whoami 1998 2002 2008 2010 Agenda Replikation: Definition und Klassifizierung Anwendungsgebiete

Mehr

Implementierung der Jikes Research Virtual Machine

Implementierung der Jikes Research Virtual Machine Fakultät Informatik Institut für technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Implementierung der Jikes Research Virtual Machine Hauptseminar Technische Informatik

Mehr

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2.

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2. Cloud Computing Frank Hallas und Alexander Butiu Universität Erlangen Nürnberg, Lehrstuhl für Hardware/Software CoDesign Multicorearchitectures and Programming Seminar, Sommersemester 2013 1. Definition

Mehr

Shibboleth Clustering und Loadbalancing

Shibboleth Clustering und Loadbalancing Shibboleth Clustering und Loadbalancing STEINBUCH CENTRE FOR COMPUTING - SCC KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Computercluster

Mehr

A Generic Database Web Service for the Venice Lightweight Service Grid

A Generic Database Web Service for the Venice Lightweight Service Grid A Generic Database Web Service for the Venice Lightweight Service Grid Michael Koch Bachelorarbeit Michael Koch University of Kaiserslautern, Germany Integrated Communication Systems Lab Email: m_koch2@cs.uni-kl.de

Mehr

Grundlagen der Programmierung 2. Parallele Verarbeitung

Grundlagen der Programmierung 2. Parallele Verarbeitung Grundlagen der Programmierung 2 Parallele Verarbeitung Prof. Dr. Manfred Schmidt-Schauÿ Künstliche Intelligenz und Softwaretechnologie 27. Mai 2009 Parallele Algorithmen und Ressourcenbedarf Themen: Nebenläufigkeit,

Mehr

Parastation3. Design und Implementierung. ALiCE-Seminar 13. November 2001. Thomas Moschny

Parastation3. Design und Implementierung. ALiCE-Seminar 13. November 2001. Thomas Moschny Parastation3 Design und Implementierung ALiCE-Seminar 13. November 2001 Thomas Moschny Inst. f. Programmstrukturen und Datenorganisation, Universität Karlsruhe Parastation Cluster Host Host Host Host Myrinet

Mehr

RAID. Name: Artur Neumann

RAID. Name: Artur Neumann Name: Inhaltsverzeichnis 1 Was ist RAID 3 1.1 RAID-Level... 3 2 Wozu RAID 3 3 Wie werden RAID Gruppen verwaltet 3 3.1 Software RAID... 3 3.2 Hardware RAID... 4 4 Die Verschiedenen RAID-Level 4 4.1 RAID

Mehr

Virtualisierung mit Solaris Detlef Drewanz

Virtualisierung mit Solaris Detlef Drewanz Virtualisierung mit Solaris Detlef Drewanz Systems Engineer/OS Ambassador Sun Microsystems GmbH, Berlin Agenda Einordnung Solaris und OpenSolaris Virtualisierung mit Solaris Solaris Container Logical Domains

Mehr

Smartphone Entwicklung mit Android und Java

Smartphone Entwicklung mit Android und Java Smartphone Entwicklung mit Android und Java predic8 GmbH Moltkestr. 40 53173 Bonn Tel: (0228)5552576-0 www.predic8.de info@predic8.de Was ist Android Offene Plattform für mobile Geräte Software Kompletter

Mehr

eclipse - Entwicklungsumgebung und mehr ETIS SS05

eclipse - Entwicklungsumgebung und mehr ETIS SS05 eclipse - Entwicklungsumgebung und mehr ETIS SS05 Gliederung Motivation Geschichte Architektur Platform Runtime Eclipse Platform Java Development Tools (JDE) Plugin Development Environment (PDE) Zusammenfassung

Mehr

Echtzeitbetriebssysteme (am Beispiel QNX) Dr. Stefan Enderle HS Esslingen

Echtzeitbetriebssysteme (am Beispiel QNX) Dr. Stefan Enderle HS Esslingen Echtzeitbetriebssysteme (am Beispiel QNX) Dr. Stefan Enderle HS Esslingen 1. Einführung 1.1 Embedded Systeme Embedded Systeme besitzen / benutzen einen Mikrocontroller Embedded Systeme erfüllen meist eine

Mehr

Leistungsanalyse von Rechnersystemen

Leistungsanalyse von Rechnersystemen Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) Leistungsanalyse von Rechnersystemen Auf Ein-/Ausgabe spezialisierte Benchmarks Zellescher Weg 12 Willers-Bau A109 Tel. +49 351-463 - 32424

Mehr

6.6 Persistenter virtueller Speicher

6.6 Persistenter virtueller Speicher 6.6 Persistenter virtueller Speicher Idee: alle Segmente sind persistent Datei -Begriff überflüssig! Aber: Segment hat erweiterten Deskriptor. bs-6.6 1 Segment überdauert Tod des erzeugenden Prozesses,

Mehr

Einblick in die VMware Infrastruktur

Einblick in die VMware Infrastruktur Einblick in die VMware Infrastruktur Rainer Sennwitz Lehrstuhl für Informatik IV Friedrich-Alexander-Universität Erlangen-Nürnberg 4. Juli 2007 Rainer

Mehr

25.09.2014. Zeit bedeutet eine Abwägung von Skalierbarkeit und Konsistenz

25.09.2014. Zeit bedeutet eine Abwägung von Skalierbarkeit und Konsistenz 1 2 Dies ist ein Vortrag über Zeit in verteilten Anwendungen Wir betrachten die diskrete "Anwendungszeit" in der nebenläufige Aktivitäten auftreten Aktivitäten in einer hochgradig skalierbaren (verteilten)

Mehr

Virtualisierung 360 Einführung in die Virtualisierung Server- und Desktopvirtualisierung mit Hyper-V

Virtualisierung 360 Einführung in die Virtualisierung Server- und Desktopvirtualisierung mit Hyper-V Virtualisierung 360 Einführung in die Virtualisierung Server- und Desktopvirtualisierung mit Hyper-V ITK-Forum Mittelstand IT TRENDS & TECHNOLOGIEN 2010 Frank Seiwerth Technologieberater Microsoft Deutschland

Mehr

Oracle Database 10g Die RAC Evolution

Oracle Database 10g Die RAC Evolution Oracle Database 10g Die RAC Evolution Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 RAC-Revolution, RAC-Evolution & Computing Oracle8i mit OPS Oracle9i Rel.

Mehr

Vorlesung Objektorientierte Softwareentwicklung. Kapitel 0. Java-Überblick

Vorlesung Objektorientierte Softwareentwicklung. Kapitel 0. Java-Überblick Vorlesung Objektorientierte Softwareentwicklung Sommersemester este 2008 Kapitel 0. Java-Überblick Was sind die Ziele? Warum Java? Komplexe Anwendungen e-business verteilt zuverlässig sicher mobil persistent

Mehr

Virtualisierung: Neues aus 2010 und Trends 2011

Virtualisierung: Neues aus 2010 und Trends 2011 Virtualisierung: Neues aus 2010 und Trends 2011 Werner Fischer, Technology Specialist Thomas-Krenn.AG Thomas Krenn Herbstworkshop 2010 Freyung, 24. September 2010 Agenda 1) Virtualisierungs-Software VMware

Mehr

VMware als virtuelle Plattform

VMware als virtuelle Plattform VMware als virtuelle Plattform Andreas Heinemann aheine@gkec.informatik.tu-darmstadt.de Telekooperation Fachbereich Informatik Technische Universität Darmstadt Übersicht Einführung VMware / Produkte /

Mehr

Symmetrisches Multiprocessing mit Linux

Symmetrisches Multiprocessing mit Linux Symmetrisches Multiprocessing mit Linux Michael Engel Unix-AG, Universität-GH Siegen 27.06.98 Zusammenfassung SMP erreicht durch die Verfügbarkeit preiswerter Multiprozessor-Systeme den Normalanwender.

Mehr

Oracle VM Support und Lizensierung. best Open Systems Day April 2010. Unterföhring. Marco Kühn best Systeme GmbH marco.kuehn@best.

Oracle VM Support und Lizensierung. best Open Systems Day April 2010. Unterföhring. Marco Kühn best Systeme GmbH marco.kuehn@best. Oracle VM Support und Lizensierung best Open Systems Day April 2010 Unterföhring Marco Kühn best Systeme GmbH marco.kuehn@best.de Agenda Oracle VM 2.2 Oracle VM 3.0 Oracle DB in virtualisierten Umgebungen

Mehr

OPC UA und die SPS als OPC-Server

OPC UA und die SPS als OPC-Server OPC UA und die SPS als OPC-Server Public 01.10.2010 We software We software Automation. Automation. Agenda Firmenportrait Kurz-Einführung zu OPC Kurz-Einführung zu OPC UA (Unified Architecture) OPC UA

Mehr

Vorwort... 11 Azure Cloud Computing mit Microsoft... 12 Danksagungen... 13 Kontakt zum Autor... 13

Vorwort... 11 Azure Cloud Computing mit Microsoft... 12 Danksagungen... 13 Kontakt zum Autor... 13 Inhaltsverzeichnis Vorwort... 11 Azure Cloud Computing mit Microsoft... 12 Danksagungen... 13 Kontakt zum Autor... 13 Einleitung... 15 Zielgruppe... 16 Aufbau... 16 Inhalt der einzelnen Kapitel... 17 Systemanforderungen...

Mehr

Tier-Konzepte. Vertiefungsarbeit von Karin Schäuble

Tier-Konzepte. Vertiefungsarbeit von Karin Schäuble Vertiefungsarbeit von Karin Schäuble Gliederung 1. Einführung 3. Rahmenbedingungen in der heutigen Marktwirtschaft 3.1 Situation für Unternehmen 3.2 Situation für Applikationsentwickler 4. Lösungskonzepte

Mehr

Systemmonitoring unter Linux

Systemmonitoring unter Linux Systemmonitoring unter Linux CPU-Counter B.Sc. Wirtsch.-Inform. Arno Sagawe, 29.06.10 Department of Informatics Scientifics Computing 1 Gliederung Systemmonitoring Protokolle und Dateien für das Systemmonitoring

Mehr

Virtualisierung Betrachtung aktueller Hypervisor wie Xen, KVM und Hyper-V

Virtualisierung Betrachtung aktueller Hypervisor wie Xen, KVM und Hyper-V Ausgewählte Kapitel der Systemsoftware Virtualisierung Betrachtung aktueller Hypervisor wie Xen, KVM und Hyper-V Guilherme Bufolo Friedrich-Alexander-Universität Erlangen-Nürnberg Lehrstuhl Informatik

Mehr

Informatikdienste Virtualisierung im Datacenter mit VMware vsphere

Informatikdienste Virtualisierung im Datacenter mit VMware vsphere Virtualisierung im Datacenter mit ware vsphere Luzian Scherrer, ID-IS-SYS1 Virtual Center Virtualisierung im Datacenter mit ware vsphere Luzian Scherrer, ID-IS-SYS1 Cloud SaaS otion DRS ware otion Fault

Mehr

vsphere vs. HyperV ein Vergleich aus Sicht eines VMware Partners interface:systems

vsphere vs. HyperV ein Vergleich aus Sicht eines VMware Partners interface:systems vsphere vs. HyperV ein Vergleich aus Sicht eines VMware Partners interface:systems Mike Schubert Senior Consultant Virtualisierung & Storage Frank Friebe Consultant Microsoft mike.schubert@interface-systems.de

Mehr

Inhaltsverzeichnis. Vorwort 13. Kapitel 1 Einleitung 17. Kapitel 2 Architekturen 51. Kapitel 3 Prozesse 91

Inhaltsverzeichnis. Vorwort 13. Kapitel 1 Einleitung 17. Kapitel 2 Architekturen 51. Kapitel 3 Prozesse 91 Inhaltsverzeichnis Vorwort 13 Kapitel 1 Einleitung 17 1.1 Definition eines verteilten Systems................................ 19 1.2 Ziele........................................................ 20 1.2.1

Mehr

Erfahrungen mit parallelen Dateisystemen

Erfahrungen mit parallelen Dateisystemen Erfahrungen mit parallelen n frank.mietke@informatik.tu-chemnitz.de Fakultätsrechen- und Informationszentrum (FRIZ) Professur Rechnerarchitektur Technische Universität Chemnitz 25.09.2007 - Megware HPC

Mehr

Seminar Business Process Management und Workflow-Technologie: Grundlagen, Produkte, Forschung

Seminar Business Process Management und Workflow-Technologie: Grundlagen, Produkte, Forschung IBM WebSphere Process Server Seminar Business Process Management und Workflow-Technologie: Grundlagen, Produkte, Forschung AGENDA 1. Überblick 2. WebSphere Process Server 3. Komponenten 4. Präsentation

Mehr

Hauptspeicher- Datenbanksysteme. Hardware-Entwicklungen Column- versus Row-Store...

Hauptspeicher- Datenbanksysteme. Hardware-Entwicklungen Column- versus Row-Store... Hauptspeicher- Datenbanksysteme Hardware-Entwicklungen Column- versus Row-Store... Hauptspeicher-Datenbanksysteme Disk is Tape, Tape is dead Jim Gray Die Zeit ist reif für ein Re-engineering der Datenbanksysteme

Mehr