Paralleles Rechnen und Grid Computing am ZIV Zustandsbericht und Ausblick

Größe: px
Ab Seite anzeigen:

Download "Paralleles Rechnen und Grid Computing am ZIV Zustandsbericht und Ausblick"

Transkript

1 Dipl. Geophys. Martin Leweling muenster.de) Westfälische Wilhelms Universität Münster Zentrum für Informationsverarbeitung

2 Inhalt Parallelrechner ZIVcluster Hard und Softwareausstattung des Clusters Zugang zum System Batch System, Queues, Nutzungsmöglichkeiten Systemmanagement Bisherige Nutzung des Clusters ZIVGrid Hard und Softwareausstattung Zugang Nutzungsbeispiel Perspektiven für ZIVGrid und ZIVcluster

3 Geschichte des Parallelrechners Dez Feb. 2003: Feb. März 2003: April 2003: Mai Juni 2003: Januar 2004: Juni 2004: Juni 2005: Erster Aufbau durch Fa. Bechtle. Beim Aufbau stellen sich zahlreiche Komponenten als defekt heraus; zusätzlich verzögern Baumaßnahmen im Gebäude Einsteinstr. 60 die Installation. Probebetrieb. Immer wieder kommt es zu überhitzungs bedingten Ausfällen von Komponenten. Produktionsbetrieb beginnt, ohne dass Mängel beseitigt wurden. Der Cluster wird nach Plänen des ZIV umgebaut (Dauer: zwei Wochen). Seither ist ein stabiler Produktionsbetrieb möglich. Einführung einer dedizierten und einer seriellen Queue. Erweiterung um 4 Knoten für serielle Jobs. Der Cluster wird in neue Schränke eingebaut.

4 bis Juni 2005 heute

5 Hardwareausstattung: 98 Rechenknoten (IBM xseries 335) 94 Intel Xeon 2.4 Ghz (512kb Level2 Cache, 1GB Memory) 4 Intel Xeon 2.8 Ghz (512kb Level2 Cache, 2.5 GB Memory) 37 GB IDE Festplatte, davon 1 GB Swap Space 28 GB Scratch Space (/scratch) 2 GB Temporary Space (/tmp)

6 Hardwareausstattung: 2 Kopfstationen (head nodes) IBM xseries 345 Intel Xeon 2.2 Ghz (512kb Level2 Cache) 1.5 GB Hauptspeicher 36 GB SCSI Festplatte davon 2 GB Swap Space 2 GB Temporary Space (/tmp) nur auf Dialog Station: 24 GB Scratch Space (/scratch)

7 Hardwareausstattung: Drei Netzwerke grau: Gigabit Ethernet orange: Myrinet (MPI, GPFS) blau: RSA Netzwerk (ca. jeder 9. Knoten; ASM Prozessoren weiterer Knoten über daisy chain verbunden).

8 Hardwareausstattung: Ansicht des Myrinet Switches 8 Linecards mit jeweils 8 Fibre Ports 1 Monitoring Linecard (ganz oben, mit 2 Ethernet Anschlüssen); Monitoring über Web Interface hot pluggable

9 Hardwareausstattung Flatpanel Monitor Headnodes Fibre Channel RAID 5 Array mit 547GB Kapazität (IBM FastT200) genutzt für GPFS; Failover Konfiguration über FC Switch

10 Problemursache Nr. 1: PDU (Power Distribution Unit): zwischen den Racks angebracht direkt neben der CPU nur bis 35 Betriebstemperatur spezifiziert Falsche Sicherung eingebaut Folge: 4 Ausfälle in 5 Monaten! (= Stromausfall auf 21 Knoten) Lösung: Umbau des Clusters, heute befinden sich die PDUs ganz unten

11 System Software Betriebssystem Red Hat Linux 7.3 (Standard Distribution) Kernel mit mmap Patch von IBM Dateisystem GPFS von IBM GPFS: General Parallel File System Nicht Open Source, unregelmäßige Updates ( ) Hohe Performance (+) Ermöglicht parallelen Zugriff auf Dateien (+) ist auf einwandfreie Funktion des Myrinets angewiesen (d.h. toleriert auch sehr kurzzeitige Aussetzer nicht) ( ) Portable Batch System (PBS), Version 5.4.2

12 System Management CSM (Cluster Systems Management) von IBM Zentrale Verwaltung von Konfigurationsdateien über cfengine Installation der Knoten vom Management Node aus über RedHat Kickstart Templates (/csminstall) Repositorium von Konfigurationsdateien in /cfmroot; Verteilung der Dateien mit cfmupdatenode a bzw. bei Definition von Knotengruppen Update aller Rechenknoten mit cfmupdatenode n ComputeNodes Integration von Reliable Scalable Cluster Technology (RSCT) u.a. Definition von Fehlerbedingungen und automatischen Reaktionen (mkcondition, mkcondresp...); Beispiel: Shutdown des GPFS bei Nichterreichbarkeit von Knoten Open Source Tools (z.b. Ganglia, cacti, mysql) Eigenentwicklungen

13 Monitoring (Auslastung) Open Source Lösung: Ganglia Cluster Toolkit (http://ganglia.sourceforge.net) auf jedem Node 1 Monitoring Dämon (gmond) auf dem zentralen Node 1 zusätzlicher Dämon (gmetad) Verteilung der Messdaten im Abstand von einigen Sekunden über Multicast Daten werden mit Hilfe von RRDTool in sog. Round Robin Databases gesammelt (stündlich, täglich, wöchentlich, monatlich, jährlich) Neben voreingestellten Metriken lassen sich eigene Messpunkte in Ganglia einspeisen (z.b. scratch space)

14 Monitoring (Hardware) Open Source Lösung cacti (http://www.raxnet.net) arbeitet ebenfalls mit RRDTool Verwaltung der Konfiguration über mysql

15 Monitoring (Hardware) Myrinet Switch verfügt mit der Monitoring Linecard über eigenes Webinterface Daten werden mit Hilfe von lynx über Skripte in cacti Datenbank eingespeist

16 Monitoring (Hardware) Myricom Mute (http://www.myri.com) Visualisierung des Traffics auf dem Myrinet Switch

17 Hardware Monitoring IBM Advanced System Management (ASM) Prozessoren besitzen ein Webinterface zum Monitoring und zur Fernsteuerung. Über Kommandozeilen Tools (mpcli) können Messpunkte in die Cacti Datenbank übernommen werden. Großes Minus: Programmierung in Java ist zu schwerfällig für Hardwareüberwachung Besser wären kernel integrierte Gerätetreiber gewesen!

18 Hardware Defekte nach 3 Jahren Betrieb 4 Linecards des Myrinet Switches (alle 12 Linecards wurden inzwischen ausgetauscht) 7 Myrinet Hostadapter (alle 96 Adapter wurden Oktober 2004 ausgetauscht) 5 Stromverteiler (Power Distribution Units) (Fehlerursache: Überhitzung, Konstruktionsfehler) 2 Knoten Netzteile 1 Festplatte 1 Lüfter davon in 2005: 1 Myrinet Hostadapter, 1 PDU, 1 Lüfter

19 Entwicklungsumgebung: MPI MPI 1 (Message Passing Interface) für paralleles Rechnen Hier: MPICH GM MPI Chamaeleon (portable Implementation von MPI) mit GM als Low Level Message Passing System für Myrinet Hardware Kompilerabhängige Installationen (z.b. f. Intel Fortran, Portland Fortran) In /gpfs/a/mpich_intel und /gpfs/a/mpich_pgi z. Zt. Version GM in /usr/local/gm z. Zt. Version 1.6.4

20 Entwicklungsumgebung: Compiler Intel Fortran und C Compiler (Version 7.1) in /opt/intel/compiler70 Fortran 77, 90, 95 (ifc) C++ (icc) Portland Compiler Suite (Version 4.0) in /gpfs/a/pgi Fortran 77 und 90 (pgf77, pgf90) High Performance Fortran (pghpf) C und C++ (pgcc, pgcc) Bei beiden Compilern sollten für parallele Programme die MPI Frontends (mpif77, mpicc...) verwendet werden. Die Intel Compiler sind hierbei standardmäßig im Pfad.

21 Installierte Libraries Performance Vergleich unterschiedlicher BLAS Implemetierungen Linpack (HPL), 16 Nodes Intel MKL Problem size N Atlas BLAS Goto BLAS Gflops

22 Cluster Performance zum Vergleich: für Top500 braucht man heute 1646 Gflops HLRS in Stuttgart: 8923 Gflops

23 Portable Batch System (PBS) Queues Vorrangige Ziele: Hohe Auslastung des Clusters und breite Benutzerbasis Relativ viele Queues (zur Zeit 6) sind konfiguriert, um verschiedene Nutzungsprofile abzudecken Queues ermöglichen High Performance Computing (HPC) und High Throughput Computing (HTC) im Wechsel, so dass ein Kompromiss zwischen beiden Enden des Nutzerspektrums erreicht wird. Die Betonung im Begriff Parallelrechner soll auf parallel liegen; die Nutzung für serielle Programme wird daher beschränkt (teure Myrinet Hardware soll nach Möglichkeit nicht brach liegen).

24 Portable Batch System (PBS) Queues Zur Abarbeitung von Aufträgen (Jobs) gibt es z. Zt. 6 Queues: expressq (1 Stunde, 2 dedizierte Knoten) serialq (2 Tage, 4 dedizierte Knoten, nur für serielle Jobs) testq (2 Stunden, max. 80 Knoten) smallq (48 Stunden, max. 80 Knoten) bigq (160 Stunden, max. 80 Knoten) dedicatedq (2 Stunden, im Self Service eine Woche im Voraus reservierbar, exklusiv auf bis zu 92 Knoten, maximal 8 Stunden an einem Stück) Einteilung der Queues ist verhandelbar!

25 Portable Batch System (PBS) Kommandos Kommandos zur Job Steuerung (siehe man pbs ) qsub qalter qdel qhold qmove qmsg qrerun qrls qsig qstat Batch Job abschicken Attribute eines Batch Jobs ändern Batch Job löschen Batch Job in der Queue anhalten, damit er vom Scheduler nicht zur Ausführung gebracht wird Batch Job in eine andere Queue verschieben Einen Kommentar in die Ausgabe eines Batch Jobs schreiben Einen laufenden Job beenden und neu in die Queue schicken Gegenteil von qhold Signal an laufenden Job senden Status von Batch Jobs und Queues abfragen

26 Software Probleme nach 3 Jahren Betrieb Veraltete Software, zum Teil keine Update Möglichkeit ohne Austausch der gesamten Softwareinstallation GPFS ist äußerst fehlerintolerant im Bezug auf Myrinet Hardware: längerer stabiler Betrieb erst seit Austausch praktisch der gesamten Myrinet Hardware. Betriebssystem läßt sich bei Hauptspeicherknappheit leicht zum Absturz bringen (trotz Begrenzung in limits.conf).

27 Grundlegendes zur Benutzung Homepage: muenster.de/ziv/server/zivcluster Zugang ausschliesslich über ssh (Secure Shell) Bei Unix/Linux Standard, Windows Clients z.b. Putty, SSH (über DFN beziehbar, siehe auch Dialog Server ZIVunix) Filetransfer per scp und sftp (kein FTP!) Anmeldung über Webseite (Link auf der Homepage) Passwortänderungen nur auf dem Headnode head0102 des Clusters durchführen (Befehl: passwd)

28

29 Bisherige Nutzung insgesamt: CPU Jahre (ca. 75%)

30 Bisherige Nutzung insgesamt: Batch Jobs

31 Statistisches Verteilung der Jobs auf: smallq 32.0%, testq 23.2%, bigq 19.1%, serialq 15.5%, expressq 10.0%, dedicatedq 0.2% Verteilung der Rechenzeit auf: bigq 79.8 %, smallq 18.1%, serialq 1.6%, testq 0.5%, andere < 0.1% Exitstatus: ok 63.0%, Zeitüberschreitung, qdel, kill 9, kill 15: 23.0%, Programmfehler 7.9%, andere 6.1% (Hardware, PBS, Segfault...) Durchschnittliche Wartezeiten in Stunden: bigq 30.1, smallq 5.9, serialq 3.5, testq 2.4, expressq % aller Jobs warten weniger als 1 Tag Anzahl Knoten: 1: 44.1%, 2: 15.8%, 4: 10.4%, 8: 8.0%, 6: 5.5%, 16: 4.9%, andere: 11.3%

32 Grid Computing mit Condor: das ZIVGrid Homepage: muenster.de/ziv/server/zivgrid Zugang erfolgt über ZIVcluster (d.h. Anmeldung...) Verwendet wird als Middleware Condor (University of Wisconsin). Ziel: freie Ressourcen der ZIVPool Rechner möglichst effizient zum Rechnen zur Verfügung zu stellen. In diesem Vortrag: Unterschiede zum Morfeus Grid der IVV NWZ. Im ZIVGrid wird z.zt. einheitlich Condor verwendet

33 Grid Computing mit Condor: das ZIVGrid Nach dem Einloggen auf ZIVcluster: Kompilieren mit condor_compile

34 Grid Computing mit Condor: das ZIVGrid Normalerweise wird das Standard Universe verwendet. Dabei sind checkpointing und remote system calls möglich! Beispiel für ein Submit Description File (z.b. bench.cmd): executable output input error log queue = bench.exe = bench.out = bench.in = bench.err = bench.log (Angabe zwingend) (f. Standard Output) (f. Standard Input) (f. Standard Error) (f. Condor Statusmeldungen) (zum Absenden, zwingend) Die Datei wird mit condor_submit bench.cmd von ZIVcluster aus abgeschickt.

35 Grid Computing mit Condor: das ZIVGrid Einige Tage später (1): Job Status mit condor_q

36 Grid Computing mit Condor: das ZIVGrid Einige Tage später (2): Grid Status mit condor_status

37 Grid Computing mit Condor: das ZIVGrid Einige Tage später (3): Job Historie mit condor_userlog bench.log Fertige Ergebnisse landen im gleichen Verzeichnis, aus dem der Job abgeschickt wurde.

38 Grid Computing mit Condor: das ZIVGrid Funktionierendes Checkpointing!

39 Grid Computing mit Condor: das ZIVGrid Fazit: ZIVGrid bietet die Möglichkeit, sehr lange Berechnungen durchzuführen. Es läuft ausschließlich unter Linux. Zur Zeit sind so der ZIVPool 2 dediziert nachts und am Wochenende nutzbar (16 Rechner mit 2.8 Ghz Pentium 4 und 1 GB Hauptspeicher). 36 ZIVPool 3 Rechner nehmen teil, falls sie gerade unter Linux laufen. Keine parallelen Jobs (kein schnelles Netz vorhanden, kein Checkpointing). To Do: Monitoring (z.b. Ganglia) To Do: Anbindung Morfeus ZIVGrid (z.b. Flocking?) To Do: Position im NRW Grid (Aachen, Köln) bestimmen. To Do: Benutzen!!! Anderenfalls kann man keine Erfahrungen sammeln.

40 ZIVcluster und ZIVGrid: Perspektiven 16 neue Rechenknoten werden beschafft: Intel EM64T CPUs, 3.6 Ghz, 4GB Hauptspeicher, Myrinet Durch neue Rechnerarchitektur muss die gesamte Clustersoftware runderneuert werden (Betriebssystem, GPFS, Compiler, Bibliotheken, Anwendungen, Überwachung...). Das System wird heterogener (32bit und 64 bit). Es ergeben sich aber auch neue Nutzungsmöglichkeiten (mehr Hauptspeicher...) Eine Neukonfiguration der Queues erscheint sinnvoll. Möglich z.b. in Zukunft 16 dedizierte Knoten in der testq, dafür Wegfall der expressq... Integration ZIVcluster ZIVGrid könnte erweitert werden (z.b. Condor Checkpointing für serielle Programme?).

UBELIX University of Bern Linux Cluster

UBELIX University of Bern Linux Cluster University of Bern Linux Cluster Informatikdienste Universität Bern ID BEKO Grid Forum 7. Mai 2007 Inhalt Einführung Ausbau 06/07 Hardware Software Benutzung Dokumentation Gut zu wissen Kontakt Apple/Mac:

Mehr

Programmierung und Leistungsanalyse des bwgrid-clusters. Dr. Heinz Kredel und Dr. Hans-Günther Kruse

Programmierung und Leistungsanalyse des bwgrid-clusters. Dr. Heinz Kredel und Dr. Hans-Günther Kruse Programmierung und Leistungsanalyse des bwgrid-clusters Dr. Heinz Kredel und Dr. Hans-Günther Kruse Inhalt bwgrid Cluster Programmierung Threads, OpenMP, Kommunikation, OpenMPI, Strategien Leistungsanalyse

Mehr

bw-grid Cluster in Mannheim

bw-grid Cluster in Mannheim bw-grid Cluster in Mannheim Dr. Heinz Kredel mit Helmut Fränznick, Rudi Müller, Steffen Hau, Andreas Baust Inhalt Grid und D-Grid BMBF Projekt bw-grid Cluster Stand: Aufbau und Inbetriebnahme Benutzung

Mehr

Condor Job Management System

Condor Job Management System Condor Job Management System René Grabner regra@hrz.tu-chemnitz.de Outline Kurze Einführung in Condor Installation und Betrieb Job-Beispiel Checkpointing Erweiterungen 05.02.2002 2 Was ist Condor? Job

Mehr

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem hristian Terboven Rechen- und Kommunikationszentrum RWTH Aachen 1 Hochleistungsrechnen mit Windows enter omputing and ommunication

Mehr

1. Einleitung. Clustern mit Condor

1. Einleitung. Clustern mit Condor Inhalt: 1. Einleitung 2. Struktur eines Condor Cluster 3. Feature's von Condor 4. Jobs in Auftrag geben 5. Ausführung der Jobs 6. Sicherheit 7. Condor Universes 8. Erweiterung des Condorpool 2 1. Einleitung

Mehr

Arbeitsplätze als Rechenfarm

Arbeitsplätze als Rechenfarm IVV Naturwissenschaften IV der Fachbereiche Biologie Chemie Physik Arbeitsplätze als Rechenfarm Westfälische Wilhelms-Universität Münster IT-Symposium 2005 Morfeus: Ungenutzte Arbeitsplatzrechner als Condor-

Mehr

Betrieb eines heterogenen Clusters

Betrieb eines heterogenen Clusters Betrieb eines heterogenen Clusters Georg Hager Regionales Rechenzentrum Erlangen (RRZE) ZKI AK Supercomputing Karlsruhe, 22./23.09.2005 Transtec GBit/IB-Cluster am RRZE IA32-Cluster 04/2003 86+2 Knoten

Mehr

Systemanforderungen Verlage & Akzidenzdruck

Systemanforderungen Verlage & Akzidenzdruck OneVision Software AG Inhalt Asura 9.5, Asura Pro 9.5, Garda 5.0...2 PlugBALANCEin 6.5, PlugCROPin 6.5, PlugFITin 6.5, PlugRECOMPOSEin 6.5, PlugSPOTin 6.5,...2 PlugTEXTin 6.5, PlugINKSAVEin 6.5, PlugWEBin

Mehr

Hochleistungs-Disk-I/O

Hochleistungs-Disk-I/O Hochleistungs-Disk-I/O mit Lustre, dcache und AFS eine vergleichende Betrachtung Stephan Wiesand DESY DV 33. Treffen des ZKI AK Supercomputing Hamburg, 2010-03-04 Computing am DESY Standort Zeuthen Batch

Mehr

science + computing ag

science + computing ag science + computing ag Evaluation der Integration von Windows HPC in eine bestehende Berechnungsumgebung Harry Schlagenhauf science + computing ag IT-Dienstleistungen und Software für anspruchsvolle Rechnernetze

Mehr

Systemanforderungen Verlage & Akzidenzdruck

Systemanforderungen Verlage & Akzidenzdruck OneVision Software AG Inhalt Asura 10.2, Asura Pro 10.2,Garda 10.2...2 PlugBALANCEin 10.2, PlugCROPin 10.2, PlugFITin 10.2, PlugRECOMPOSEin 10.2, PlugSPOTin 10.2,...2 PlugTEXTin 10.2, PlugINKSAVEin 10.2,

Mehr

Systemanforderungen Verlage & Akzidenzdruck

Systemanforderungen Verlage & Akzidenzdruck OneVision Software AG Inhalt Asura 10, Asura Pro 10, Garda 10...2 PlugBALANCEin 10, PlugCROPin 10, PlugFITin 10, PlugRECOMPOSEin10, PlugSPOTin 10,...2 PlugTEXTin 10, PlugINKSAVEin 10, PlugWEBin 10...2

Mehr

Warum in die Ferne schweifen?

Warum in die Ferne schweifen? Eine Reise nach Palma B. Süselbeck Warum in die Ferne schweifen? Lokale Ressourcen reichen nicht trotz Parallelisierung Lokale Hardwarebeschaffung zu teuer, nur gelegentlich benutzt 1 Demo Ein kleines

Mehr

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO Anastasios Stomas SFI Technology Services AG 12. März 2003 anastasios.stomas@sfi.ch Seite 1 Hintergrund INHALT Cluster-

Mehr

Systemanforderungen Verlage & Akzidenzdruck

Systemanforderungen Verlage & Akzidenzdruck OneVision Software AG Inhalt Asura 9.6, Asura Pro 9.6, Garda 5.6...2 PlugBALANCEin 6.6, PlugCROPin 6.6, PlugFITin 6.6, PlugRECOMPOSEin 6.6, PlugSPOTin 6.6,...2 PlugTEXTin 6.6, PlugINKSAVEin 6.6, PlugWEBin

Mehr

Vektorrechnersystem NEC SX-9

Vektorrechnersystem NEC SX-9 Ansprechpartner HPC-Support Team Benutzerberatung Dr. Gerd Hessler (hessler@rz.uni-kiel.de) Dr. Simone Knief (knief@rz.uni-kiel.de) Dr. Eva-Maria Zeidler (zeidler@rz.uni-kiel.de) Systembetreuung: Dr. Cebel

Mehr

Marketing Update. Enabler / ENABLER aqua / Maestro II

Marketing Update. Enabler / ENABLER aqua / Maestro II Marketing Update Enabler / ENABLER aqua / Maestro II Quartal 01/2012 1 Kommentar des Herausgebers Liebe Kunden und Partner, dieser Marketing Update gibt Ihnen einen kurzen Überblick über die aktuell verfügbaren

Mehr

Linux Cluster in Theorie und Praxis

Linux Cluster in Theorie und Praxis Foliensatz Center for Information Services and High Performance Computing (ZIH) Linux Cluster in Theorie und Praxis Monitoring 30. November 2009 Verfügbarkeit der Folien Vorlesungswebseite: http://tu-dresden.de/die_tu_dresden/zentrale_einrichtungen/

Mehr

Oracle Database 10g RAC Plattformen im Detail

Oracle Database 10g RAC Plattformen im Detail Oracle Database 10g RAC Plattformen im Detail Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 Agenda Einleitung RAC was ist das noch gleich? Wer die Wahl hat,

Mehr

Diskless Cluster und Lustre Erfahrungsbericht zum CHiC

Diskless Cluster und Lustre Erfahrungsbericht zum CHiC Diskless Cluster und Lustre Erfahrungsbericht zum CHiC, Torsten Hoefler, Torsten Mehlan und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität

Mehr

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1 Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer

Mehr

Einleitung. Storage-Monitoring mit Nagios

Einleitung. Storage-Monitoring mit Nagios Einleitung Storage-Monitoring mit Nagios Kapitel 01: Einleitung Überblick... 01.01 NetApp - Network Appliance... 01.03 Data ONTAP & WAFL... 01.04 Interner Aufbau... 01.05 Überblick Storage-Monitoring mit

Mehr

Leistungsanalyse von Rechnersystemen

Leistungsanalyse von Rechnersystemen Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) Leistungsanalyse von Rechnersystemen Auf Ein-/Ausgabe spezialisierte Benchmarks Zellescher Weg 12 Willers-Bau A109 Tel. +49 351-463 - 32424

Mehr

Linux-HA-Cluster Heartbeat mit DRBD

Linux-HA-Cluster Heartbeat mit DRBD Linux-HA-Cluster Heartbeat mit DRBD Thomas Röhl 01. Oktober 2004 Inhalt Was ist ein HA-Cluster? Vorbereiten des Projekts Hardware Software Allgemeiner Aufbau des Clusters Installation von DRBD Installation

Mehr

VMware. Rainer Sennwitz.

VMware. Rainer Sennwitz. <Rainer.Sennwitz@andariel.informatik.uni-erlangen.de> VMware Rainer Sennwitz Lehrstuhl für Informatik IV Friedrich-Alexander-Universität Erlangen-Nürnberg 4. Juli 2007 Rainer Sennwitz VMware Inhalt Inhalt

Mehr

Das Lern-Management System (LMS) StudIP an der Universität Osnabrück

Das Lern-Management System (LMS) StudIP an der Universität Osnabrück Das Lern-Management System (LMS) StudIP an der Universität Osnabrück Technische Details Frank.Elsner@rz.uni-osnabrueck.de Andrea.Tschentscher@rz.uni-osnabrueck.de Version 1.2, September 2005 Seite 1 Nutzungsprofil

Mehr

Supercomputing 2003: Nichts geht ohne Linux

Supercomputing 2003: Nichts geht ohne Linux DECUS Symposium 2003 Supercomputing 2003: Nichts geht ohne Linux presented by Roland Fehrenbacher transtec AG Decus Symposium 2003 1 THE EUROPEAN IT FACTORY Übersicht! Linux Beowulf Cluster Ein neuer Standard

Mehr

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel Freiberuflicher Schwerpunkte: Unix, Oracle, Netzwerk 2005 1 Testaufbauten von Oracle 10g RAC auf preiswerter Hardware 2 3 Typisches Cluster System Clients Public Network Node A Node B Cluster Interconnect

Mehr

Einblick in die VMware Infrastruktur

Einblick in die VMware Infrastruktur Einblick in die VMware Infrastruktur Rainer Sennwitz Lehrstuhl für Informatik IV Friedrich-Alexander-Universität Erlangen-Nürnberg 4. Juli 2007 Rainer

Mehr

( ZIH ) Zentrum für Informationsdienste und Hochleistungsrechnen. Kooperation mit Microsoft und Dell

( ZIH ) Zentrum für Informationsdienste und Hochleistungsrechnen. Kooperation mit Microsoft und Dell ( ZIH ) Zentrum für Informationsdienste und Hochleistungsrechnen Kooperation mit Microsoft und Dell Windows-HPC-Cluster von Dell Symbolische Übergabe auf der ISC 2008 Anlieferung im Juni 2008 Kooperation

Mehr

Voraussetzungen für jeden verwalteten Rechner

Voraussetzungen für jeden verwalteten Rechner Kaseya 2 (v6.1) Systemvoraussetzungen Voraussetzungen für jeden verwalteten Rechner Kaseya Agent 333 MHz CPU oder höher 128 MB RAM 30 MB freier Festplattenspeicher Netzwerkkarte oder Modem Microsoft Windows

Mehr

NWZSUPERDOME. Einführung für Benutzer. Christian Mück-Lichtenfeld. Organisch-Chemisches Institut. May 16, 2007

NWZSUPERDOME. Einführung für Benutzer. Christian Mück-Lichtenfeld. Organisch-Chemisches Institut. May 16, 2007 Einführung für Benutzer Christian Mück-Lichtenfeld Organisch-Chemisches Institut May 16, 2007 1/44 Überblick Themen Hardwareresourcen Installierte Software Programmierung Zielgruppe: High Performance Computing

Mehr

IP-COP The bad packets stop here

IP-COP The bad packets stop here SLT - Schwabacher Linuxtage 2009 IP-COP The bad packets stop here Firewall auf Linuxbasis Zusammenfassung Teil 1 Was ist IP-COP? Warum IP-COP? Hardwarevoraussetzungen Konzept von IP-COP Installation Schritt

Mehr

HLRN III - HPC Ressource für Norddeutschland

HLRN III - HPC Ressource für Norddeutschland HLRN III - HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 23. September 2014 Inhalt Der HLRN Verbund

Mehr

Hardware- und Software-Anforderungen IBeeS.ERP

Hardware- und Software-Anforderungen IBeeS.ERP Hardware- und Software-Anforderungen IBeeS.ERP IBeeS GmbH Stand 08.2015 www.ibees.de Seite 1 von 8 Inhalt 1 Hardware-Anforderungen für eine IBeeS.ERP - Applikation... 3 1.1 Server... 3 1.1.1 Allgemeines

Mehr

IBM SPSS Modeler Text Analytics für Windows Installationsanweisungen

IBM SPSS Modeler Text Analytics für Windows Installationsanweisungen IBM SPSS Modeler Text Analytics für Windows Installationsanweisungen IBM SPSS Modeler Text Analytics Server kann so installiert und konfiguriert werden, dass es auf einem Rechner ausgeführt werden kann,

Mehr

Fluent auf Windows HPC Server 2008. ict ag - Mit uns können Sie rechnen

Fluent auf Windows HPC Server 2008. ict ag - Mit uns können Sie rechnen Fluent auf Windows HPC Server 2008 ict ag - Mit uns können Sie rechnen Historie der ict AG Die ict (information communication technology) AG mit Sitz in Aachen, wurde im Jahre 1985 gegründet und übernimmt

Mehr

Das PlanetLab eine Übersicht

Das PlanetLab eine Übersicht Kurzvortrag: Marcus Wenzel 1 HAW-Hamburg Inhalt Marcus Wenzel 2 HAW-Hamburg ein weltumspannender Rechnerverbund 931 Knoten, an 452 Standorten (Stand: 01-12-08) als Peer-2-Peer Overlay Network realisiert

Mehr

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk Haftungsausschluss Microsoft kann für die Richtigkeit

Mehr

Erfahrungen mit parallelen Dateisystemen

Erfahrungen mit parallelen Dateisystemen Erfahrungen mit parallelen n frank.mietke@informatik.tu-chemnitz.de Fakultätsrechen- und Informationszentrum (FRIZ) Professur Rechnerarchitektur Technische Universität Chemnitz 25.09.2007 - Megware HPC

Mehr

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25 XEN Performance Projektpraktikum Informatik Arne Klein 2008-02-26 Arne Klein () XEN Performance 2008-02-26 1 / 25 1 Virtualisierung mit XEN 2 Performance von XEN Allgemeines Netzwerk-Performance IO-Performance

Mehr

Grundlagen des Grid Computing

Grundlagen des Grid Computing Grundlagen des Grid Computing Grid Middleware Toolkits: Advanced Resource Connector (ARC) ICA Joh.. Kepler Universität t Linz Advanced Resource Connector Entwickelt durch die NorduGrid Collaboration Skandinavische

Mehr

WEBINAR@LUNCHTIME THEMA: SAS ADMINISTRATION LEICHT GEMACHT MIT SAS 9.4 ALLE SYSTEME IM BLICK" ANKE FLEISCHER

WEBINAR@LUNCHTIME THEMA: SAS ADMINISTRATION LEICHT GEMACHT MIT SAS 9.4 ALLE SYSTEME IM BLICK ANKE FLEISCHER WEBINAR@LUNCHTIME THEMA: SAS ADMINISTRATION LEICHT GEMACHT MIT SAS 9.4 ALLE SYSTEME IM BLICK" ANKE FLEISCHER EBINAR@LUNCHTIME HERZLICH WILLKOMMEN BEI WEBINAR@LUNCHTIME Moderation Anne K. Bogner-Hamleh

Mehr

Userguide für den Linux Cluster des UZWR. the admins

Userguide für den Linux Cluster des UZWR. the admins Userguide für den Linux Cluster des UZWR the admins 12. April 2011 Inhaltsverzeichnis 1 Aufbau des Rechenclusters 1 2 Login 2 2.1 Windows........................................ 2 2.1.1 PuTTy......................................

Mehr

Cluster-Computing am Beispiel bwgrid. Dr. Heinz Kredel Rechenzentrum der Universität Mannheim

Cluster-Computing am Beispiel bwgrid. Dr. Heinz Kredel Rechenzentrum der Universität Mannheim Cluster-Computing am Beispiel bwgrid Dr. Heinz Kredel Rechenzentrum der Universität Mannheim Inhalt Grid bwgrid Cluster Cluster Administration und Betrieb Cluster Nutzung Grid The Grid is a system that:

Mehr

Shibboleth Clustering und Loadbalancing

Shibboleth Clustering und Loadbalancing Shibboleth Clustering und Loadbalancing STEINBUCH CENTRE FOR COMPUTING - SCC KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Computercluster

Mehr

IP-COP The bad packets stop here

IP-COP The bad packets stop here LUSC Workshopweekend 2008 IP-COP The bad packets stop here Firewall auf Linuxbasis Zusammenfassung Teil 1 Was ist IP-COP? Warum IP-COP? Hardwarevoraussetzungen Konzept von IP-COP Installation Schritt für

Mehr

Nutzungsanleitung des Clusters thot.informatik.uni-halle.de

Nutzungsanleitung des Clusters thot.informatik.uni-halle.de Nutzungsanleitung des Clusters thot.informatik.uni-halle.de Martin-Luther-Universität Halle-Wittenberg INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Allgemeines 2 2 Module zum Einrichten der Nutzerumgebung

Mehr

Einführung in wiss. Software. bwgrid-cluster

Einführung in wiss. Software. bwgrid-cluster Einführung in wiss. Software auf dem bwgrid-cluster Dr. Heinz Kredel und Dr. Sabine Richling Inhalt bwgrid Cluster Java Programmierung Java Threads, Java OpenMP, TCP/IP Kommunikation, Java MPP, Strategien

Mehr

VirtualBox und OSL Storage Cluster

VirtualBox und OSL Storage Cluster VirtualBox und OSL Storage Cluster A Cluster in a Box A Box in a Cluster Christian Schmidt Systemingenieur VirtualBox und OSL Storage Cluster VirtualBox x86 und AMD/Intel64 Virtualisierung Frei verfügbar

Mehr

Neues in Hyper-V Version 2

Neues in Hyper-V Version 2 Michael Korp Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/mkorp Neues in Hyper-V Version 2 - Virtualisieren auf die moderne Art - Windows Server 2008 R2 Hyper-V Robust Basis:

Mehr

Web-Dienste: MI-Portal. News abonnieren / abbestellen. MI-Portal: Kontoeinstellungen. Studiengang Medieninformatik. Hochschule RheinMain

Web-Dienste: MI-Portal. News abonnieren / abbestellen. MI-Portal: Kontoeinstellungen. Studiengang Medieninformatik. Hochschule RheinMain Web-Dienste: MI-Portal Infrastruktur-Überblick 14. Oktober 2014 Studiengang Medieninformatik Login bei Zugriff von außen und für Einstellungen notwendig Hochschule RheinMain wolfgang.weitz@hs-rm.de https://www.mi.hs-rm.de/portal

Mehr

Seminar: Praktische Quantenchemie

Seminar: Praktische Quantenchemie Seminar: Praktische Quantenchemie Bernd Hartke Theoretische Chemie Institut für Physikalische Chemie 5. Stock, Raum 519 Tel.: 0431/880-2753 hartke@phc.uni-kiel.de http://ravel.phc.uni-kiel.de Sprechstunde:

Mehr

4D Server v12 64-bit Version BETA VERSION

4D Server v12 64-bit Version BETA VERSION 4D Server v12 64-bit Version BETA VERSION 4D Server v12 unterstützt jetzt das Windows 64-bit Betriebssystem. Hauptvorteil der 64-bit Technologie ist die rundum verbesserte Performance der Anwendungen und

Mehr

Managed VPSv3 Was ist neu?

Managed VPSv3 Was ist neu? Managed VPSv3 Was ist neu? Copyright 2006 VERIO Europe Seite 1 1 EINFÜHRUNG 3 1.1 Inhalt 3 2 WAS IST NEU? 4 2.1 Speicherplatz 4 2.2 Betriebssystem 4 2.3 Dateisystem 4 2.4 Wichtige Services 5 2.5 Programme

Mehr

High Performance Computing mit Windows HPC Server 2008 R2

High Performance Computing mit Windows HPC Server 2008 R2 High Performance Computing mit Windows HPC Server 2008 R2 Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk Haftungsausschluss Microsoft kann für die Richtigkeit

Mehr

Entwicklung eines COW auf Basis einer SGE

Entwicklung eines COW auf Basis einer SGE Entwicklung eines COW auf Basis einer SGE B. Sc. Michael Schmidt HTWK Leipzig 14. Juni 2011 Inhalt 1 Einführung 2 Masterarbeit 3 Schluss Überblick 1 Einführung 2 Masterarbeit 3 Schluss Definition Cluster

Mehr

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension

Mehr

Systemvoraussetzungen für ConSol*CM Version 6.10.2 Architektur Überblick

Systemvoraussetzungen für ConSol*CM Version 6.10.2 Architektur Überblick Systemvoraussetzungen für ConSol*CM Version 6.10.2 Architektur Überblick ConSol*CM basiert auf einer Java EE Web-Architektur, bestehend aus den folgenden Kern-Komponenten: JEE Application Server für die

Mehr

RAC auf Sun Cluster 3.0

RAC auf Sun Cluster 3.0 RAC auf Sun Cluster 3.0 Schlüsselworte RAC, OPS, Sun Cluster, Performance, Availability Zusammenfassung Oracle hat mit dem Real Application Cluster (RAC) aus einer Hochverfügbarkeitslösung eine Höchstverfügbarkeitslösung

Mehr

Projektseminar Parallele Programmierung

Projektseminar Parallele Programmierung HTW Dresden WS 2014/2015 Organisatorisches Praktikum, 4 SWS Do. 15:00-18:20 Uhr, Z136c, 2 Doppelstunden o.g. Termin ist als Treffpunkt zu verstehen Labore Z 136c / Z 355 sind Montag und Donnerstag 15:00-18:20

Mehr

CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm

CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm CHiC er Hochleistungs-Linux Cluster Stand HPC Cluster CHiC, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität

Mehr

Behebung des sog. Heartbleed-Bugs (CVE-2014-0160) in der Krypto-Bibliothek OpenSSL.

Behebung des sog. Heartbleed-Bugs (CVE-2014-0160) in der Krypto-Bibliothek OpenSSL. NCP Secure Enterprise HA Server Service Release 3.04 rev 16486 (Linux 32/64) April 2014 Diese Version ist nur für folgende Distributionen in den Ausführungen für 32- und 64-bit freigegeben: SuSE Linux

Mehr

25. Februar 2009, Version 1.0. Installationsanleitung Tivoli Storage Manager für Windows. Verwaltungsdirektion. Informatikdienste

25. Februar 2009, Version 1.0. Installationsanleitung Tivoli Storage Manager für Windows. Verwaltungsdirektion. Informatikdienste 25. Februar 2009, Version 1.0 Installationsanleitung für Windows Verwaltungsdirektion Informatikdienste Installationsanleitung für Windows Inhaltsverzeichnis...1 Installation... 1 Voraussetzungen...1 Ablauf

Mehr

NEC HPC-System. SX-ACE Vektorrechnersystem u. HPC-Linux Cluster. Rechenzentrum

NEC HPC-System. SX-ACE Vektorrechnersystem u. HPC-Linux Cluster. Rechenzentrum SX-ACE Vektorrechnersystem u. HPC-Linux Cluster 1 Ansprechpartner HPC-Support Team Benutzerberatung Dr. Karsten Balzer Dr. Simone Knief Systembetreuung: Dr. Cebel Kücükkaraca Alfred Wagner Mailingliste:

Mehr

Anleitung für zwei C++ - Openmp - Beispiele auf der NWZSuperdome

Anleitung für zwei C++ - Openmp - Beispiele auf der NWZSuperdome Anleitung für zwei C++ - Openmp - Beispiele auf der NWZSuperdome (Timo Heinrich, t_hein03@uni-muenster.de) Inhaltsverzeichnis: 0.Einleitung 1.Teil: Helloworldprogramm 1.1 Quellcode: Helloworld.cpp 1.2

Mehr

TimeMachine. Time CGI. Version 1.5. Stand 04.12.2013. Dokument: time.odt. Berger EDV Service Tulbeckstr. 33 80339 München

TimeMachine. Time CGI. Version 1.5. Stand 04.12.2013. Dokument: time.odt. Berger EDV Service Tulbeckstr. 33 80339 München Time CGI Version 1.5 Stand 04.12.2013 TimeMachine Dokument: time.odt Berger EDV Service Tulbeckstr. 33 80339 München Fon +49 89 13945642 Mail rb@bergertime.de Versionsangaben Autor Version Datum Kommentar

Mehr

08.05.2012 UNIX. Linux. UNIX Derivate, die wichtigsten. Free BSD (Open) Solaris MacOS X Linux. UNIX Dateisystem, wichtige Ordner.

08.05.2012 UNIX. Linux. UNIX Derivate, die wichtigsten. Free BSD (Open) Solaris MacOS X Linux. UNIX Dateisystem, wichtige Ordner. 23 UNIX Einführung in Betriebssysteme UNIX AM BEISPIEL LINUX entwickelt Anfang der 1970er Jahre von Ken Thompson und Dennis Ritchie (Bell Laboratories) Quelle: Wikipedia Zusammen und auf der Basis von

Mehr

PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD

PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD Inhaltsverzeichnis 1. ZUSAMMENSTELLUNG VON SERVERN...3 1.1. ANFORDERUNGSPROFIL...3 1.2. 1.3. SERVER MODELLE...3 TECHNISCHE

Mehr

Einsparung von Wartungs- und Lizenzkosten durch Konsolidierung

Einsparung von Wartungs- und Lizenzkosten durch Konsolidierung Einsparung von Wartungs- und Lizenzkosten durch Konsolidierung Peter Stalder DOAG November 2009 Basel Baden Bern Lausanne Zurich Düsseldorf Frankfurt/M. Freiburg i. Br. Hamburg Munich Stuttgart Vienna

Mehr

owncloud an der Technischen Universität Berlin Fazit der ersten 6 Monate T.Hildmann tubit owncloud Hochschulworkshop 16.

owncloud an der Technischen Universität Berlin Fazit der ersten 6 Monate T.Hildmann tubit owncloud Hochschulworkshop 16. owncloud an der Technischen Universität Berlin Fazit der ersten 6 Monate T.Hildmann tubit owncloud Hochschulworkshop 16. August 2013 Agenda - Ausgangslage und Historie (Unser Weg zur owncloud.) - Architektur

Mehr

SolarWinds Engineer s Toolset

SolarWinds Engineer s Toolset SolarWinds Engineer s Toolset Monitoring Tools Das Engineer s Toolset ist eine Sammlung von 49 wertvoller und sinnvoller Netzwerktools. Die Nr. 1 Suite für jeden Administrator! Die Schwerpunkte liegen

Mehr

IT Lehrgang LPIC-1: Junior Level Linux Professional

IT Lehrgang LPIC-1: Junior Level Linux Professional 2009 IT Lehrgang LPIC-1: Junior Level Linux Professional Erfolg hat einen Namen: SPC! www.spc.at Wissens-Service ist bei uns schon immer Trend. Und Trends sind auch ein Teil unseres Services. Stand: 1.1.2009

Mehr

Checkliste Systemvoraussetzungen. Systemvoraussetzungen für den Datenbank-Server von MKS Goliath

Checkliste Systemvoraussetzungen. Systemvoraussetzungen für den Datenbank-Server von MKS Goliath Checkliste Systemvoraussetzungen Systemvoraussetzungen für den Datenbank-Server von MKS Goliath CPU Pentium III oder höher Pentium IV oder höher RAM 512 MB 512 MB oder höher Festplatte Freier Speicher

Mehr

OpenSSH installieren (Windows) Was ist OpenSSH?

OpenSSH installieren (Windows) Was ist OpenSSH? OpenSSH installieren (Windows) Was ist OpenSSH? OpenSSH (Open Secure Shell) ist eine freie SSH/SecSH-Protokollsuite, die Verschlüsselung für Netzwerkdienste bereitstellt, wie etwa Remotelogins, also Einloggen

Mehr

Einführungsvortrag REGIONALES RECHENZENTRUM ERLANGEN [RRZE]

Einführungsvortrag REGIONALES RECHENZENTRUM ERLANGEN [RRZE] REGIONALES RECHENZENTRUM ERLANGEN [RRZE] Einführungsvortrag Systemausbildung Grundlagen und Aspekte von Betriebssystemen und System-nahen Diensten, 22.04.2015 Referent: Marcel Ritter, RRZE AGENDA - Ausrichtung

Mehr

Inhaltsangabe zu den Systemvoraussetzungen:

Inhaltsangabe zu den Systemvoraussetzungen: Inhaltsangabe zu den Systemvoraussetzungen: Seite 2 bis 1.500 Wohneinheiten und bis 2 Seite 3 bis 1.500 Wohneinheiten und bis 5 Seite 4 bis 5.000 Wohneinheiten und mehr als 10 Seite 5 bis 15.000 Wohneinheiten

Mehr

Systemanforderungen für MuseumPlus und emuseumplus

Systemanforderungen für MuseumPlus und emuseumplus Systemanforderungen für MuseumPlus und emuseumplus Systemanforderungen für MuseumPlus und emuseumplus Gültig ab: 01.03.2015 Neben den aufgeführten Systemvoraussetzungen gelten zusätzlich die Anforderungen,

Mehr

Inhaltsverzeichnis. BüroWARE Systemanforderungen ab Version 5.31. Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2

Inhaltsverzeichnis. BüroWARE Systemanforderungen ab Version 5.31. Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2 Inhaltsverzeichnis Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2 1. Terminal-Server-Betrieb (SQL)... 3 1.1. Server 3 1.1.1. Terminalserver... 3 1.1.2. Datenbankserver (bei einer Datenbankgröße

Mehr

Fragen zur GridVis MSSQL-Server

Fragen zur GridVis MSSQL-Server Fragen zur GridVis MSSQL-Server Frage Anmerkung 1.0 Server allgemein 1.1 Welche Sprache benötigt die Software bzgl. Betriebssystem/SQL Server (deutsch/englisch)? 1.2 Welche MS SQL Server-Edition wird mindestens

Mehr

Vernetzung von Linux und Windows

Vernetzung von Linux und Windows Vernetzung von Linux und Windows Rechnern Installation, Konfiguration, Benutzung und Anwendungsbeispiele Referent: Andre Dibowsky andre@dibowsky.net Linux User Group Datteln Vernetzung von Linux und Windows

Mehr

OPTICAL DISC ARCHIVE FILE MANAGER ODS-FM1

OPTICAL DISC ARCHIVE FILE MANAGER ODS-FM1 OPTICAL DISC ARCHIVE FILE MANAGER ODS-FM1 INSTALLATION GUIDE [German] 1st Edition (Revised 4) Marken Microsoft, Windows und Internet Explorer sind in den Vereinigten Staaten bzw. anderen Ländern eingetragene

Mehr

BN-007 Serverrichtlinien

BN-007 Serverrichtlinien BN-007 Serverrichtlinien für KAV-IT - Standard Systeme 2012-06-28 - BR1 Wiener Krankenanstaltenverbund Informationstechnologie Index: Richtlinie HW-Server Windows:... 1 Richtlinie virtuelle Server Windows:...

Mehr

Performance Tuning & Scale-Out mit MySQL

Performance Tuning & Scale-Out mit MySQL Performance Tuning & Scale-Out mit MySQL Erfa-Gruppe Internet Briefing 2. März 2010 Oli Sennhauser Senior MySQL Consultant, FromDual oli.sennhauser@fromdual.com www.fromdual.com 1 Inhalt Allgemeines zu

Mehr

Computational Biology: Bioelektromagnetismus und Biomechanik

Computational Biology: Bioelektromagnetismus und Biomechanik Computational Biology: Bioelektromagnetismus und Biomechanik Implementierung Gliederung Wiederholung: Biomechanik III Statische Elastomechanik Finite Elemente Diskretisierung Finite Differenzen Diskretisierung

Mehr

LINUX Schulung. FrauenComputerZentrum Berlin. Jutta Horstmann, Mai 2006

LINUX Schulung. FrauenComputerZentrum Berlin. Jutta Horstmann, Mai 2006 LINUX Schulung FrauenComputerZentrum Berlin Jutta Horstmann, Mai 2006 Agenda Was ist Linux Was ist Open Source Warum Open Source Software Wie sieht Open Source Software aus Was kann man damit machen Ausprobieren!!

Mehr

IBM SPSS Statistics für Linux-Installationsanweisungen (Netzwerklizenz)

IBM SPSS Statistics für Linux-Installationsanweisungen (Netzwerklizenz) IBM SPSS Statistics für Linux-Installationsanweisungen (Netzwerklizenz) Die folgenden Anweisungen gelten für die Installation von IBM SPSS Statistics Version 20 mit einernetzwerklizenz. Dieses Dokument

Mehr

Oracle Database 10g Die RAC Evolution

Oracle Database 10g Die RAC Evolution Oracle Database 10g Die RAC Evolution Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 RAC-Revolution, RAC-Evolution & Computing Oracle8i mit OPS Oracle9i Rel.

Mehr

OpenStack bei der SAP SE

OpenStack bei der SAP SE OpenStack bei der SAP SE Integration bestehender Dienste in OpenStack dank Workflow Engine und angepasstem Webinterface 23. Juni 2015 Christian Wolter Linux Consultant B1 Systems GmbH wolter@b1-systems.de

Mehr

Blade Schulung Teil I, Systemhardware

Blade Schulung Teil I, Systemhardware Blade Schulung Teil I, Systemhardware - Online Schulung Herzlich Willkommen zur Online-Schulung von Thomas-Krenn Serverversand Unser Thema heute: BladeServer - Komponenten und Hardwarefunktionalität -

Mehr

ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf

ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012 Scientific Computing in Düsseldorf Peter Schreiber schreiber@hhu.de 0211-81-13913 http://www.zim.hhu.de ZKI Arbeitskreis Supercomputing 20.-21.09.2012

Mehr

Hyper-V Grundlagen der Virtualisierung

Hyper-V Grundlagen der Virtualisierung Grundlagen der Virtualisierung Was ist Virtualisierung? Eine Software-Technik, die mehrere Betriebssysteme gleichzeitig auf dem Rechner unabhängig voneinander betreibt. Eine Software-Technik, die Software

Mehr

Entwicklung von Ausleseelektronik für das Flüssig-Argon-Kalorimeter des ATLAS- Detektors am Super-LHC

Entwicklung von Ausleseelektronik für das Flüssig-Argon-Kalorimeter des ATLAS- Detektors am Super-LHC Entwicklung von Ausleseelektronik für das Flüssig-Argon-Kalorimeter des ATLAS- Detektors am Super-LHC Andy Kielburg-Jeka, Andreas Glatte, Andreas Meyer, Arno Straessner TU Dresden, Institut für Kern- und

Mehr

Intel Cluster Studio. Michael Burger FG Scientific Computing TU Darmstadt michael.burger@sc.tu-darmstadt.de

Intel Cluster Studio. Michael Burger FG Scientific Computing TU Darmstadt michael.burger@sc.tu-darmstadt.de Intel Cluster Studio Michael Burger FG Scientific Computing TU Darmstadt michael.burger@sc.tu-darmstadt.de 19.03.13 FB Computer Science Scientific Computing Michael Burger 1 / 30 Agenda Was ist das Intel

Mehr

Isilon Solutions + OneFS

Isilon Solutions + OneFS Isilon Solutions + OneFS Anne-Victoria Meyer Universität Hamburg Proseminar»Ein-/Ausgabe Stand der Wissenschaft«, 2013 Anne-Victoria Meyer Isilon Solutions + OneFS 1 / 25 Inhalt 1. Einleitung 2. Hardware

Mehr

Andrea Held. Virtualisierung im Oracle-Umfeld Virtualisierungslayer Voraussetzungen Schnittstellen Workload Management Grid Control

Andrea Held. Virtualisierung im Oracle-Umfeld Virtualisierungslayer Voraussetzungen Schnittstellen Workload Management Grid Control Andrea Held Virtualisierung im Oracle-Umfeld Virtualisierungslayer Voraussetzungen Schnittstellen Workload Management Grid Control 1 Einzelne Server ausgelegt auf Lastspitzen Niedrige durchschnittliche

Mehr

ein verteiltes und repliziertes Dateisystem XtreemOS IP project is funded by the European Commission under contract IST-FP6-033576

ein verteiltes und repliziertes Dateisystem XtreemOS IP project is funded by the European Commission under contract IST-FP6-033576 ein verteiltes und repliziertes Dateisystem is funded by the European Commission XtreemOS IPunder project contract IST-FP6-033576 1 Das XtreemOS Projekt Europäisches Forschungsprojekt gefördert von der

Mehr

The Unbreakable Database System

The Unbreakable Database System The Unbreakable Database System Real Application Cluster Unterföhring, 04.2005 M. Kühn 1 Comparisson HA - HA Ziele, DataGuard, HA Oracle, RAC RAC Features - Cache Fusion, TAF, Load Balancing RAC on Solaris

Mehr