Erfahrungen mit LSF an der RWTH. Eine kurze Geschichte der LoadSharingFacility
|
|
- Ernst Hertz
- vor 5 Jahren
- Abrufe
Transkript
1 Erfahrungen mit LSF an der RWTH Eine kurze Geschichte der LoadSharingFacility
2 Zeitlinie 2011 Wechsel SGE -> LSF, Bull Cluster, GPU-Cluster 2012 JARA-HPC 2014 Projektbewirtschaftung RWTH 2016 NEC Cluster CLAIX I 2018 Wechsel LSF -> SLURM, Cluster CLAIX II 2 von 18
3 Zeitlinie 2011 Wechsel SGE -> LSF, Bull Cluster, GPU-Cluster 2012 JARA-HPC 2014 Projektbewirtschaftung RWTH 2016 NEC Cluster CLAIX I 2018 Wechsel LSF -> SLURM, Cluster CLAIX II 3 von 18
4 Bull Cluster, GPU-Cluster, Wechsel SGE -> LSF Einführung LSF BULL-Cluster 4 Knotentypen (MPI, SMP, BCS, GPU) x86 (QDR Infiniband) MPI-Partition, 1350 Knoten, 12 cores, GB Memory SMP-Partition, 90 Knoten, cores, GB Memory 2-4 Maschinen, Bull Coherent Switch GPU-Cluster (Ethernet) 24 Knoten, 12 cores, 24 GB Memory, 2 * NVIDIA Quadro 6000 Sonstiges (Ethernet) Installation aus 2007, Maschinen diverser couleur Integratives Hosting Stufenweise Migration SGE-> LSF 4 von 18
5 1 Cluster Konzept 1-Cluster-Konzept Submittieren von allen Frontendknoten für alle Maschinen möglich Alle Filesysteme auf allen Knoten an gleicher Stelle verfügbar (HOME, WORK, HPCWORK) Lediglich ein Workload Management System, LSF 8.1 Bestmögliche Transparenz für den Nutzer Ermöglicht Integratives Hosting (Projekte) Best Effort Steuerung der Jobs für den Nutzer Keine Angaben durch Nutzer -> bestmögliche Maschine(-ngruppe) finden Angaben des Nutzers werden berücksichtigt, aber auch korrigiert, falls nötig Warnung und Ablehnung des Jobs esub Skript zur Steuerung/Modifikation der Jobs 5 von 18
6 Standort RWTH Compute Cluster Viele unterschiedliche Nutzer der Frontends und Batchsysteme Frontend ~ 1000 Backend ~ 200 Verpflichtende Angabe der Runtime Automatisch exklusiv ab 32 cores Boardwise Scheduling BCS-Systeme manuell implementiert (cgroups), keine Unterstützung durch LSF GPU-Cluster Nutzung im Batch nachts, tagsüber CAVE Compute Units Einteilung in Infiniband-Inseln, Maschinentypen, Racks, Chassis 6 von 18
7 Zeitlinie 2011 Wechsel SGE -> LSF, Bull Cluster, GPU-Cluster 2012 JARA-HPC 2014 Projektbewirtschaftung RWTH 2016 NEC Cluster CLAIX I 2018 Wechsel LSF -> SLURM, Cluster CLAIX II 7 von 18
8 2012 JARA-HPC 60 % des Clusters exklusiv in eigener Queue JEDER Job exklusiv Beschränkung auf 24h (single node 120h) Zwei Rechenzeit-Perioden, beginnend jeweils Mai und November In LSF mittels Projekten realisiert, ähnlich Integratives Hosting Aufbau des Reportings Kaum Unterstützung durch die eingesetzte LSF Version Accounting in Textfiles, field separator Leerzeichen Parser für Textfiles, Azubi-Projekt in JAVA, Eintragung in SQL Datenbank Weiterverarbeitung der Daten Projektbewirtschaftung r_batch_usage 8 von 18
9 Zeitlinie 2011 Wechsel SGE -> LSF, Bull Cluster, GPU-Cluster 2012 JARA-HPC 2014 Projektbewirtschaftung RWTH 2016 NEC Cluster CLAIX I 2018 Wechsel LSF -> SLURM, Cluster CLAIX II 9 von 18
10 Projektbewirtschaftung RWTH Compute Cluster Einführung LSF 9.1 SLA (Service Level Agreement), Affinity Scheduling (CPU und Memory binding) Security enhancements in Bezug auf Sichtbarkeit von Jobs gegenüber anderen Nutzern Task-Konzept vs. altem Slot-Konzept Anzeige und Accounting (LSF-seitig) von exklusiven, bzw. hybriden Jobs endlich möglich External post submission script Erlaubt z.b. das Sichern des Jobscripts zu Supportzwecken 10 von 18
11 Projektbewirtschaftung RWTH Compute Cluster Zu große, unfaire Nutzung des freien Kontingents Ähnlich JARA müssen Projekte beantragt und bewilligt werden, unkontingentiertes Rechnen wird eingeschränkt, keine Rechenzeitperiode, jederzeit beantragbar low-queue Einführung von SLAs für JARA, RWTH-Projekte, Lehre und Thesis-Arbeiten, unkontingentiert DISTRIBUTION: [sla_edu, 3%] [sla_rwth, 30%] [sla_jara, 60%] [sla_default, 5%] [sla_low, 2%] Sehr gute Auslastung des Clusters nach der Einführung, im Schnitt ca. 92% im Jahr von 18
12 12 von 18
13 Zeitlinie 2011 Wechsel SGE -> LSF, Bull Cluster, GPU-Cluster 2012 JARA-HPC 2014 Projektbewirtschaftung RWTH 2016 NEC Cluster CLAIX I 2018 Wechsel LSF -> SLURM, Cluster CLAIX II 13 von 18
14 NEC Cluster CLAIX I NEC Cluster (Omnipath) MPI-Partition, 24 cores, 128GB Memory, 601 Knoten SMP-Partition, 144 cores, 1024GB Memory, 3.7 TB NVME, 8 Knoten 2 Knoten mit 1 * NVIDIA Tesla P100 GPU-Partition, 24 cores, 128 GB Memory, 2 * NVIDIA Tesla P100, 10 Knoten NVME-Partition, 24 cores, 128 GB Memory, 1.9 TB NVME, 8 Knoten Einführung von LSF 10.1 Verbesserte Anlaufzeitvorhersage (Simulator) mehrere GPU-Jobs auf einer Maschine möglich, mittels cgroups getrennt, vereinfachte Anforderung Strategiewechsel Exclusive Scheduling Herabsetzen der Exklusivitätsgrenze auf single node 14 von 18
15 Zeitlinie 2011 Wechsel SGE -> LSF, Bull Cluster, GPU-Cluster 2012 JARA-HPC 2014 Projektbewirtschaftung RWTH 2016 NEC Cluster CLAIX I 2018 Wechsel LSF -> SLURM, Cluster CLAIX II 15 von 18
16 Rückblick auf 7 Jahre mit LSF, Wechsel LSF -> SLURM holpriger Start Viele Features, mit Sicherheit nicht alle ausgereizt Mit der Zeit immer besser und stabiler geworden Sinnvolle Erweiterungen Die letzten Jahre stabiler Betrieb ohne Störungen/Ausfälle des Schedulers Warum der Wechsel zu SLURM Kosten breiter Einsatz von SLURM in der universitären HPC-Landschaft 16 von 18
17 Cluster CLAIX II November 2018 neuer Cluster (aktuell in der Ausschreibung) Einführung SLURM mit neuem Cluster Schmerzlich vermisst werden hostgroups und Compute units (eventuell möglich mit Features, zumindest teilweise) Kein time based scheduling Vielleicht per cronjob oder aber Serie von advance reservations Schrittweise Migration von LSF zu SLURM CLAIX II und Tier 3 (November 2018) Integratives Hosting CLAIX I (Mai 2019) 17 von 18
18 Vielen Dank für Ihre Aufmerksamkeit
CLAIX Vorstellung und Technik Christian Terboven
CLAIX Vorstellung und Technik Christian Terboven Inhalte CLAIX Phase I Zwei Rack-Reihen + 2 Schränke Testbetrieb mit Projekten seit November 2016 Trier-2 HPC-System Abnahme im Januar 2017 TOP500 im November
MehrEinführung der Projektbewirtschaftung des RWTH Compute Cluster
Einführung der Projektbewirtschaftung des RWTH Compute Cluster 23.7.2014 Paul Kapinos Dieter an Mey Marcus Wagner IT Center der RWTH Aachen University Motivation Warum Bewirtschaftung? Erfüllung des Auftrages
MehrZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf
ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012 Scientific Computing in Düsseldorf Peter Schreiber schreiber@hhu.de 0211-81-13913 http://www.zim.hhu.de ZKI Arbeitskreis Supercomputing 20.-21.09.2012
MehrAusblick auf den HLRN III - die neue HPC Ressource für Norddeutschland
Ausblick auf den HLRN III - die neue HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 14. März 2013
Mehrmagnitude Erste Erfahrungen mit dem neuen HPC-System der UDE
magnitude Erste Erfahrungen mit dem neuen HPC-System der UDE ZKI-AK Supercomputing Holger Gollan Agenda Die Universität Duisburg-Essen (UDE) Das Zentrum für Informations- und Mediendienste (ZIM Das Center
MehrHochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner. Dr. Andreas Wolf. Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum
Hochleistungsrechnen in Darmstadt: Der Lichtenberg- Hochleistungsrechner Dr. Andreas Wolf Gruppenleiter Hochleistungsrechnen Hochschulrechenzentrum Überblick Randbedingungen der HPC Beschaffung an der
MehrErste Erfahrungen mit Installation und Betrieb
Erste Erfahrungen mit Installation und Betrieb von OpenHPC 14.10.2016 Holger Angenent Röntgenstr. 7-13, 48149 Münster 2 > Problemstellung Jeder neue Cluster kam bisher mit neuem Clustermanagement Einarbeitungszeit
MehrDer neue Hessische Hochleistungsrechner HHLR
Der neue Hessische Hochleistungsrechner HHLR Erste Erfahrungen Norbert Conrad, conrad@hrz.tu-darmstadt.de ZKIHessen 26.8.2002 1 Darmstädter Hochleistungsrechner 1987: IBM 3090 VF ( 2 x 0,12 GFLOPS Vektor
MehrHPC an der Uni Mainz
Einwicklung vom ersten Top500 Rechner bis zum AHRP HPC - AHRP - ZKI Markus Tacke, ZDV, Universität Mainz AK Supercomputer Kaiserslautern 19.4.2012 ZDV: CC NUMA 1.1.1995: Convex SPP1000/16 16 PA Risc 7100
MehrDeep Learning Appliance 4U Die Ready-to-Brain Komplett-Lösung
www.cadnetwork.de/deeplearning Die Ready-to-Brain Komplett-Lösung DIE KOMPLETTLÖSUNG FÜR IHRE AI PROJEKTE Die ist unser 8-GPU Flaggschiff für AI Anwendungen. Sie liefert das Potential für anspruchsvollste
MehrM5000 einfach ablösen durch T4/T5 LDoms und Solaris Zonen
M5000 einfach ablösen durch T4/T5 LDoms und Solaris Zonen Marcel Hofstetter JomaSoft GmbH St. Gallen / Schweiz Schlüsselworte M5000, T4, T5, LDoms, Oracle Solaris 11, Solaris Zonen, VDCF Einleitung Die
MehrNutzung der Scientific Computing Cluster. Lars-Peter Meyer
Nutzung der Scientific Computing Cluster Lars-Peter Meyer Cluster Hardware Galaxy (shared nothing) 90 Worker mit jeweils 2 Cores (2x6 Cores, Intel Haswell E5 2620v3 @2,4 GHz) 28 GByte DDR4 ECC RAM RAM
MehrHLRN III - HPC Ressource für Norddeutschland
HLRN III - HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 23. September 2014 Inhalt Der HLRN Verbund
MehrMasterarbeit Abschlussvortrag
Masterarbeit Abschlussvortrag Martin Görick, Betreuer: Barry Linnert Erstgutachter: Prof. Dr. Lutz Prechelt Zweitgutachter: Prof. Dr.-Ing. Jochen Schiller Freie Universität Berlin 26.01.2017 Master thesis
MehrMOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz
MOGON Markus Tacke HPC ZDV HPC - AHRP Was ist Mogon allgemein? Das neue High Performance Cluster der JGU Ein neues wichtiges Werkzeug für Auswertung von Messdaten und Simulationen Beispiele Kondensierte
MehrTSM 5.2 Experiences Lothar Wollschläger Zentralinstitut für Angewandte Mathematik Forschungszentrum Jülich
TSM 5.2 Experiences Lothar Wollschläger Zentralinstitut für Angewandte Mathematik Forschungszentrum Jülich L.Wollschlaeger@fz-juelich.de Contents TSM Test Configuration Supercomputer Data Management TSM-HSM
MehrLinux in allen Lebenslagen. Diskless Cluster und Lustre Erfahrungsbericht zum CHiC. Frank Mietke. Chemnitzer Linux-Tage 2007
Linux in allen Lebenslagen Diskless Cluster und Lustre Erfahrungsbericht zum CHiC Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität Chemnitz Chemnitzer
MehrNeues in Hyper-V Version 2
Michael Korp Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/mkorp Neues in Hyper-V Version 2 - Virtualisieren auf die moderne Art - Windows Server 2008 R2 Hyper-V Robust Basis:
MehrAlgorithmen und Methoden. Accounting und Monitoring heterogener Cluster
Dr. rer. nat. Stephan Raub Lehrstuhl für IT-Management Heinrich-Heine-Universität Düsseldorf Algorithmen und Methoden für Accounting und Monitoring heterogener Cluster Flashback Von mypbs zu Von
MehrDas Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ
Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ Hinnerk Stüben ZKI-Arbeitskreis Supercomputing Leibniz-Rechenzentrum, Garching 19. Oktober 2015 Themen Neues HPC-Cluster
MehrIBM Rechenzentrum Boeblingen. Hardware Entwicklung
IBM Rechenzentrum Boeblingen Hardware Entwicklung Data center Backup +USV im UG Mirror Kühlung Schritte in der Hardware Entwicklung Architecture and High Level Design Logic Design and Verification Circuit
MehrMySQL HA Lösungen für Front- und Backend. Matthias Klein
MySQL HA Lösungen für Front- und Backend Matthias Klein MySQL HA - Topics 1 Grundlagen 2 Backend 3 Frontend 2 MySQL HA About InnoGames About InnoGames Betreibt und entwickelt Browser- und Mobile Games
MehrEntgeltordnung für die Nutzung der Rechenanlagen und peripheren Geräte des Höchstleistungsrechenzentrums Stuttgart (HLRS) an der Universität Stuttgart
Entgeltordnung für die Nutzung der Rechenanlagen und peripheren Geräte des Höchstleistungsrechenzentrums Stuttgart (HLRS) an der Universität Stuttgart Vom 16. September 2008 Auf Grund von 1 Abs. 4 Satz
MehrSPEICHER-NETZWERKBETRIEB
SpeicherNETZWERKBETRIEB FIBRE CHANNEL Vom Rechenzentrum zu den Arbeitsgruppen und bis an die Unternehmensgrenzen liefert QLogic ein umfassendes Portfolio von Adaptern, Switches und Routern für iscsi- und
MehrDas HLRN-System. Peter Endebrock, RRZN Hannover
Das HLRN-System Peter Endebrock, RRZN Hannover vorweg (1) Heute Vorträge im Dreierpack: Peter Endebrock: Das HLRN-System Gerd Brand: MPI Simone Knief: OpenMP Peter Endebrock, RRZN Hannover, Kolloquium,
MehrLDom Performance optimieren
LDom Performance optimieren Marcel Hofstetter JomaSoft GmbH St. Gallen / Schweiz Schlüsselworte Virtualisierung, SPARC, T4, T5, LDom, Oracle VM Server for SPARC, VDCF Einleitung Die aktuellen Oracle SPARC
MehrEinführung in LiDO3. Einführung LiDO3. Ingo Schulz Fakultät für Informatik / ITMC CC:HPC TU Dortmund
Einführung in LiDO3 Bei Fragen / Anregungen bitte E-Mail an: lido-team.itmc@lists.tu-dortmund.de Ingo Schulz Fakultät für Informatik / ITMC CC:HPC TU Dortmund Betrieb des LiDO3 durch ITMC CC:HPC, E-Mail:
MehrHigh Performance Computing
REGIONALES RECHENZENTRUM ERLANGEN [RRZE] High Performance Computing Systemausbildung Grundlagen und Aspekte von Betriebssystemen und systemnahen Diensten, 21.06.2017 HPC-Gruppe, RRZE Agenda Was bedeutet
MehrEntwicklung eines Parsers von BIND- Konfigurationsdateien zur Migration in eine MySQL-Datenbank Markus Dienstknecht
Entwicklung eines Parsers von BIND- Konfigurationsdateien zur Migration in eine Markus Dienstknecht Seminarvortrag 15.01.2015 Inhaltsverzeichnis 1. Motivation 2. Domain Name System (DNS) a. Domain Name
MehrTowards Modular Supercomputing with Slurm
Towards Modular Supercomputing with Slurm 2017-09-25 Dorian Krause et al., Jülich Supercomputing Centre, Forschungszentrum Jülich Dual-Architecture Supercomputing Facility IBM Power 4+ JUMP, 9 TFlop/s
MehrColdCon mini MUC ein MEGWARE-Projekt am LRZ Garching
ColdCon mini MUC ein MEGWARE-Projekt am LRZ Garching Weltweit 1. direktwassergekühlter AMD-Cluster von MEGWARE Jörg Heydemüller Unternehmensprofil Gründung 1990 in Chemnitz Sachsen rund 60 hoch ausgebildete,
MehrInfiniband Kopplung Heidelberg Mannheim
Infiniband Kopplung Heidelberg Mannheim Tests aktueller Komponenten und Pläne für den Ausbau S. Richling, S. Friedel (Universität Heidelberg) S. Hau, H. Kredel (Universität Mannheim) Förderträger: www.bwhpc-c5.de
MehrWindows-HPC für 1000+ Nutzer
Windows-HPC für 1000+ Nutzer Überwachung, Optimierung, und ein paar Stunts Michael Wirtz, Christian Terboven 4. Treffen der Windows-HPC Benutzergruppe 01.04.2011 / Karlsruhe, Deutschland Version 2.3 Rechen-
Mehrherzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten
herzlich willkommen vsankameleon Anwendungsbeispiel Powered by DataCore & Steffen Informatik vsan? Kameleon? vsan(virtuelles Storage Area Network) Knoten Konzept Titelmasterformat Alle HDD s über alle
MehrS3 your Datacenter. Software Defined Object Storage. Die kostengünstige und skalierbare Lösung für Ihre unstrukturierten Daten
S3 your Datacenter Software Defined Object Storage Die kostengünstige und skalierbare Lösung für Ihre unstrukturierten Daten Unstrukturierte Daten explodieren Volume in Exabytes Sensors & Devices Social
MehrEffektive Nutzung der Simulationsumgebung Anregungen für die Praxis
1 2017 ANSYS, 14. Inc. Juni 2017 in June Winterthur 20, 2017 22. SCHWEIZER CADFEM ANSYS SIMULATION CONFERENCE Effektive Nutzung der Simulationsumgebung Anregungen für die Praxis Martin Mann Sales & Acount
MehrInfiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen support@par-tec.com
ParTec Cluster Competence Center GmbH Infiniband Diagnose und Cluster HealthCheck Arbeitskreis Supercomputing Hamburg, 2010-03-05 Peter Niessen support@par-tec.com 1 JuRoPA JSC: Sun Blade SB6048 2208 Compute
MehrOracle Database Appliance und Virtualisierung: OVM oder KVM?
Oracle Database Appliance und Virtualisierung: OVM oder KVM? Dierk Lenz DOAG Day Datenbank in virtualisierten Umgebungen Hannover 7. März 2018 Herrmann & Lenz Services GmbH Herrmann & Lenz Solutions GmbH
MehrSupermicro Hadoop Lösungen
Supermicro Hadoop Lösungen Die Frage ist nicht, ob Big Data Analytik angewendet wird, sondern wie. Unternehmen, die Hadoop Lösungen anwenden wollen, brauchen hohe Leistung und zuverlässige und skalierbare
MehrInfrastruktur für Simulationswissenschaft
Infrastruktur für Simulationswissenschaft Besuch der Freunde und Ehemaligen der Firma Bull 11. April 2013 Dieter an Mey Hochleistungsrechnen (HPC) Rechen- und Kommunikationszentrum (RZ) Introduction http://www.rwth-aachen.de
MehrHochverfügbarkeit mit Data Guard Möglichkeiten und Grenzen
Hochverfügbarkeit mit Data Guard Möglichkeiten und Grenzen DOAG Konferenz 16. 18.11.2010, Nürnberg Andreas Kother info@ordix.de www.ordix.de Agenda Definition Hochverfügbarkeit Abgrenzung RAC vs. Data
MehrODA-Lösungen von H&L
ODA-Lösungen von H&L Rundum-sorglos-Pakete für jeden Einsatzzweck Peter Bekiesch 26.10.2016 Die ODA Der Baukasten für Ihre Oracle-Datenbanken Für jeden Einsatzzweck die passenden Bausteine Komponente ODA
MehrODA Erfahrungen und Neuigkeiten
ODA Erfahrungen und Neuigkeiten Dierk Lenz 25. Oktober 2017 Köln Oracle Database Appliance (ODA) Mitglied der Familie der Oracle Engineered Systems, d.h.: Hardware und Software (Betriebssystem, Datenbank)
MehrTitelmasterformat durch Klicken bearbeiten
Titelmasterformat durch Klicken Titelmasterformat durch Klicken Huawei Enterprise Server Systeme Global Player auf dem Server- und Storagemarkt Scale up Übersicht Titelmasterformat durch Klicken Textmasterformat
MehrBetrieb eines heterogenen Clusters
Betrieb eines heterogenen Clusters Georg Hager Regionales Rechenzentrum Erlangen (RRZE) ZKI AK Supercomputing Karlsruhe, 22./23.09.2005 Transtec GBit/IB-Cluster am RRZE IA32-Cluster 04/2003 86+2 Knoten
MehrA N H A N G. zur Entgeltordnung für die Rechenanlagen. NEC SX-4/32, NEC SX-5/32 M2, CRAY T3E LC512 und HITACHI SR Stand 1. 1.
1 Rechenzentrum der Universität Stuttgart A N H A N G zur Entgeltordnung für die Rechenanlagen NEC SX-4/32, NEC SX-5/32 M2, CRAY T3E LC512 und HITACHI SR 8000 Stand 1. 1. 2002 1. ERMITTLUNG DER RECHENLEISTUNG
MehrVMware vsphere 6.0 Neuigkeiten und neue Features
VMware vsphere 6.0 Neuigkeiten und neue Features Präsentation 30. Juni 2015 1 Diese Folien sind einführendes Material für ein Seminar im Rahmen der Virtualisierung. Für ein Selbststudium sind sie nicht
MehrUBELIX University of Bern Linux Cluster
University of Bern Linux Cluster Informatikdienste Universität Bern ID BEKO Grid Forum 7. Mai 2007 Inhalt Einführung Ausbau 06/07 Hardware Software Benutzung Dokumentation Gut zu wissen Kontakt Apple/Mac:
MehrCopyright 2014 Hewlett-Packard Development Company, L.P. The information contained herein is subject to change without notice.
Datacenter Architects Schritt für Schritt in das automatisierte Rechenzentrum mit HP Server Infrastruktur Stefan Weber Strategic Sales Consultant HP Enterprise Group Strategie Wachsende Rechenzentrumkonvergenz
MehrServervirtualisierung bei der GWDG GWDG IK, 27.6.2007
Servervirtualisierung bei der GWDG GWDG IK, 27.6.2007 von Andreas Ißleiber (aisslei@gwdg.de) Gesellschaft für wissenschaftliche Datenverarbeitung mbh Göttingen Am Fassberg, 37077 Göttingen Fon: 0551 201-1510
MehrWissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel
Wissenschaftliches Rechnen an der Christian- Albrechts-Universität zu Kiel ZKI-Tagung, AK Supercomputing, 16.-17.03.2015 Holger Marten Landeshauptstadt Kiel - Bodo Quante 1. Etwas Historie 16.03.2015 Dr.
MehrFlexFrame for Oracle. Torsten Schlautmann OPITZ CONSULTING Gummersbach GmbH
Torsten Schlautmann torsten.schlautmann@opitz-consulting.de OPITZ CONSULTING Gummersbach GmbH +49 2261 6001-1175 Agenda Funktionsweise Einsatzszenarien Rahmenbedingungen Zusammenfassung Fragen und Antworten
MehrBasisinformationstechnologie I Wintersemester 2011/ November 2011 Betriebssysteme
Basisinformationstechnologie I Wintersemester 2011/12 23. November 2011 Betriebssysteme Seminarverlauf 12. Oktober: Organisatorisches / Grundlagen I 19. Oktober: Grundlagen II 26. Oktober: Grundlagen III
MehrTFS 2013 Upgrade. Thomas Trotzki - artiso AG
TFS 2013 Upgrade Thomas Trotzki - artiso AG Upgrade Strategien Data/Application Tier Anpassung von Process Templates Build Test/Lab Performance TFS Version Control Workitem Tracking Build Verwaltung Test
Mehrquickterm Systemvoraussetzungen Dokumentversion 1.0
quickterm 5.6.6 Systemvoraussetzungen Inhaltsverzeichnis Inhaltsverzeichnis 1 Systemvoraussetzungen quickterm Server... 3 2 Systemvoraussetzungen quickterm Client... 5 3 Systemvoraussetzungen quickterm
MehrID-Beko. 2. Februar 2015
Themenschwerpunkte Gruppe Infrastruktur Alle: Neue Gebäude (1) ZSSw UniSport: über 250 aktive Anschlüsse rund 40 WLAN Sender Bezug ab Juli 2015 durch: UniSport Institut für Sportwissenschaften und ein
MehrCHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm
CHiC er Hochleistungs-Linux Cluster Stand HPC Cluster CHiC, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
MehrIBM Storage Virtualisierungslösungen. sungen
1 IBM Storage Virtualisierungslösungen sungen Storage Virtualisierung mit IBM SAN Volume Controller IBM SAN Volume Controller 6.1 Highlights Easy Tier IBM Storwize V7000 Karl Hohenauer IBM System Storage
MehrWeblogic 12.2 und DB 12.2 das perfekte Duo
Gemeinsam mehr erreichen. Weblogic 12.2 und DB 12.2 das perfekte Duo Matthias Fuchs, Andreas Chatziantoniou Vorstellung > Esentri > Matthias Fuchs > Oracle Partner Spezialized SOA > Ettlingen, Nürnberg
MehrAEQUO Adaptive und energieeffiziente Verteilung von virtuellen Maschinen in OpenStack-Umgebungen
AEQUO Adaptive und energieeffiziente Verteilung von virtuellen Maschinen in OpenStack-Umgebungen Kai Spindler Sebastian Rieger [vorname.nachname]@informatik.hs-fulda.de Agenda Virtualisierung mit OpenStack
Mehr15 Jahre SharePoint-Technologie
15 Jahre SharePoint-Technologie 2001 2003 2007 2010 2013 2015 SharePoint auf dem Abstellgleis SharePoint ist zurück! workloads Der Fortune 500 Unternehmen haben Office 365 Lizenzen in den vergangenen 12
MehrHochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen
Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem hristian Terboven Rechen- und Kommunikationszentrum RWTH Aachen 1 Hochleistungsrechnen mit Windows enter omputing and ommunication
Mehr-0 FDDI-Anschluß. m 256MB. m 512 MB Memory. Parallelrechner IBM SP. HRZ Uni Marburg. Frame 2. Frame 3. Frame 1. Ethernet mit allen Knoten
HRZ Uni Marburg Parallelrechner IBM SP Ethernet mit allen Knoten 3 externe SSADisks 12 * 4.5 GB Parallele Filesysteme 8 * 4.5 GB Benutzer- Filesysteme SP Switch SP Switch SP Switch ~ 128MB m 256MB m 512
Mehr18. Juni 2008, Berlin. Erfahrungsbericht üb das Backup und Recovery von ORAC Datenbanken mit Commvault QNetix. Dagmar Förster
18. Juni 2008, Berlin Erfahrungsbericht üb das Backup und Recovery von ORAC Datenbanken mit Commvault QNetix Dagmar Förster genda Kurzprofil Paragon Data Situationsbeschreibung Sicherungskonzept Realisierung
MehrOracle Real Application Cluster
Oracle Real Application Cluster Björn Bröhl OPITZ CONSULTING Gummersbach GmbH Seite 1 Übersicht Die RAC Architektur RAC Komponenten (Hard- und Software) Oracle Cluster Filesystem vs. Oracle Automatic Storage
MehrOracle Workload für den Mainframe
Oracle Workload für den Mainframe DOAG Regionalgruppe 18.01.2005 Joachim Jaensch Principal Sales Consultant BU Datenbank und Plattformtechnologien joachim.jaensch jaensch@oracle.com Agenda Der Mainframe
MehrGPGPUs am Jülich Supercomputing Centre
GPGPUs am Jülich Supercomputing Centre 20. April 2012 Jochen Kreutz Jülich Supercomputing Centre (JSC) Teil des Forschungszentrums Jülich und des Institute for Advanced Simulation (IAS) betreibt Supercomputer
MehrRWTH - Umgebung. Übersicht. Seite 1. RWTH-Umgebung. Sun Grid Engine. Dateimanagement. Archiv. Backup. Seite 2. RWTH-Umgebung
RWTH Ugebung Seite 1 Übersicht Sun Grid Engine Dateianageent Archiv Backup Seite 2 Sun Grid Engine Warteschlange für Prograe Verteilt Prograe über das ganze Cluster Sorgt für Lastausgleich (verhindert
MehrT-Systems SfR - HPCN Workshop
HPC System Design und die Auswirkungen auf die Anwendungsperformance Thomas Alrutz HPC & escience Solutions & Innovations - Scientific & Technical ICT T-Systems Solutions for Research GmbH T-Systems SfR
MehrRoadshow - What s new in SQL Server 2016
1 Roadshow - What s new in SQL Server 2016 Kursleitung: Dieter Rüetschi (ruetschi@ability-solutions.ch) 2 Inhalt Fachreferat Everything-Built-In Mission Critical Plattform Security Hochverfügbarkeit Advanced
MehrHugepages, NUMA or nothing on Linux?
Hugepages, NUMA or nothing on Linux? Daniel Hillinger Value Transformation Services S.r.l. Zweigniederlassung Deutschland München Schlüsselworte Memory; Arbeitsspeicher; NUMA; Hugepages Einleitung Speicherarchitekturen
MehrHP ProLiant Gen9 Server Reimagine the server. Think compute.
HP ProLiant Gen9 Server Reimagine the server. Think compute. Rebecca Dal Canton Product Marketing Manager HP Servers Mark Wunderli Senior Technology Consultant HP Servers HP ProLiant Gen9 Server The right
MehrPakete für Beach Projekte
Pakete für Beach Projekte Micro Starter Essential Business Premium Für was es gedacht ist Die Features sind nicht so wichtig, Hauptsache meine Neos Site läuft rund! Ein professionelles Zuhause für die
MehrWechsel von Oracle Cloud Control 12c zu 13c Christoph Bauermeister
Wechsel von Oracle Cloud Control 12c zu 13c Christoph Bauermeister WeR Bin Ich Oracle 9i Oracle12c Oracle Enterprise Manager 10g, Grid Control 11g Erfahrungen Oracle Cloud Control 12c im SAP Umfeld SAP
MehrWas ist neu in der SQS-TEST /Professional Suite
SQS der weltweit führende Spezialist für Software-Qualität sqs.com Bitte kopieren Sie eine Folie mit einem geeigneten Bildmotiv aus der Datei Title Slides_DE.pptx (zum Download in den Präsentationsmodus
MehrOracle Lizenznews. Michael Paege, Competence Center Lizenzierung, DOAG
Oracle Lizenznews Michael Paege, Competence Center Lizenzierung, DOAG Vorstellung Michael Paege Hauptamtlich: bei OPITZ CONSULTING Director License Management Consulting Lizenzberatung qualifizierter LMS
MehrIbis. Jan Frederik Naujoks
Ibis Jan Frederik Naujoks Gliederung: 1. Überblick über das Ibis Projekt 2. Features 3. Architektur 4. Programmiermodelle 5. Ibis und Middleware 6. Portabilität 7. Entwicklung und Nutzung 8. Fazit 2 Was
Mehr( ZIH ) Zentrum für Informationsdienste und Hochleistungsrechnen. Kooperation mit Microsoft und Dell
( ZIH ) Zentrum für Informationsdienste und Hochleistungsrechnen Kooperation mit Microsoft und Dell Windows-HPC-Cluster von Dell Symbolische Übergabe auf der ISC 2008 Anlieferung im Juni 2008 Kooperation
MehrVIRTUELLE APPLICATION DELIVERY LÖSUNGEN Network Virtualization Day magellan netzwerke GmbH
VIRTUELLE APPLICATION DELIVERY LÖSUNGEN Network Virtualization Day 2013 Referent 2 Rückblick Wat is en Dampfmaschin? 3 Rückblick Klassisches Beispiel: Webseite 4 Rückblick Klassisches Beispiel: Webseite
MehrInoNet Server Porftolio. Zuverlässige, industrielle Server-Performance
InoNet Server Porftolio Zuverlässige, industrielle Server-Performance Übersicht Server Portfolio Industrielle 19 Server von InoNet Die industriellen 19 Server von InoNet finden Anwendung in vielen unterschiedlichen
MehrRed Hat On-Premise und in der Public Cloud. Michael Heß Business Development Manager Red Hat
Red Hat On-Premise und in der Public Cloud Michael Heß Business Development Manager Red Hat Michael Heß Verantwortlich für: Ihr erster Ansprechpartner innerhalb der COMPAREX zum Thema Red Hat Beratung
MehrC C. Hochleistungsrechnen (HPC) auf dem Windows Compute Cluster des RZ der RWTH Aachen. 1 WinHPC 2006 - Einführung Center. 31.
Hochleistungsrechnen (HP) auf dem Windows ompute luster des RZ der RWTH Aachen 31. Mai 2006 hristian Terboven Dieter an Mey {terboven anmey}@rz.rwth-aachen.de 1 WinHP 2006 - Einführung enter SunFire V40z
MehrOracle Weblogic Administration Grundlagen
Oracle Weblogic Administration Grundlagen Seminarunterlage Version: 1.12 Version 1.12 vom 15. Juni 2018 Dieses Dokument wird durch die veröffentlicht.. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen
MehrWebLogic Server im Zusammenspiel mit Real Application Cluster
WebLogic Server im Zusammenspiel mit Real Application Cluster Michael Bräuer Leitender Systemberater Sylvie Lübeck Leitende Systemberaterin ORACLE Deutschland B.V. & Co. KG The following is intended to
MehrOracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen
DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension
MehrOracle Database Appliance Cloud-fähige Datenbanklösung der Unternehmensklasse jetzt für jede Organisation erschwinglich
Oracle Database Appliance Cloud-fähige Datenbanklösung der Unternehmensklasse jetzt für jede Organisation erschwinglich Oracle Database Appliance IT auf einer ganz neuen Ebene NEUE SYMBOLE FÜR DEN NEUEN
MehrPSC Demo VMware Dynamic Data Center Seminar
Herzlich Willkommen PSC Demo VMware Dynamic Data Center Seminar - ladecenter / DS4300 - InLIS mbh Raphael ühner Ralph iedermann März 2007 Dieses Dokument beinhaltet geistiges Eigentum der InLIS mbh und
MehrVirtualisierung: Neues aus 2010 und Trends 2011
Virtualisierung: Neues aus 2010 und Trends 2011 Werner Fischer, Technology Specialist Thomas-Krenn.AG Thomas Krenn Herbstworkshop 2010 Freyung, 24. September 2010 Agenda 1) Virtualisierungs-Software VMware
MehrOSL UVE Erfahrungen in Projekten 29. November 2017
Impuls-Vortrag OSL UVE Erfahrungen in Projekten 29. November 2017 Vorspann Begriffe OSL UVE: Deutsche Infrastrukturlösung für ein Software-definiertes Datacenter SDDC als Produkt. Hier können, im Gegensatz
MehrEine dynamische Infrastrukturkonsolidierung bei ÖBB
Christian Müksch, ÖBB Information Services Martin Balaz, IBM Österreich 8. Oktober 2009 Eine dynamische Infrastrukturkonsolidierung bei ÖBB Rechenzentrumskonsolidierung der UNIX Plattformen Drei Power
MehrDatenschleuse Plus. Bedrohungen durch Schadsoftware beseitigen
Bedrohungen durch Schadsoftware beseitigen USB Quick-Scan USB to Secure USB USB to Network-Share Network to Network Einführung Ihr Gatekeeper - beim Eintritt von Daten in ein Netzwerk und als Dienst zwischen
MehrExadata und In-Memory Datenbewirtschaftung und Analyse Extrem mit Exadata und InMemory (Erfahrungsbericht)
Exadata und In-Memory Datenbewirtschaftung und Analyse Extrem mit Exadata und InMemory (Erfahrungsbericht) Christian Haag, DATA MART Consulting Consulting Manager Oracle DWH Team Inhalt Thematik (Einordnung
MehrWindows HPC Server 2008 aus der Betreiberperspektive
Windows HPC Server 2008 aus der Betreiberperspektive Michael Wirtz wirtz@rz.rwth aachen.de Rechen und Kommunikationszentrum RWTH Aachen WinHPC User Group Meeting 2009 30./31. März 09, Dresden Agenda o
MehrHeadnode Installation
31 32 33 34 35 36 LAB: Computeode Demo: Automatische Erkeug eies eue Kotes ud Zuweise des Default Templates 37 Computeode 3 Möglichkeite um Computekote eizubide: automatische Erkeug über PXE Import eier
MehrHands-On Session. Detlef Buerdorff Connect Deutschland Eventmanager buerdorff@connect-community.de. Alexander Niessen Hewlett-Packard GmbH
Hands-On Session Detlef Buerdorff Deutschland Eventmanager buerdorff@connect-community.de Alexander Niessen Hewlett-Packard GmbH Alexander.niessen@hp.com Die Handelsplattform Aufgabenstellung Bereitstellung
MehrParallel Computing. Einsatzmöglichkeiten und Grenzen. Prof. Dr. Nikolaus Wulff
Parallel Computing Einsatzmöglichkeiten und Grenzen Prof. Dr. Nikolaus Wulff Parallel Architekturen Flynn'sche Klassifizierung: SISD: single Instruction, single Data Klassisches von-neumann sequentielles
Mehr