bw-grid Cluster in Mannheim
|
|
- Bärbel Lorentz
- vor 2 Jahren
- Abrufe
Transkript
1 bw-grid Cluster in Mannheim Dr. Heinz Kredel mit Helmut Fränznick, Rudi Müller, Steffen Hau, Andreas Baust
2 Inhalt Grid und D-Grid BMBF Projekt bw-grid Cluster Stand: Aufbau und Inbetriebnahme Benutzung Aufgaben
3 Grid The Grid is a system that: coordinates resources that are not subject to centralized control using standard, open, general-purpose protocols and interfaces... to deliver nontrivial qualities of service. Ian Foster, 2002
4 War MACH ein Grid? Rechnerkopplung Mannheim - Heidelberg ca synchrone Modem Standleitung mit 64Kbit zwischen Siemens und IBM Mainframes dezentral, ok offene Standards, BC, X-25 Protokoll? nicht triviale Dienste, ok Plotausgabe, Filetransfer Remote Job Execution
5 D-Grid Das Grid ermöglicht den direkten Zugriff auf Ressourcen, wie Rechner, Speicher, wissenschaftliche Instrumente und Experimente, Anwendungen und Daten, Sensoren und sogenannte Grid- Middleware Dienste basierend auf weit verbreiteten Grid- und Web- Services-Standards. D-Grid Web-Seite, 2008
6 D-Grid Projekte
7 D-Grid Ressourcen
8 bw-grid Cluster Projektantrag vom HLRS an BMFT in 2007 für D-Grid Infrastruktur an den Universitäten in Baden-Württemberg explizit als verteiltes System mit dezentraler Verwaltung an den Standorten Stuttgart, Ulm (mit Konstanz), Freiburg, Tübingen, Karlsruhe, Heidelberg, Mannheim für die nächsten 5 Jahre
9 bw-grid Ziele Nachweis der Funktionalität und des Nutzens von Gridkonzepten im HPC Umfeld Überwindung von bestehenden Organisationsund Sicherheitsproblemen Entwicklung von neuen Cluster- und Grid- Anwendungen Lösung der Lizenzproblematik Ermöglichung der Spezialisierung von Rechenzentren
10 1120 Cores in Mannheim Hardware 101 IBM Blade-Center Gehäuse mit je 14 IBM HS21 XM Blades mit je 2 Intel Xeon CPUs, 2.8 GHz mit je 4 Cores 16 GB Hauptspeicher keine Festplatten Gigabit Ethernet Infiniband Netzwerk = 1414 Blades = CPU Cores,
11 Racks mit Blade Center
12 Netz
13 Software Scientific Linux 5.0 basierend auf RedHat 5.0 Quellcode gepflegt u.a. vom CERN dort sind ca Rechner für LHC im Einsatz ähnlich CentOS, wie bei Mailbox-Servern booten über das Netz mit DHCP und TFTP Festplatten über NFS minimaler Swap-Bereich über NBD Kernel und System Image vom HLRS vorbereitet
14 Anwendungen Mathematik Biowissenschaften Ingenieurwiss. Wirtschaftswiss. Chemie Physik Informatik Freiburg 25% CFD 20% Mikrosystemt. Heidelberg 25% CAS, Ug 20% Comp. NeuroSc. Karlsruhe 10 % LinAlg 30% CFD, CSM Konstanz x SPH x Biochemie x Theor. Ph, QM x DataMining Mannheim 15% CAS 30% CAS, Simulation Stuttgart 35% CFD, Comp.Mech. Tübingen 20% BioInfo 25% Astrophysik Ulm 5% BioInfo, Medizin 25% Theor. Ch, MD Alle: ca. 55% Betrieb, Middleware, Compiler, Tools CFD = Computational Fuid Dynamics CAS = Computer Algebra Systems MD = Molecular Dynamics QM = Quantum Mechanics
15 Stand des Aufbaus Hardware geliefert und aufgebaut, Januar bis März Schwierigkeiten die Racks mit dem Fahrstuhl ins 11. OG zu transportieren Demontage notwendig funktioniert nach Austausch defekter Komponenten Infiniband HCA defekt Ethernet Switch in Bladecenter defekt lose Kabel und Module ein-/ausgesteckt Luft-Kühlung über Klimaanlage funktioniert Stromanschlüsse werden noch überarbeitet
16 Stand der Installation Software Zugangsknoten sind installiert Betriebssystem ist installiert und läuft auf Blades Netzwerk funktioniert, Ethernet und auch Infiniband Festplatten Platz für Home-Dirs über NFS-Server Benutzerverwaltung ist konfiguriert, über LDAP Batchsystem ist installiert und teilweise konfiguriert Zugang: ssh -XY ssh n010301
17 Benutzung Batchsystem qsub shell-script qstat nstat PBS Optionen #PBS -l nodes=30 #PBS -q normal Ergebnis in home shell-script.o113 shell-script.e113
18 Middleware und Ressourcen
19 Aufgaben - Middleware Konfiguration des Batchsystems mehrere Queues mit verschiedenen Qualitäten Installation der Grid-Middleware Globus-Toolkit, DoE-, NSF-Projekt UNICORE, EU-Projekt LCG/gLite, LHC Computing Projekt Konfiguration der Benutzer-Zugangsrechner Schulung und Information der Benutzer
20 Virtuelle Organisationen
21 Aufgaben - Integration D-Grid Virtuelle Organisation (VO) aufsetzen Mitglied in VO werden, Grid-Zertifikate D-Grid Ressourcen aufsetzen und registrieren D-Grid Benutzerverwaltung Anbindung an zentralen Storage von bw-grid geplantes Projekt ab 2008 über HBFG Antrag
22 Aufgaben - Software Cluster Programmierungs Tools MPI OpenMP Intel Compiler Installation der Anwendersoftware Matlab Maple Mathematica (Grid) R Octave
23 Vor- und Nachteile Lernaufwand für Entwicklung paralleler Programme und Batch-System Lernaufwand für die Grid-Middleware und Einrichtung der Grid-PKI Anforderungen State-of-the-art Plattform für Mannheim Zugang zu (fast) allen D-Grid-Ressourcen Auslastung unseres Clusters wird höher seine Programme muss jede(r) immer noch selbst parallelisieren Lizenzen für kommerzielle Software können recht teuer werden
24 Vielen Dank für die Aufmerksamkeit es besteht die Möglichkeit zu einer Führung zum bw-grid Cluster weitere Veranstaltungen folgen Links https://www.scientificlinux.org/
Programmierung und Leistungsanalyse des bwgrid-clusters. Dr. Heinz Kredel und Dr. Hans-Günther Kruse
Programmierung und Leistungsanalyse des bwgrid-clusters Dr. Heinz Kredel und Dr. Hans-Günther Kruse Inhalt bwgrid Cluster Programmierung Threads, OpenMP, Kommunikation, OpenMPI, Strategien Leistungsanalyse
Cluster-Computing am Beispiel bwgrid. Dr. Heinz Kredel Rechenzentrum der Universität Mannheim
Cluster-Computing am Beispiel bwgrid Dr. Heinz Kredel Rechenzentrum der Universität Mannheim Inhalt Grid bwgrid Cluster Cluster Administration und Betrieb Cluster Nutzung Grid The Grid is a system that:
Einführung in wiss. Software. bwgrid-cluster
Einführung in wiss. Software auf dem bwgrid-cluster Dr. Heinz Kredel und Dr. Sabine Richling Inhalt bwgrid Cluster Java Programmierung Java Threads, Java OpenMP, TCP/IP Kommunikation, Java MPP, Strategien
Kopplung der bwgrid Cluster. Heidelberg und Mannheim
Kopplung der bwgrid Cluster von Heidelberg und Mannheim Steffen Hau, Heinz Kredel, Sabine Richling, Rolf Bogus ZKI AK Supercomputing, zib, FU Berlin, Oktober 2009 Inhalt Heidelberg und Mannheim bwgrid
Das bwgrid High Performance Compute Cluster als flexible, verteilte Wissenschaftsinfrastruktur
Das bwgrid High Performance Compute Cluster als flexible, verteilte Wissenschaftsinfrastruktur Marek Dynowski (Universität Freiburg) Michael Janczyk (Universität Freiburg) Janne Schulz (Universität Freiburg)
Strukturen im D-Grid. Uwe Schwiegelshohn D-Grid GmbH / TU Dortmund. 3. DFN Kommunikationsforum Konstanz, Mai 2010
Strukturen im D-Grid Uwe Schwiegelshohn D-Grid GmbH / TU Dortmund 3. DFN Kommunikationsforum Konstanz, Mai 2010 Was ist das Grid? coordinated resource sharing and problem solving in dynamic, multi-institutional
bwgrid heute ein Überblick Sven Hermann (KIT)
bwgrid heute ein Überblick Sven Hermann (KIT) Übersicht bwgrid...... Partner... Infrastruktur... aus Nutzersicht Webseite, Nutzergruppen, Publikationen, bwgrid-vo, Nutzerportal... als Projekt BSCW, Erfolge
UBELIX University of Bern Linux Cluster
University of Bern Linux Cluster Informatikdienste Universität Bern ID BEKO Grid Forum 7. Mai 2007 Inhalt Einführung Ausbau 06/07 Hardware Software Benutzung Dokumentation Gut zu wissen Kontakt Apple/Mac:
Warum in die Ferne schweifen?
Eine Reise nach Palma B. Süselbeck Warum in die Ferne schweifen? Lokale Ressourcen reichen nicht trotz Parallelisierung Lokale Hardwarebeschaffung zu teuer, nur gelegentlich benutzt 1 Demo Ein kleines
ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012. Scientific Computing in Düsseldorf
ZKI AK Supercomputing Herbsttagung 2012 20.-21.09.2012 Scientific Computing in Düsseldorf Peter Schreiber schreiber@hhu.de 0211-81-13913 http://www.zim.hhu.de ZKI Arbeitskreis Supercomputing 20.-21.09.2012
Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim
Sven Hartlieb Cloud-Computing Seminar Hochschule Mannheim WS0910 1/23 Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Fakultät für Informatik Hochschule
Instant-Grid ein Grid in 15 Minuten
Instant-Grid ein Grid in 15 Minuten Vortrag von Andreas Félix beim Practical Linux Forum des LinuxTag 2006 Gesellschaft für wissenschaftliche Datenverarbeitung Göttingen mbh Übersicht über den Vortrag
Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund
Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund Das Wissenschaftlichen Rechnen hat sich in Forschung und Lehre in den letzten Jahren zu einem wichtigen
Private Cloud mit Eucalyptus am SCC
Private Cloud mit Eucalyptus am SCC Christian Baun 15. Dezember 2009 KIT The cooperation of Forschungszentrum Karlsruhe GmbH und Universität Karlsruhe (TH) http://www.kit.edu Cloud-Comuting = Grid-Computing?!
Patagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre
Patagonia - Ein Mehrbenutzer-Cluster für Forschung und Lehre Felix Rauch Christian Kurmann, Blanca Maria Müller-Lagunez, Thomas M. Stricker Institut für Computersysteme ETH Zürich Eidgenössische Technische
LCG. LHC Computing Grid. Rolf Reinthaler. Universität Würzburg. 17. Juli 2009
LCG LHC Computing Grid Rolf Reinthaler Universität Würzburg 17. Juli 2009 Rolf Reinthaler (Universität Würzburg) LHC Computing Grid 17. Juli 2009 1 / 28 Contents 1 Anforderungen an das LHC Computing 2
Grid Computing 19.12.2008. Grid Computing. Luca Debiasi. Siegmar Alber. Grundlagen. Aufbau. Grids im Laufe der Zeit. Vor- und Nachteile.
Luca Debiasi 19.12.2008 Überblick Was ist ein Grid? Vergleiche Geschichte Zukunft und Ziele Worldwide LHC Computing-Grid Frauenhofer Resource Grid Überblick Was ist ein Grid? Vergleiche Geschichte Zukunft
Erweiterung einer D-Grid Ressource um eine Compute Cloud Schnittstelle
am am Erweiterung einer D-Grid Ressource um eine Compute Schnittstelle 3. DFN-Forum 2010 Kommunikationstechnologien Verteilte Systeme im Wissenschaftsbereich Stefan Freitag Institut für Roboterforschung
Fluent auf Windows HPC Server 2008. ict ag - Mit uns können Sie rechnen
Fluent auf Windows HPC Server 2008 ict ag - Mit uns können Sie rechnen Historie der ict AG Die ict (information communication technology) AG mit Sitz in Aachen, wurde im Jahre 1985 gegründet und übernimmt
Datenaustausch im Rechnerverbund NRW. Thomas Eifert Rechen- und Kommunikationszentrum der RWTH Aachen eifert@rz.rwth-aachen.de
Datenaustausch im Rechnerverbund NRW Rechen- und Kommunikationszentrum der RWTH Aachen eifert@rz.rwth-aachen.de RV-NRW: Status Der Verbund auf Basis von DCE/DFS läuft technisch stabil Rechenzentren stellen
Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen
Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem hristian Terboven Rechen- und Kommunikationszentrum RWTH Aachen 1 Hochleistungsrechnen mit Windows enter omputing and ommunication
science + computing ag
science + computing ag Evaluation der Integration von Windows HPC in eine bestehende Berechnungsumgebung Harry Schlagenhauf science + computing ag IT-Dienstleistungen und Software für anspruchsvolle Rechnernetze
Cluster-Benutzerverwaltung: erste Schritte mit Shibboleth
Cluster-Benutzerverwaltung: erste Schritte mit Shibboleth Steffen Hau, Reinhard Mayer, Sabine Richling, Tobias Kienzle, Heinz Kredel Rechenzentrum Universität Mannheim Universitätsrechenzentrum Heidelberg
Betrieb eines heterogenen Clusters
Betrieb eines heterogenen Clusters Georg Hager Regionales Rechenzentrum Erlangen (RRZE) ZKI AK Supercomputing Karlsruhe, 22./23.09.2005 Transtec GBit/IB-Cluster am RRZE IA32-Cluster 04/2003 86+2 Knoten
Mindestanforderungen an Systemumgebung Für die Nutzung von excellenttango
Die Hardware- und Softwareanforderungen sind als allgemeine Anforderungen zu betrachten. Zahlreiche Faktoren können sich auf diese Anforderungen auswirken und müssen daher beachtet werden: Die Anzahl und
AnyOS Setupbeschreibung Installation und Konfiguration Bedienung Fazit. AnyOS. Axel Schöner. 25. August 2012
25. August 2012 1 Typische Voraussetzungen eines Betriebssystems Was ist Anwendungsbereiche 2 Benötigte Serverkomponenten Komponenten des Clientsystems Upstart-Skripte von Bootvorgang 3 Installation des
Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel
Freiberuflicher Schwerpunkte: Unix, Oracle, Netzwerk 2005 1 Testaufbauten von Oracle 10g RAC auf preiswerter Hardware 2 3 Typisches Cluster System Clients Public Network Node A Node B Cluster Interconnect
BIS-Grid: Kommerzieller Einsatz von Grid-Middleware am Beispiel betrieblicher Informationssysteme. Prof. Dr. W. Hasselbring
BIS-Grid: Kommerzieller Einsatz von Grid-Middleware am Beispiel betrieblicher Informationssysteme Prof. Dr. OFFIS Institut für Informatik FuE-Bereich Betriebliches Informationsmanagement (BI) Ausgangssituation
HLRN III - HPC Ressource für Norddeutschland
HLRN III - HPC Ressource für Norddeutschland Holger Naundorf RRZN Leibniz Universität IT Services Schloßwender Straße 5 30159 Hannover naundorf@rrzn.uni-hannover.de 23. September 2014 Inhalt Der HLRN Verbund
Linux am DESY in Zeuthen
Linux am DESY in Zeuthen Einsatz von Linux Wofür? Wieviel? Automatisierte Installation und Administration Warum? Wie? Einsatz: Art und Umfang http, ftp, samba, cups, dhcp, ldap, spam filter, radius...
Oracle EngineeredSystems
Oracle EngineeredSystems Überblick was es alles gibt Themenübersicht Überblick über die Engineered Systems von Oracle Was gibt es und was ist der Einsatzzweck? Wann machen diese Systeme Sinn? Limitationen
Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de
Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften Agenda Einleitung Vor- und Nachteile der Virtualisierung Virtualisierungssoftware
Diskless Cluster und Lustre Erfahrungsbericht zum CHiC
Diskless Cluster und Lustre Erfahrungsbericht zum CHiC, Torsten Hoefler, Torsten Mehlan und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
CHiC Chemnitzer Hochleistungs-Linux Cluster. Stand HPC Cluster CHiC. Frank Mietke, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm
CHiC er Hochleistungs-Linux Cluster Stand HPC Cluster CHiC, Torsten Mehlan, Torsten Höfler und Wolfgang Rehm Fakultätsrechen- und Informationszentrum (FRIZ) / Professur Rechnerarchitektur Technische Universität
Aufbau eigener Cloud-Infrastrukturen mit Eucalyptus Hochschule Mannheim
Andreas Ries Cloud-Computing Seminar Hochschule Mannheim WS0910 1/26 Aufbau eigener Cloud-Infrastrukturen mit Eucalyptus Hochschule Mannheim Andreas Ries Fakultät für Informatik Hochschule Mannheim ries.andreas@web.de
Hochleistungsrechnen in Grids. Seminar: Grid-Middleware. Mirko Dietrich mirko.dietrich@hrz.uni-kassel.de. 4. Dezember 2006
Seminar: Hochleistungsrechnen in Grids Grid-Middleware Mirko Dietrich mirko.dietrich@hrz.uni-kassel.de 4. Dezember 2006 2 Inhalt Funktionen einer Grid-Middleware Grid Standards Middleware-Systeme Zusammenfassung
Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ
Das Prinzip der kleinsten Überraschung Konfiguration des neuen HPC-Clusters am RRZ Hinnerk Stüben ZKI-Arbeitskreis Supercomputing Leibniz-Rechenzentrum, Garching 19. Oktober 2015 Themen Neues HPC-Cluster
Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2013. Tim Conrad
Blockseminar: Verteiltes Rechnen und Parallelprogrammierung Sommer Semester 2013 Tim Conrad Staff Tim Conrad AG Computational Proteomics email: conrad@math.fu-berlin.de Telefon: 838-51445 Büro: Raum 138,
Paralleles Rechnen und Grid Computing am ZIV Zustandsbericht und Ausblick
Dipl. Geophys. Martin Leweling (lewelin@uni muenster.de) Westfälische Wilhelms Universität Münster Zentrum für Informationsverarbeitung Inhalt Parallelrechner ZIVcluster Hard und Softwareausstattung des
VMware als virtuelle Plattform
VMware als virtuelle Plattform Andreas Heinemann aheine@gkec.informatik.tu-darmstadt.de Telekooperation Fachbereich Informatik Technische Universität Darmstadt Übersicht Einführung VMware / Produkte /
Die Speicherstruktur der FSU Jena. Udo Tödter, FSU Jena
Udo Tödter, FSU Jena Der Universitätscampus ist über die Stadt verteilt. Das URZ ist für die Bereitstellung der Dateninfrastruktur verantwortlich. Einzelne Fakultäten betreiben jedoch eigene Rechenzentren.
WINDOWS 8 WINDOWS SERVER 2012
WINDOWS 8 WINDOWS SERVER 2012 IT Fachforum 2012 :: 24.09.-27.09.2012 Andreas Götzfried IT Fachforum::Agenda Windows 8 Windows Server 2012 Zertifizierung WINDOWS 8 Schöne neue Welt Andreas Götzfried Windows
MATCHING VON PRODUKTDATEN IN DER CLOUD
MATCHING VON PRODUKTDATEN IN DER CLOUD Dr. Andreas Thor Universität Leipzig 15.12.2011 Web Data Integration Workshop 2011 Cloud Computing 2 Cloud computing is using the internet to access someone else's
Das LHC-Computing-Grid
Das LHC-Computing-Grid Von Julian Gethmann WS 11/12 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Überblick Ansprüche an die Rechnerinfrastruktur
XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25
XEN Performance Projektpraktikum Informatik Arne Klein 2008-02-26 Arne Klein () XEN Performance 2008-02-26 1 / 25 1 Virtualisierung mit XEN 2 Performance von XEN Allgemeines Netzwerk-Performance IO-Performance
( ZIH ) Zentrum für Informationsdienste und Hochleistungsrechnen. Kooperation mit Microsoft und Dell
( ZIH ) Zentrum für Informationsdienste und Hochleistungsrechnen Kooperation mit Microsoft und Dell Windows-HPC-Cluster von Dell Symbolische Übergabe auf der ISC 2008 Anlieferung im Juni 2008 Kooperation
Servervirtualisierung mit VMware
Servervirtualisierung mit VMware Die Ziele Serverkonsolidierung durch Virtualisierung Reduzierung der Komplexität Verfügbarkeit verbessern Den Serveradmins das Leben leichter machen Server- und Infrastruktur-
Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien
Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at
Univention Corporate Client. Quickstart Guide für Univention Corporate Client
Univention Corporate Client Quickstart Guide für Univention Corporate Client 2 Inhaltsverzeichnis 1. Einleitung... 4 2. Voraussetzungen... 5 3. Installation des UCS-Systems... 6 4. Inbetriebnahme des Thin
MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz
MOGON Markus Tacke HPC ZDV HPC - AHRP Was ist Mogon allgemein? Das neue High Performance Cluster der JGU Ein neues wichtiges Werkzeug für Auswertung von Messdaten und Simulationen Beispiele Kondensierte
VirtualBox und OSL Storage Cluster
VirtualBox und OSL Storage Cluster A Cluster in a Box A Box in a Cluster Christian Schmidt Systemingenieur VirtualBox und OSL Storage Cluster VirtualBox x86 und AMD/Intel64 Virtualisierung Frei verfügbar
Systemanforderungen Verlage & Akzidenzdruck
OneVision Software AG Inhalt Asura 9.5, Asura Pro 9.5, Garda 5.0...2 PlugBALANCEin 6.5, PlugCROPin 6.5, PlugFITin 6.5, PlugRECOMPOSEin 6.5, PlugSPOTin 6.5,...2 PlugTEXTin 6.5, PlugINKSAVEin 6.5, PlugWEBin
Das Labors für Informationslogistik an der FH Kufstein
international. mobile. multicultural Das Labors für Informationslogistik an der FH Kufstein "Flexible service- und prozessorientierte Informationssysteme Aachen, 13.-14. November 2008 Prof. (FH) Karsten
Grundlagen des Grid Computing
Grundlagen des Grid Computing Grid Middleware Toolkits: Advanced Resource Connector (ARC) ICA Joh.. Kepler Universität t Linz Advanced Resource Connector Entwickelt durch die NorduGrid Collaboration Skandinavische
Grid-Aktivitäten an der RWTH-Aachen
Grid-Aktivitäten an der RWTH-Aachen M.Kirsch, M. Duda, M. Erdmann, G. Flügge, S. Kappler, Th. Kreß, A. Nowack Matthias.Kirsch@physik.rwth-aachen.de III. Physikalisches Institut A RWTH Aachen Frühjahrstagung
Virtuelle Maschinen als Simulationsumgebungen im Grid
Virtuelle Maschinen als Simulationsumgebungen im Grid Dr. Andreas Spille-Kohoff M.Sc. Benoit Bosc-Bierne CFX Berlin Software GmbH März 2012 Inhalt Motivation Teilprojekt 1 im PT-Grid Virtuelle Infrastruktur
Virtualisierung auf Mac OS X. Mar3n Bokämper Max Riegel 30. November 2008
Virtualisierung auf Mac OS X Mar3n Bokämper Max Riegel 30. November 2008 Inhalt Virtualisierung Konfigura3on eines virtuellen Rechners Virtualisierungslösungen für OS X Apple Boot Camp, keine Virtualisierungslösung!
Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen
DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension
GRID-Computing vom lokalen zum globalen Ressourcenmanagement
GRID-Computing vom lokalen zum globalen Ressourcenmanagement Lokal job Master Ressourcen Management Queue1 Queue2... Node 1 Node 2.. Benutzer Cluster Ressourcenmanager: LSF (load sharing facility) OpenPBS
Systemanforderungen für MuseumPlus und emuseumplus
Systemanforderungen für MuseumPlus und emuseumplus Systemanforderungen für MuseumPlus und emuseumplus Gültig ab: 01.03.2015 Neben den aufgeführten Systemvoraussetzungen gelten zusätzlich die Anforderungen,
X2Go in Theorie und Praxis. LIT 2015 Augsburg Richard Albrecht, LUG-Ottobrunn Stefan Baur, Heinz Gräsing, X2Go
X2Go in Theorie und Praxis über uns Richard Albrecht Physiker / Uni Halle-Wittenberg 1988-2000 am MPI für Biochemie Martinsried, Bildverarbeitung, C/C++ Entwicklung bis 2011: Middleware, Datenbanken,.NET,
Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT
Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Folie 1 VDE-Symposium 2013 BV Thüringen und Dresden Virtualisierung von Leittechnikkomponenten Andreas Gorbauch PSIEnergie-EE Folie
Zentral verwalteter Netzwerkboot über Weitverkehrsnetze
DFN Forum 2011 Zentral verwalteter Netzwerkboot über Weitverkehrsnetze Sebastian Schmelzer Lehrstuhl für Kommunikationssysteme, Albert-Ludwigs-Universität Freiburg Motivation Trennung der Administration
Grid-Systeme. Betrachtung verschiedener Softwareplattformen zur Realisierung von Grids und Vorstellung des Globus Toolkit. 07.06.2002 Grid Systeme 1
Grid-Systeme Betrachtung verschiedener Softwareplattformen zur Realisierung von Grids und Vorstellung des Globus Toolkit 07.06.2002 Grid Systeme 1 Gliederung Vorstellung verschiedener Plattformen Globus
Mar$n Nussbaumer, KIT Mannheim, 7. Mai 2013
Födera)ves Iden)tätsmanagement nicht- webbasierter e Mar$n Nussbaumer, KIT Mannheim, 7. Mai 2013 Vision Mo-va-on: Beobachtbarer Trend zu verteilten en zunehmende Spezialisierung von IT- en: inspiriert
GoGrid Hochschule Mannheim
Christoph Eikermann GoGrid Hochschule Mannheim WS0910 1/25 GoGrid Hochschule Mannheim Christoph Eikermann Fakultät für Informatik Hochschule Mannheim c.eikermann@googlemail.com 11.12.2009 Christoph Eikermann
[Geben Sie Text ein] ISCSI Targets mit der Software FreeNAS einrichten
[Geben Sie Text ein] ISCSI Targets mit der Software FreeNAS einrichten ISCSI Targets mit der Software FreeNAS einrichten Inhalt FreeNAS Server Vorbereitung... 2 Virtuelle Maschine einrichten... 3 FreeNAS
internationalen Verbund
University of Applied Sciences 1 zur Optimierung der Wertschöpfungsketten Hochleistungsrechnen für Wissenschaft und Wirtschaft im internationalen Verbund Prof. Dr. rer. nat. Christian Schröder stellv.
Blade Schulung Teil I, Systemhardware
Blade Schulung Teil I, Systemhardware - Online Schulung Herzlich Willkommen zur Online-Schulung von Thomas-Krenn Serverversand Unser Thema heute: BladeServer - Komponenten und Hardwarefunktionalität -
VIRTUALISIERUNG IN MIKROKERN BASIERTEN SYSTEMEN
Fakultät Informatik Institut für Systemarchitektur, Professur Betriebssysteme VIRTUALISIERUNG IN MIKROKERN BASIERTEN SYSTEMEN Henning Schild Dresden, 5.2.2009 Definition Einführung von Abstraktionsschichten
Stud.IP 2.4 mit CampusConnect Szenarien mit Moodle, ILIAS und HIS-LSF
Stud.IP 2.4 mit Szenarien mit Moodle, und HIS-LSF Dr. David Boehringer, Universität Stuttgart Rasmus Fuhse, data-quest GmbH 4. 9. 2013 Projektdaten Universität Stuttgart Projektdauer: 1.10.09 31.12.2012
init.at informationstechnologie GmbH Tannhäuserplatz 2/5.OG 1150 Wien Austria
init.at informationstechnologie GmbH Tannhäuserplatz 2/5.OG 1150 Wien Austria Seite 2 von 10 1 Inhaltsverzeichnis 2 Warum CORVUS by init.at... 3 3 Ihre Vorteile durch CORVUS... 3 4 CORVUS Features... 4
Vollautomatische Installationen mit FAI
Vollautomatische Installationen mit FAI Open Source Meets Business 2008 Thomas Lange, Universität zu Köln lange@informatik.uni-koeln.de p.1/18 Wer möchte diese Rechner per Hand installieren? Manuelle Installation?
Systemanforderungen Verlage & Akzidenzdruck
OneVision Software AG Inhalt Asura 9.6, Asura Pro 9.6, Garda 5.6...2 PlugBALANCEin 6.6, PlugCROPin 6.6, PlugFITin 6.6, PlugRECOMPOSEin 6.6, PlugSPOTin 6.6,...2 PlugTEXTin 6.6, PlugINKSAVEin 6.6, PlugWEBin
Projektseminar Parallele Programmierung
HTW Dresden WS 2014/2015 Organisatorisches Praktikum, 4 SWS Do. 15:00-18:20 Uhr, Z136c, 2 Doppelstunden o.g. Termin ist als Treffpunkt zu verstehen Labore Z 136c / Z 355 sind Montag und Donnerstag 15:00-18:20
Mathematik Physik - Informatik
Mathematik Physik - Informatik IF ANYTHING CAN GO WRONG, IT WILL. (Murphy) Differenzierungsangebot in der Sekundarstufe 1 R. Faßbender 1 Inhalt Informatik als Schwerpunkt Warum sollte ich Informatik wählen?
Was darf das Grid kosten?
Was darf das Grid kosten? Dr. Marcel Kunze Steinbuch Centre for Computing Abteilung Integration und Virtualisierung Die Kooperation von Darf das Grid was kosten? Infrastruktur: Geschäftsmodell oder Sponsoring?
Neues in Hyper-V Version 2
Michael Korp Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/mkorp Neues in Hyper-V Version 2 - Virtualisieren auf die moderne Art - Windows Server 2008 R2 Hyper-V Robust Basis:
Herbsttreffen 2014. Hands-on Session
Herbsttreffen 2014 Hands-on Session HP end-to-end Support HP open System Management Ziel Bereitstellung einer skalierungs-, k-fall fähige, Low Latency X86 Infrastruktur für die Plattformen: RZ1 HP Cloud
SIMLUX: Virtualisierung. Simply Managed Linux
SIMLUX: Virtualisierung Simply Managed Linux Agenda 2 Wer ist die Swisscom IT Services Was ist SIMLUX Simlux -Konzept Online Web-Applikation Simlux -Architektur Red Hat Satellite Virtualisierungs Addon
Exascale Computing. = Exascale braucht Manycore-Hardware...und was für Software??? 46/58
Exascale Computing Die FLOP/s-Tabelle: Name Faktor erreicht heute Giga 10 9 1976 CPU-Kern Tera 10 12 1997 Graphikkarte (GPU) Peta 10 15 2009 Supercomputer Exa 10 18 2020(?) Der gegenwärtig schnellste Rechner
Diskless GNU/Linux Workshop der LUGBZ http://www.lugbz.org/ Author: Karl Lunger 10.05.2003
Diskless GNU/Linux Workshop der LUGBZ http://www.lugbz.org/ Author: Karl Lunger 10.05.2003 Diskless GNU/Linux Was? Eine Maschine ohne lokalem Dateisystem X-Terminal (Prozesse der Anwendungen laufen auf
Praktische Erfahrungen mit Hochgeschwindigkeitsfirewalls. 54. DFN-Betriebstagung
Praktische Erfahrungen mit Hochgeschwindigkeitsfirewalls Frank Brüggemann, Jens Hektor, Nils Neumann, Andreas Schreiber Rechen- und Kommunikationszentrum RWTH Aachen [brueggemann hektor neumann schreiber]@rz.rwth-aachen.de
_Hardware Systemvoraussetzungen_
Aufnahmestation für [DVT] - Empfohlene Anforderungen Die Workstation für Aufnahmesteuerung und Rekonstruktion kann von der Firma orangedental mitgeliefert werden. Bei Eigenlieferung der Workstation bitte
Hochleistungsrechnen und Grid-Computing am ZIH
Zentrum für Informationsdienste und Hochleistungsrechnen Hochleistungsrechnen und Grid-Computing am ZIH Dresden, 5.7.2007 Hochleistungsrechner / Speicherkomplex ZIH-Ressourcen im Grid Hardware Software
Marketing Update. Enabler / ENABLER aqua / Maestro II
Marketing Update Enabler / ENABLER aqua / Maestro II Quartal 01/2012 1 Kommentar des Herausgebers Liebe Kunden und Partner, dieser Marketing Update gibt Ihnen einen kurzen Überblick über die aktuell verfügbaren
NWZSUPERDOME. Einführung für Benutzer. Christian Mück-Lichtenfeld. Organisch-Chemisches Institut. May 16, 2007
Einführung für Benutzer Christian Mück-Lichtenfeld Organisch-Chemisches Institut May 16, 2007 1/44 Überblick Themen Hardwareresourcen Installierte Software Programmierung Zielgruppe: High Performance Computing
Linux-HA-Cluster Heartbeat mit DRBD
Linux-HA-Cluster Heartbeat mit DRBD Thomas Röhl 01. Oktober 2004 Inhalt Was ist ein HA-Cluster? Vorbereiten des Projekts Hardware Software Allgemeiner Aufbau des Clusters Installation von DRBD Installation
Server-Virtualisierung mit Citrix XenServer und iscsi
Server-Virtualisierung mit Citrix XenServer und iscsi Universität Hamburg Fachbereich Mathematik IT-Gruppe 1. März 2011 / ix CeBIT Forum 2011 Gliederung 1 Server-Virtualisierung mit Citrix XenServer Citrix
BraLUG-Cluster Idee, Konzept und Umsetzung. Uwe Berger; 2005
Idee, Konzept und Umsetzung ; 2005 Inhalt Die Idee Das Konzept Die Umsetzung PVM Hard-/Software Bootkonzept Clientanmeldung... und jetzt? 01/2005 2 Die Idee eine aussergewöhnliche und
D6.3 Trainingsplan und Material
D6.3 Trainingsplan und Material Arbeitspaket/Task: AP 6, Task 6.2 Fälligkeit: M18 Abgabetermin: 30.06.10 Verantwortlich: Versionsnummer/Status: Autoren: ZIH Koudela, Daniela (DK) Mickler, Holger (HM) Volk,
Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester 2015. Tim Conrad
Blockseminar: Verteiltes Rechnen und Parallelprogrammierung Sommer Semester 2015 Tim Conrad Staff Tim Conrad AG Medical Bioinformatics email: conrad@math.fu-berlin.de Telefon: 838-51445 Büro: Raum 138,
Systemanforderungen Verlage & Akzidenzdruck
OneVision Software AG Inhalt Asura 10, Asura Pro 10, Garda 10...2 PlugBALANCEin 10, PlugCROPin 10, PlugFITin 10, PlugRECOMPOSEin10, PlugSPOTin 10,...2 PlugTEXTin 10, PlugINKSAVEin 10, PlugWEBin 10...2
Einiges zur Grid Infrastruktur bei DESY
Einiges zur Grid Infrastruktur bei DESY Andreas Gellrich DESY IT Installations Meeting DESY, 06.12.2006 Nomenklatur Grid Infrastruktur: Ein System aus Diensten und Ressourcen, das Benutzern zur Verfügung
Ralf Enderle 19.11.07. Grid Computing. Seminar am Institut für verteilte Systeme im WS 07/08 - Forschungstrends im Bereich Verteilte Systeme -
Ralf Enderle 19.11.07 Grid Computing Seminar am Institut für verteilte Systeme im WS 07/08 - Forschungstrends im Bereich Verteilte Systeme - Seite 2 Inhalt Einleitung Konzeptueller Aufbau eines Grid Systems
Generelle IT. im Umfeld der HYDAC Produktion
Stand: September 2015 Generelle IT Mindestanforderungen im Umfeld der HYDAC Produktion Inhalt Personal Computer (19, Standardgehäuse oder Panel PC)... 2 Anwendungsprogramme... 2 Sicherheit und Remotezugriff...
best Systeme GmbH Michael Beeck Geschäftsführer, CTO Michael.Beeck@best.de best Systeme GmbH
best Systeme GmbH Michael Beeck Geschäftsführer, CTO Michael.Beeck@best.de best Systeme GmbH Münchner Str. 123a 85774 Unterföhring Tel: 089/950 60 80 Fax: 089/950 60 70 Web: www.best.de best Systeme GmbH
glite Testbed am RRZN und Workload Management Grid Seminar 2005 Stefan Piger, Jan Wiebelitz
glite Testbed am RRZN und Workload Management Grid Seminar 2005 Stefan Piger, Jan Wiebelitz Agenda Europäische Grid-Projekte/Middleware LHC/LCG EGEE/gLite glite Testbed am RRZN Jobablauf in glite beteiligte
PLI Tutorial 01 Inbetriebnahme von RDZ Version 7.5
PLI Tutorial 01 Inbetriebnahme von RDZ Version 7.5 Inhalt 1. Vorbereitung: Kopieren der DVD auf Festplatte 2. Inbetriebnahme von RDZ 3. Zugriff auf den Remote z/os Host 4. Herunterfahren RDz ist ein Integrated
Thema: Systemsoftware
Teil II 25.02.05 10 Uhr Thema: Systemsoftware»Inhalt» Servermanagement auf BladeEbene» Features der ManagementSoftware» Eskalationsmanagement» Einrichten des Betriebssystems» Steuerung und Überwachung»