Grid-Computing. LHC Computing: Datenanalyse im weltweiten GRID

Save this PDF as:
 WORD  PNG  TXT  JPG

Größe: px
Ab Seite anzeigen:

Download "Grid-Computing. LHC Computing: Datenanalyse im weltweiten GRID"

Transkript

1 LHC Computing: Datenanalyse im weltweiten GRID Vortrag: Walter Bender Betreuer: Thomas Kreß 1

2 Themenüberblick Was ist Grid Computing Einführung technische Entwicklung Vergleich mit Stromnetz Anwendungen Einsatz in der Teilchenphysik Datenaufkommen und Nutzung am CMS Aufgabenbewältigung und Funktionsweise Das LCG (LHC Computing Grid) Die Tier Hierarchie Middlewares Data Challenges und Monitoring Einführung ins Monitoring Testergebnisse Ausblick Weiterentwicklung und neue Technologien 2

3 Einführung Ein Grid dient zur Simulation, Speicherung und Analyse großer Datenmengen Rechenleistung (Computing Grid) Datenspeicherung (Data Grid) Dezentrale Verfügbarkeit Jedes teilnehme Land oder Arbeitsgruppe stellt seine eigene Hardware dem Grid zur Verfügung. Gegenentwurf ist der Supercomputer. Nutzung unterschiedlicher Dienste Standards dieser Dienste werden z.t. durch Global Grid Forum (GGF) festgelegt vgl. Internet Engineering Task Force (IETF) für das World Wide Web. 3

4 Virtuelle Organisationen Ein Grid ist nutzbar durch sogenannte virtuelle Organisationen. Diese bestehen aus Benutzern Resourcen flexible, auf Anwender zugeschnitte Archtektur Anwendung ohne tieferes technisches Verständnis möglich Aufbau Benutzergruppen, R=Rechenzentrum, D=Datenzentrum M=Messeinrichtung flexible Struktur dynamische Zuweisung 4

5 Strom- vs. Grid-Netz Stromnetz(Power-Grid) Computer-Grid größtmögliche Verfügbarkeit über standardisierte Steckdosen hohe Verfügbarkeit durch globale Netzwerkanbindung Das Grid stellt dem Anwender dynamisch Rechenleistung zur Verfügung Der Verbraucher muss sich nicht um die Erzeugung von Strom kümmern Resourcen weder bei Bedarf umverteilt bzw. umgeroutet und redundant gespeichert Garantierte Ausfallsicherheit Standards für Steckdosen und Stromeigenschaften (z.b.niederspannung mit 230 V, 50 Hz) Standards für Netzwerkprotokolle, Datenformate, Authentifizierung, Routing usw. 5

6 Historische Entwicklung traditionell die Domäne von Supercomputern aktuelle Leistung IBM BlueGene/L : 280 Tflop/s mit ca Prozessoren dabei ist ein flop eine Gleitkommaberechnung Pentium 4, 3 GHz ca. 6Gflop/s Probleme durch zentralen Aufbau Kostenstruktur Ausfallsicherheit Erweiterbarkeit Wärmeabfuhr 6

7 Historische Entwicklung Grid als Alternative Mehr Rechnerleistung durch Vernetzung Vorteile zum reinen Supercomputer dezentrale Verfügbarkeit problemlose Einbindung von Messapparaturen Investitionen können im eigenen Land stattfinden. dynamisch erweiterbar technische Organisation durch Middleware 7

8 Anwendungen der Wissenschaften einige Anwendungen: Medizin AIDS Forschung Pharmazie Bioinformatik Geographie Wetterberechnung Klimaberechnung und natürlich in der Physik Teilchenphysik Astrophysik 8

9 Das CMS-Experiment Eigenschaften des CMS Experiment eines der vier Experimente am LHC CMS steht für Compact Muon Solenoid ungefähr 1500 Computing Nutzer Forschung am CMS Suche nach Higgs Boson Vermessung der Top Bosons (hier häufig gemessenes Teilchen) suche nach neuer Physik auch abseits des Standardmodells(Susy Teilchen, Stringtheorie etc.) Datenvolumen 15 Millionen Auslesekanäle Ausleseraten von 40 Mhz bzw. ca. 200 Hz nach Trigger 1 Event erzeugt ca. 1,5 MByte Daten 9

10 Datenmenge Datenvolumen pro Jahr 8 Petabytes (1015) Messdaten (bzw TB) 4 Petabytes Monte Carlo Simulationsdaten => 12 Petabytes/Jahr für Speicherung Was kann man sich unter 12 Petabytes vorstellen? DSL 2000 (download) CD Stapel 250 Kilobytes / sec => 12 Petabyte in 1500 Jahren CD: 650 MByte mit 1,2 mm Dicke (ohne Hülle) => Datendichte von ca. 540 MB / mm 12 Petabyte sind also ca. 22 km hoch Festplatten: Platten mit jeweils ca. 500 Gbyte Kapazität 10

11 Nutzung in der Teilchenphysik Die Teilchenphysik eine der führenden Wissenschaften in der Entwicklung von (weltweiten) Grids! Mit diesen Anforderungen ergibt sich ein Grid als das Werkzeug für Speicherung Datenanalyse CPU Nutzung Rekonstruktion/Analyse Monte Carlo Simulation Speicherung Simulationsdaten Messdaten Speicherungsart online (Disk sofort verfügbar) offline (Tape rückschreibbar auf Disk) 11

12 Aufbau des LCG Der LHC betreut ein eigenständiges fünftes Experiment, das LCG (LHC Computing Grid) übernimmt sämtliche Computing Aufgaben des LHC Die Gridstruktur ist hierarchisch organisiert (Tier 0 bis Tier 3) Die einzelnen Ebenen und Cluster sind durch Hochgeschwindigkeitsnetze miteinander verknüpft. Organisation durch aktuelles Förderprojekt EGEE Enabling Grids for E science (Europäisches Grid) Die LCG Middleware glite (früher LCG) Software des Grids modulares System System basiert auf Scientific Linux (rekompiliertes kostenfreies Red Hat Linux Enterprise) Support von CERN,FERMILAB 12

13 Tier-Struktur Tier Modell Aufgabenteilung Organisation Priorisierung Aufbau CERN als Zentrum mit Datenquelle 10 Tier 1 Zentren in verschiedenen Staaten ca. 150 Tier 2 Zentren als Universitäten und Forschungseinrichtungen Unzählige Instituts Cluster und Arbeitsplatzrechner als Tier 3 bzw. Tier 4 Die Computingleistung ist zusammengenommen in jeder Ebene ungefähr gleich groß 13

14 Tier 0 Tier 0: CERN Detektor als Datenquelle mit ca. 200MByte/s pro Experiment bei ca. 9 Monate Nutzung im Jahr (nach Data Acquisition) Rohdaten (Raw Daten) Erste schnelle Rekonstruktion der Daten (RECO,ESD) Sicherung auf Tape Sicherung auf Tape und Disk ca. 2 PByte Disks, 10PByte Bänder, 6000 ksi2000 CPU ksi2000 = 1kSPECInt2k 1kSPECInt2k = 1 3,0 Ghz Intel CPU Streamen zu Tier 1 Zentren 14

15 CERN-Rechenzentrum CERN Bandroboter StorageElements Computing Elements/Worker Nodes Racks und Standardrechner 15

16 Tier 1 Tier 1: z.b. Gridka (Forschungszentrum Karlsruhe) Reprozessierung (der RECO Daten) unter Berücksichtigung von Kalibrierung und Selektion eventuelle Archivierung für Tier 2 (produzierte Ereignisse) insgesamt ca. 1 PB Disks, 10PB Bänder, 2000 ksi2000 CPU Alle Tier 1 zusammen: Komplette Kopie der Rohdaten und Speicherung der Monte Carlo Daten Streamen zu Tier 2 Zentren 16

17 Tier 2 (Tier 3) Tier 2: z.b. Cluster im Physikzentrum RWTH Computing (Daten und Rechenzeit für die gesamte Kollaboration) Monte Carlo Simulation Kalibrationsrechnungen Analysen 2008 etwa 1 PB Disks, 1000 ksi2000 CPU Bereitstellung als AOD (Analysis Objekt Data) (Impuls,Energie,Teilchensorte) Kopie für lokale Jobs Tier 3: technisch meist gleich zu Tier 2 nicht gegenüber Grid zugesicherte Hardware 17

18 Tier 4 Tier 4: z.b. CIP Pool im Physikzentrum und Institutsrechner Ib+IIIa+IIIb Arbeitsbereich der Physiker Interaktiv oder Condor Batch Analyse Entwicklung Einstiegspunkt ins Grid (User Interface) Keine besonderen Anforderungen an Hardware Allerdings Weder Tier 3 noch Tier 4 eindeutig im LCG Modell definiert. 18

19 Tier-2 Föderation RWTH und DESY Tier 2 RWTH / DESY Kollaboration zwischen RWTH Aachen und DESY Hamburg Kapazität zusammen 1.5 eines mittlere CMS Tier 2 Einziges CMS Tier 2 in Deutschland Interne Schwerpunkte RWTH: MC Produktion, Kalibration DESY: User Analysen, MC Produktion teilweise gemeinsames Management Unterstützte virtueller Organisationen bei RWTH CMS mit VOMS (Virtual Organization Membership Service) z.b. folgende Rollen mit D Grid Zertifikat /CMS /CMS/produktion /CMS/administrator Organisationen für Logging etc. 19

20 Cluster Bezeichnung eines lokalen Verbundes von Computern Anfragen an Site Systeminformationen installierte Versionen freie Kapazitäten etc. Rechenanfragen (CE Element) vergibt Worker Nodes (WM) Speicheranfragen (SE Element) erreichbar von WN und ausserhalb Zugriffe werden geloggt Netzwerkinformationen 20

21 Grid an der RWTH aktuelle Hardware Computing Element (CE) Worker Nodes auch für Desktop, CIP Pool leider nur 30 kwatt Kühlleistung 20 TByte (RAID 5 und 6) (dcache) Installationserver (Quattor) 104 Opteron Cores mit jeweils 300 GB lokaler Festplatte (dcache) Storage Element (SE) Dual Opteron mit 500 GB (Raid 10) => Produktionssystem ab 2007/2008 am Rechenzentrum. 21

22 Resource Broker Anfrage an Resource Broker (RB) zur dynamischen Ausführung von Rechenjobs Information Service gibt Statusinformationen Replica Catalogue enthält Ortisnformationen eine CPU pro Rechenjob RB gibt Anfrag an CE und SE weiter Resource Broker gibt Ergebnis der Anfrage zurück CE Replica Catalogue SE User Interface Resource Broker Information Service 22

23 Monitoring Momentaufnahme des Grid grün = Job wird ausgeführt lila = Job in der Warteschlange Legende Kreis = Rechenzentrum Rechteck =Datenzentrum Pfeile = Daten werden ausgetauscht. 23

24 Zustand RWTH RWTH Aachen - Germany LCG2 Production Informationen über RWTH Cluster Name Total Jobs = 681 Softwareversion Job ID Broker Status VO USaYKVerRc6sy8JopGgjA grid09.lal.in2p3.fr Scheduled cms BDmY1R_b83zKLyw47i0GIA grid09.lal.in2p3.fr Done cms HfHe_lLSgMJn5iI1lieYlw grid09.lal.in2p3.fr Scheduled cms ilmxfuoxsgelobpcxcmnpq grid09.lal.in2p3.fr Scheduled cms dixxc1x7jkfl1ddgcgo7qa grid09.lal.in2p3.fr Done cms CX7Mr0zEg79KOlYZ5c0FAg grid09.lal.in2p3.fr Done cms 2AxyfgWmIYoqjlmVBNBibg grid09.lal.in2p3.fr Running cms XiELB_CXeKs2fEI5hzVlhg grid09.lal.in2p3.fr Running cms O_H-rUIH9J_dk0MvTMzeQA grid09.lal.in2p3.fr Scheduled cms hzuh8eiaqrxwiqtet1toow grid09.lal.in2p3.fr Scheduled cms ur7viwovuvwcdem3uhchga grid09.lal.in2p3.fr Scheduled cms 7CPXCT68Gbj9M8vlY7vDbg grid09.lal.in2p3.fr Done cms UKE-0qNv4lJFNUlBXEdATg grid09.lal.in2p3.fr Scheduled cms _p6xl4iscgmkdtpvlda4vq grid09.lal.in2p3.fr Done cms cruqnxvq6rfxgxur9mi7rg grid09.lal.in2p3.fr Scheduled cms K87LsUlux7E9-7w6J3E46Q grid09.lal.in2p3.fr Scheduled cms M4I9WY_oslg5_j0swXwFXA grid09.lal.in2p3.fr Scheduled cms GRadwNeRY7506dW22ZOpjA grid09.lal.in2p3.fr Scheduled cms... Aufgabentyp Ansprechpartner Aktueller Zustand des Aachener Rechenzentrum. Name (Job Id, Hashwert) zuständiger Resource Broker Status Priorität (Virtuelle Organisation) 24

25 Data Challenges CSA06 Testphase seit 2003 LCG 1 auf ausgewählten großen Rechenzentren. seit 2004 LCG 2 mit "Data Challenges" auf zunehmend mehr Rechenzentren. Auch RWTH. Aktuell CSA06: Computing, Software, and Analysis challenge 25 % Test von dem, was 2008 verfügbar sein soll 18.Sep bis 13.Nov 50 Millionen simulierte Events Streaming und Auswertung vont0 bis T2 System arbeitet allerdings mit vorher simulierten Daten Aufteilung auf Rechenzentren T0 zu T1mit ca. 25MB/s jeweils Weiter von T1 auf T2 mit ebenfalls ca. 25MB/s jeweils 25

26 Data Challenges Analyse und MC Jobs transferierte Datenmenge Je mehr erfolgreich ausgeführte Rechenjobs desto länger grüner Balken hohe Grideffizienz 80 90% allerdings noch einige lokale Fehler an Sites(Disk,...) RWTH Datentransfer Langzeitanalyse Anteil erfolgreicher Jobs hervorangende Transverstabilität DESY 26

27 Data Challenges Während des gleichen Zeitraums am Gridka Ausfall durch Festplatten Systemumstellung GridKa als Verteilungszentrum für RWTH/DESY Lösung Tier Hierarchie wird aufgelockert durch Mesh Vernetzung Mesh Vernetzung beschreibt das temporäre Vernetzen über Zwischenknoten Aachen/DESY hat die Daten also temporär über andere Tier 1 Zentren bezogen zb. CNAF(Italien),FNAL(USA,Fermilab) 27

28 Zukunft von Grids? Ausblick Virtualisierung Einsatz von VMWARE, XEN um genormte Plattformen zu schaffen Überdeckung der physikalischen Architektur durch (genormtes) Gastsystem so Einbeziehung von Supercomputern möglich inbesondere interessant für kommerzielle Nutzer Zugang für fremde Anwender (Zertifikate) Accounting Berechnungsysteme (Computing on Demand) Rechenleistung kaufen und verkaufen Entstehung eines Marktes garantierte hohe Sicherheit 28

29 Fazit und Ausblick Fazit Grids sind die Wahl zur Verarbeitung großer Datenmengen und/oder Bereitstellung von hoher Rechenleistung Grid Computing als neues Paradigma der Datenverarbeitung Essentielle Bedeutung in der Auswertung von Messdaten in der Hochenergiephysik deswegen Anwendung/Beteiligung aller Teilchenphysikinstitute der RWTH 29

30 Vielen Dank für Ihre Aufmerksamkeit 30

LCG. LHC Computing Grid. Rolf Reinthaler. Universität Würzburg. 17. Juli 2009

LCG. LHC Computing Grid. Rolf Reinthaler. Universität Würzburg. 17. Juli 2009 LCG LHC Computing Grid Rolf Reinthaler Universität Würzburg 17. Juli 2009 Rolf Reinthaler (Universität Würzburg) LHC Computing Grid 17. Juli 2009 1 / 28 Contents 1 Anforderungen an das LHC Computing 2

Mehr

Experimenten. really big data

Experimenten. really big data Datenfluss in CERN- Experimenten really big data Gliederung Das CERN Allgemeines Wichtige Errungenschaften Der Weg der Daten Das CMS-Experiment Aufbau Anfallende Daten Trigger Das Grid Die Ebenen des Grid

Mehr

Grid-Aktivitäten an der RWTH-Aachen

Grid-Aktivitäten an der RWTH-Aachen Grid-Aktivitäten an der RWTH-Aachen M.Kirsch, M. Duda, M. Erdmann, G. Flügge, S. Kappler, Th. Kreß, A. Nowack Matthias.Kirsch@physik.rwth-aachen.de III. Physikalisches Institut A RWTH Aachen Frühjahrstagung

Mehr

Grundlagen des Grid Computing

Grundlagen des Grid Computing Grundlagen des Grid Computing Grid Middleware Toolkits: glite ICA Joh.. Kepler Universität t Linz glite Grid Middleware für das LHC Grid Wurde im Rahmen des EGEE Projekts entwickelt Basiert auf dem Globus

Mehr

Massenspeichersysteme im Einsatz bei TIER 2/3 Grid-Zentren

Massenspeichersysteme im Einsatz bei TIER 2/3 Grid-Zentren Massenspeichersysteme im Einsatz bei TIER 2/3 Grid-Zentren Manuel Giffels III. Physikalisches Institut B RWTH Aachen Bad Honnef, 23.08.2005 Manuel Giffels Massenspeichersysteme im Einsatz bei TIER 2/3

Mehr

Grid-Computing bei CDFII

Grid-Computing bei CDFII Grid-Computing bei CDFII G.Barker, M.Erdmann, M.Feindt, Th.Müller, U.Kerzel, K.Rinnert Institut für Experimentelle Kernphysik Universität Karlsruhe mailto:kerzel@fnal.gov - Förderschwerpunkt Elementarteilchenphysik

Mehr

LCG2-basierte MonteCarlo Produktion bei H1

LCG2-basierte MonteCarlo Produktion bei H1 LCG2-basierte MonteCarlo Produktion bei H1 Moritz Karbach Universität Dortmund moritz.karbach@desy.de MonteCarlo Überblick e 27 GeV Generator e h1simrec rekonstruiertes Ereignis p 920 GeV X Detektorsimulation

Mehr

Einiges zur Grid Infrastruktur bei DESY

Einiges zur Grid Infrastruktur bei DESY Einiges zur Grid Infrastruktur bei DESY Andreas Gellrich DESY IT Installations Meeting DESY, 06.12.2006 Nomenklatur Grid Infrastruktur: Ein System aus Diensten und Ressourcen, das Benutzern zur Verfügung

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

Bandbreite - unverzichtbar für den wissenschaftlichen Erfolg am Beispiel des CMS-Experiments. Prof. Dr. Martin Erdmann, Dr.

Bandbreite - unverzichtbar für den wissenschaftlichen Erfolg am Beispiel des CMS-Experiments. Prof. Dr. Martin Erdmann, Dr. Bandbreite - unverzichtbar für den wissenschaftlichen Erfolg am Beispiel des CMS-Experiments Prof. Dr. Martin Erdmann, Dr. Volker Gülzow W µ ν Gestern: Mikroskopie der Materie Ortsauflösung Mikroskop:

Mehr

Dezentrale Datenproduktion und -analyse bei DØ

Dezentrale Datenproduktion und -analyse bei DØ Dezentrale Datenproduktion und -analyse bei DØ Thomas Nunnemann LMU München nunne@fnal.gov DPG Mainz 31.3.04 Computing: Aufgaben/Anforderungen Datenaustausch verteilter Datenbankzugriff Prozessierung von

Mehr

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Cloud-Computing Seminar Hochschule Mannheim WS0910 1/23 Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Fakultät für Informatik Hochschule

Mehr

Das LHC-Computing-Grid

Das LHC-Computing-Grid Das LHC-Computing-Grid Von Julian Gethmann WS 11/12 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Überblick Ansprüche an die Rechnerinfrastruktur

Mehr

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at

Mehr

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Folie 1 VDE-Symposium 2013 BV Thüringen und Dresden Virtualisierung von Leittechnikkomponenten Andreas Gorbauch PSIEnergie-EE Folie

Mehr

Sichere Daten mit OSL Storage Cluster

Sichere Daten mit OSL Storage Cluster Sichere Daten mit OSL Storage Cluster Alternative Konzepte für die Datensicherung und Katastrophenvorsorge Dipl.-Ing. Torsten Pfundt Gliederung Voraussetzungen für die Konzepte und Lösungen restorefreies

Mehr

Instant-Grid ein Grid in 15 Minuten

Instant-Grid ein Grid in 15 Minuten Instant-Grid ein Grid in 15 Minuten Vortrag von Andreas Félix beim Practical Linux Forum des LinuxTag 2006 Gesellschaft für wissenschaftliche Datenverarbeitung Göttingen mbh Übersicht über den Vortrag

Mehr

dcache! The dcache team

dcache! The dcache team dcache The dcache team Antje Petersen Patrick Fuhrmann, Tigran Mkrtchyan Paul Millar, Karsten Schwank, Christian Bernardt (at DESY) Dmitry Litvintsev, Albert Rossi (Fermilab) Gerd Behrmann (NorduNet (formerly

Mehr

Grid-Systeme. Betrachtung verschiedener Softwareplattformen zur Realisierung von Grids und Vorstellung des Globus Toolkit. 07.06.2002 Grid Systeme 1

Grid-Systeme. Betrachtung verschiedener Softwareplattformen zur Realisierung von Grids und Vorstellung des Globus Toolkit. 07.06.2002 Grid Systeme 1 Grid-Systeme Betrachtung verschiedener Softwareplattformen zur Realisierung von Grids und Vorstellung des Globus Toolkit 07.06.2002 Grid Systeme 1 Gliederung Vorstellung verschiedener Plattformen Globus

Mehr

Service Oriented Architecture für Grid-Computing

Service Oriented Architecture für Grid-Computing Service Oriented Architecture für Grid-Computing Service Oriented Architecture für Grid-Computing Berlin/Brandenburger Softwareforum 24.08.2005 Andreas Hoheisel (andreas.hoheisel@first.fraunhofer.de) Seite

Mehr

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung Fritz Günther 17.03.2014 Folie 1 Agenda Was ist Virtualisierung Server- / Clientvirtualisierung

Mehr

GRID-Computing vom lokalen zum globalen Ressourcenmanagement

GRID-Computing vom lokalen zum globalen Ressourcenmanagement GRID-Computing vom lokalen zum globalen Ressourcenmanagement Lokal job Master Ressourcen Management Queue1 Queue2... Node 1 Node 2.. Benutzer Cluster Ressourcenmanager: LSF (load sharing facility) OpenPBS

Mehr

Datenschutz und Datensicherung

Datenschutz und Datensicherung Datenschutz und Datensicherung UWW-Treff am 26. September 2011 Über die WorNet AG Datenschutz im Unternehmen Grundlagen der Datensicherung Backuplösungen WorNet AG 2011 / Seite 1 IT-Spezialisten für Rechenzentrums-Technologien

Mehr

Linux am DESY in Zeuthen

Linux am DESY in Zeuthen Linux am DESY in Zeuthen Einsatz von Linux Wofür? Wieviel? Automatisierte Installation und Administration Warum? Wie? Einsatz: Art und Umfang http, ftp, samba, cups, dhcp, ldap, spam filter, radius...

Mehr

Hochleistungsrechnen und Grid-Computing am ZIH

Hochleistungsrechnen und Grid-Computing am ZIH Zentrum für Informationsdienste und Hochleistungsrechnen Hochleistungsrechnen und Grid-Computing am ZIH Dresden, 5.7.2007 Hochleistungsrechner / Speicherkomplex ZIH-Ressourcen im Grid Hardware Software

Mehr

Das CMS-Experiment Größe: 21.5 m x 15 m, Gewicht: 12500 t Investitionen: 350 Mio. Mitglieder: 2250 aus 38 Ländern

Das CMS-Experiment Größe: 21.5 m x 15 m, Gewicht: 12500 t Investitionen: 350 Mio. Mitglieder: 2250 aus 38 Ländern T.Hebbeker 2007-01-21 Das CMS-Experiment Größe: 21.5 m x 15 m, Gewicht: 12500 t Investitionen: 350 Mio. Mitglieder: 2250 aus 38 Ländern Deutsche Gruppen Beiträge zum Detektorbau Silizium-Spurdetektor Myon-Detektor

Mehr

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz MOGON Markus Tacke HPC ZDV HPC - AHRP Was ist Mogon allgemein? Das neue High Performance Cluster der JGU Ein neues wichtiges Werkzeug für Auswertung von Messdaten und Simulationen Beispiele Kondensierte

Mehr

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center

PROFI UND NUTANIX. Portfolioerweiterung im Software Defined Data Center PROFI UND NUTANIX Portfolioerweiterung im Software Defined Data Center IDC geht davon aus, dass Software-basierter Speicher letztendlich eine wichtige Rolle in jedem Data Center spielen wird entweder als

Mehr

Jenseits der Antimaterie

Jenseits der Antimaterie Jenseits der Antimaterie Das Higgs Teilchen eine Suche nach den Grenzen der Physik Peter Schleper Universität Hamburg 17.4.2012 Akademie der Wissenschaften in Hamburg Quantenphysik: kleinste Bausteine

Mehr

Projekt im Sommersemester 2008. Complex and Distributed IT-Systems TU Berlin

Projekt im Sommersemester 2008. Complex and Distributed IT-Systems TU Berlin Virtuelle Systeme Projekt im Sommersemester 2008 Complex and Distributed IT-Systems TU Berlin Beispiel: VMWare 24.10.2007 CIT, Einführung Projekt Virtualisierung 2 Virtualisierung 24.10.2007 CIT, Einführung

Mehr

Abschlussvortrag zur Bachelorarbeit. Konzeption und Aufbau eines Grid Testlabors am Beispiel des Globus Toolkit 4

Abschlussvortrag zur Bachelorarbeit. Konzeption und Aufbau eines Grid Testlabors am Beispiel des Globus Toolkit 4 Abschlussvortrag zur Bachelorarbeit Konzeption und Aufbau eines Grid Testlabors am Beispiel des Globus Toolkit 4 Halit Alagöz Fachgebiet Distributed Virtual Reality (DVR) Lehrgebiet Rechnernetze H. Alagöz

Mehr

Effizient, sicher und flexibel: Desktop-Virtualisierung mit Citrix XenDesktop

Effizient, sicher und flexibel: Desktop-Virtualisierung mit Citrix XenDesktop Effizient, sicher und flexibel: Desktop-Virtualisierung mit XenDesktop Der richtige Desktop für jeden Anwender Wolfgang Traunfellner, Systems GmbH Unsere Vision Eine Welt, in der jeder von jedem Ort aus

Mehr

Erweiterung einer D-Grid Ressource um eine Compute Cloud Schnittstelle

Erweiterung einer D-Grid Ressource um eine Compute Cloud Schnittstelle am am Erweiterung einer D-Grid Ressource um eine Compute Schnittstelle 3. DFN-Forum 2010 Kommunikationstechnologien Verteilte Systeme im Wissenschaftsbereich Stefan Freitag Institut für Roboterforschung

Mehr

Grid Computing 19.12.2008. Grid Computing. Luca Debiasi. Siegmar Alber. Grundlagen. Aufbau. Grids im Laufe der Zeit. Vor- und Nachteile.

Grid Computing 19.12.2008. Grid Computing. Luca Debiasi. Siegmar Alber. Grundlagen. Aufbau. Grids im Laufe der Zeit. Vor- und Nachteile. Luca Debiasi 19.12.2008 Überblick Was ist ein Grid? Vergleiche Geschichte Zukunft und Ziele Worldwide LHC Computing-Grid Frauenhofer Resource Grid Überblick Was ist ein Grid? Vergleiche Geschichte Zukunft

Mehr

glite Testbed am RRZN und Workload Management Grid Seminar 2005 Stefan Piger, Jan Wiebelitz

glite Testbed am RRZN und Workload Management Grid Seminar 2005 Stefan Piger, Jan Wiebelitz glite Testbed am RRZN und Workload Management Grid Seminar 2005 Stefan Piger, Jan Wiebelitz Agenda Europäische Grid-Projekte/Middleware LHC/LCG EGEE/gLite glite Testbed am RRZN Jobablauf in glite beteiligte

Mehr

Hochleistungsrechnen in Grids. Seminar: Grid-Middleware. Mirko Dietrich mirko.dietrich@hrz.uni-kassel.de. 4. Dezember 2006

Hochleistungsrechnen in Grids. Seminar: Grid-Middleware. Mirko Dietrich mirko.dietrich@hrz.uni-kassel.de. 4. Dezember 2006 Seminar: Hochleistungsrechnen in Grids Grid-Middleware Mirko Dietrich mirko.dietrich@hrz.uni-kassel.de 4. Dezember 2006 2 Inhalt Funktionen einer Grid-Middleware Grid Standards Middleware-Systeme Zusammenfassung

Mehr

Vorlesung: glite: Eine Grid Middleware für die HEP.

Vorlesung: glite: Eine Grid Middleware für die HEP. Vorlesung: glite: Eine Grid Middleware für die HEP. Yves Kemp DESY IT FHTW Berlin 28.06.2011 Was erwartet Sie die folgenden 60 Minuten? > HEP: Hoch-Energie-Physik (ein anderer Name für Teilchenphysik)

Mehr

Das CMS Experiment am Large Hadron Collider (LHC) am. Beispiel für globale Kommunikation in der Elementarteilchen-physik

Das CMS Experiment am Large Hadron Collider (LHC) am. Beispiel für globale Kommunikation in der Elementarteilchen-physik Das CMS Experiment am Large Hadron Collider (LHC) am Beispiel für globale Kommunikation in der Elementarteilchen-physik Übersicht: Am 10. September 2008 wurde am CERN in Genf der weltgrößte Teilchenbeschleuniger

Mehr

Neues in Hyper-V Version 2

Neues in Hyper-V Version 2 Michael Korp Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/mkorp Neues in Hyper-V Version 2 - Virtualisieren auf die moderne Art - Windows Server 2008 R2 Hyper-V Robust Basis:

Mehr

Hochleistungs-Disk-I/O

Hochleistungs-Disk-I/O Hochleistungs-Disk-I/O mit Lustre, dcache und AFS eine vergleichende Betrachtung Stephan Wiesand DESY DV 33. Treffen des ZKI AK Supercomputing Hamburg, 2010-03-04 Computing am DESY Standort Zeuthen Batch

Mehr

Das LHC-Computing-Grid Hauptseminar - Methoden der experimentellen Teilchenphysik

Das LHC-Computing-Grid Hauptseminar - Methoden der experimentellen Teilchenphysik Hauptseminar WS 2011/2012 Das LHC-Computing-Grid Hauptseminar - Methoden der experimentellen Teilchenphysik Julian Gethmann Karlsruher Institut für Technologie 03.02.2012 1 1 Ansprüche an die Rechnerinfrastruktur

Mehr

High Energy Physics Community Grid

High Energy Physics Community Grid High Energy Physics Community Grid Wolfgang Walkowiak Universität Siegen D-Grid All-Hands-Meeting Göttingen 10. September 2007 1 Grundlegende Fragen der Teilchenphysik Woraus besteht Materie? Welche Kräfte

Mehr

Next Generation IaaS von ProfitBricks

Next Generation IaaS von ProfitBricks Next Generation IaaS von ProfitBricks Warum IaaS? Was ist IaaS? SaaS Software as a Service IaaS Infrastructure as a Service RaaS Recovery as a Service PaaS Platform as a Service IaaS = Virtuelles Rechenzentrum

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

Instrument, Compute, Data Sharing Ressourcen gemeinsam nutzen statt selber aufbauen

Instrument, Compute, Data Sharing Ressourcen gemeinsam nutzen statt selber aufbauen Virtuelle Forschungsumgebungen aufbauen mit D Grid Workshop des WissGridFachberater Teams Instrument, Compute, Data Sharing Ressourcen gemeinsam nutzen statt selber aufbauen 19.01.2011 F.Schlünzen / DESY

Mehr

3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN?

3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN? 3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN? Udo Schaefer Berlin, den 10. November 2011 DIE NETZE UND IHRE NUTZUNG Berechnungsgrundlage 800 Millionen Facebook Nutzer Transport

Mehr

LimTec Office Cloud. 28.07.2011 LimTec www.limtec.de

LimTec Office Cloud. 28.07.2011 LimTec www.limtec.de LimTec Office Cloud 1 Überblick Ihre Ausgangssituation Ihre Risiken und Kostenfaktoren Die LimTec Office Cloud Idee Cluster und Cloud Office Cloud Komponenten Office Cloud Konfiguration Rückblick Vorteile

Mehr

Systemanforderungen ab Version 5.31

Systemanforderungen ab Version 5.31 Systemanforderungen ab Version 5.31 Auszug aus BüroWARE Erste Schritte Version 5.4 Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive Das Programm kann sowohl auf 32 Bit- als auch auf 64 Bit-en

Mehr

Systemvoraussetzungen für Autodesk Revit 2015 - Produkte (gemäß Angaben von Autodesk)

Systemvoraussetzungen für Autodesk Revit 2015 - Produkte (gemäß Angaben von Autodesk) Systemvoraussetzungen für Autodesk Revit 2015 - Produkte (gemäß Angaben von Autodesk) Mindestanforderung: Einstiegskonfiguration Betriebssystem ¹ Windows 8.1 Enterprise, Pro oder Windows 8.1 CPU-Typ Single-

Mehr

Dienstleistungen Abteilung Systemdienste

Dienstleistungen Abteilung Systemdienste Dienstleistungen Abteilung Systemdienste Betrieb zentraler Rechenanlagen Speicherdienste Systembetreuung im Auftrag (SLA) 2 HP Superdome Systeme Shared Memory Itanium2 (1.5 GHz) - 64 CPUs, 128 GB RAM -

Mehr

TECHNISCHE VORAUSSETZUNGEN 08/2015

TECHNISCHE VORAUSSETZUNGEN 08/2015 Hardware- und Software-Anforderungen zum Betrieb von GSD-Softwarelösungen Stand: 30. Juli 2015 Impressum: GSD Gesellschaft für Software, Entwicklung und Datentechnik mbh Ludwigsstädter Straße 95+97 D-96342

Mehr

UBELIX University of Bern Linux Cluster

UBELIX University of Bern Linux Cluster University of Bern Linux Cluster Informatikdienste Universität Bern ID BEKO Grid Forum 7. Mai 2007 Inhalt Einführung Ausbau 06/07 Hardware Software Benutzung Dokumentation Gut zu wissen Kontakt Apple/Mac:

Mehr

Grid-Computing in der Hochenergiephysik

Grid-Computing in der Hochenergiephysik Grid-Computing in der Hochenergiephysik Auf dem Weg zum Grid (EDG-Tutorial, Cristophe Jaquet) Once upon a time.. Microcomputer Mini Computer Cluster Auf dem Weg zum Grid (EDG-Tutorial, Cristophe Jaquet)

Mehr

Big Data Herausforderungen für Rechenzentren

Big Data Herausforderungen für Rechenzentren FINANCIAL INSTITUTIONS ENERGY INFRASTRUCTURE, MINING AND COMMODITIES TRANSPORT TECHNOLOGY AND INNOVATION PHARMACEUTICALS AND LIFE SCIENCES Big Data Herausforderungen für Rechenzentren RA Dr. Flemming Moos

Mehr

Integration von Mechatronik- und Softwaresystemen durch Virtualisierung von PLM-System-Komponenten

Integration von Mechatronik- und Softwaresystemen durch Virtualisierung von PLM-System-Komponenten Integration von Mechatronik- und Softwaresystemen durch 3DEXPERIENCE Customer Forum 26./27. Juni 2013 Mannheim Michael Hopf, Diplôme d'ingénieur - Master Degree, Doktorand KIT Universität des Landes Baden-Württemberg

Mehr

Talk 5: Technical and Economic Aspects of Inter-domain Service Provisioning

Talk 5: Technical and Economic Aspects of Inter-domain Service Provisioning Talk 5: Technical and Economic Aspects of Inter-domain Service Provisioning Markus Sonderegger, Bas Krist, Roland Haas 08. Dezember 2005 Inhalt 1. Einführung 2. Evolution der Wertekette 3. Beispielszenario

Mehr

Lang ist relativ kurz: Archivierung und Sicherung von Daten

Lang ist relativ kurz: Archivierung und Sicherung von Daten Lang ist relativ kurz: Archivierung und Sicherung von Daten am Leibniz-Rechenzentrum 15.10.2006 (Tag der offenen Tür) Dr. Bernd Reiner reiner@lrz.de Agenda Datensicherung (Backup + Archivierung) Archiv-

Mehr

Seminar im Sommersemester 2009. Complex and Distributed IT-Systems TU Berlin

Seminar im Sommersemester 2009. Complex and Distributed IT-Systems TU Berlin Betrieb komplexer IT-Systeme Seminar im Sommersemester 2009 Complex and Distributed IT-Systems TU Berlin Status Quo Rechenzentren erfüllen Vielzahl an Diensten Klassische Server-Dienste Mailserver, Newsserver,

Mehr

Mindestanforderungen an Systemumgebung Für die Nutzung von excellenttango

Mindestanforderungen an Systemumgebung Für die Nutzung von excellenttango Die Hardware- und Softwareanforderungen sind als allgemeine Anforderungen zu betrachten. Zahlreiche Faktoren können sich auf diese Anforderungen auswirken und müssen daher beachtet werden: Die Anzahl und

Mehr

Herausforderungen des Grid Computing für die universitäre IT- Struktur?

Herausforderungen des Grid Computing für die universitäre IT- Struktur? Herausforderungen des Grid Computing für die universitäre IT- Struktur? Uwe Schwiegelshohn D-Grid Corporation TU Dortmund 14. Oktober 2008 Finanzierungslücke im IT-Bereich Disziplinen mit traditionell

Mehr

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1 Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer

Mehr

Preise und Leistungen Dynamic Computing Services

Preise und Leistungen Dynamic Computing Services Preise und Leistungen Dynamic Computing Services Alle Preise in CHF exkl. MwSt. beim Bezug während 30 Tagen. Die effektive Verrechnung findet auf Tagesbasis statt, unabhängig von der Nutzungsdauer während

Mehr

Virtualisierung im Rechenzentrum

Virtualisierung im Rechenzentrum in wenigen Minuten geht es los Virtualisierung im Rechenzentrum Der erste Schritt auf dem Weg in die Cloud KEIN VOIP, nur Tel: 030 / 7261 76245 Sitzungsnr.: *6385* Virtualisierung im Rechenzentrum Der

Mehr

Zertifizierte Sicherung für medizinische Daten

Zertifizierte Sicherung für medizinische Daten Zertifizierte Sicherung für medizinische Daten 10.09.08 wir sichern Terabytes. FAST LTA AG Hintergrund und Firmenhistorie 1985 1994 1999 2005 2006 2008 Erste FAST Gründung (Software Security, Kryptographie)

Mehr

Server-Virtualisierung mit Citrix XenServer und iscsi

Server-Virtualisierung mit Citrix XenServer und iscsi Server-Virtualisierung mit Citrix XenServer und iscsi Universität Hamburg Fachbereich Mathematik IT-Gruppe 1. März 2011 / ix CeBIT Forum 2011 Gliederung 1 Server-Virtualisierung mit Citrix XenServer Citrix

Mehr

bw-grid Cluster in Mannheim

bw-grid Cluster in Mannheim bw-grid Cluster in Mannheim Dr. Heinz Kredel mit Helmut Fränznick, Rudi Müller, Steffen Hau, Andreas Baust Inhalt Grid und D-Grid BMBF Projekt bw-grid Cluster Stand: Aufbau und Inbetriebnahme Benutzung

Mehr

27. 03. 2007 IT-Frühstück IT Trend Virtualisierung Hype oder Nutzen? Praxisaspekte

27. 03. 2007 IT-Frühstück IT Trend Virtualisierung Hype oder Nutzen? Praxisaspekte Ole Raether raether@oraservices.de 27. 03. 2007 IT-Frühstück IT Trend Virtualisierung Hype oder Nutzen? Praxisaspekte Inhalt oraservices.de Probleme: Failover Cluster, RAC 24*7 Fazit Was tun? oraservices.de

Mehr

CMS. Compact Muon Solenoid Institut für Experimentalphysik

CMS. Compact Muon Solenoid Institut für Experimentalphysik Compact Muon Solenoid Kollaboration und Experiment Higgs und Supersymmetrie Bau des Silizium-Detektors Silizium-Detektor R&D GRID - Computing Hamburger CMS Gruppe: (ZEUS Gruppe) BMBF Förderung seit März

Mehr

Programmierung und Leistungsanalyse des bwgrid-clusters. Dr. Heinz Kredel und Dr. Hans-Günther Kruse

Programmierung und Leistungsanalyse des bwgrid-clusters. Dr. Heinz Kredel und Dr. Hans-Günther Kruse Programmierung und Leistungsanalyse des bwgrid-clusters Dr. Heinz Kredel und Dr. Hans-Günther Kruse Inhalt bwgrid Cluster Programmierung Threads, OpenMP, Kommunikation, OpenMPI, Strategien Leistungsanalyse

Mehr

Inhaltsverzeichnis. BüroWARE Systemanforderungen ab Version 5.31. Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2

Inhaltsverzeichnis. BüroWARE Systemanforderungen ab Version 5.31. Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2 Inhaltsverzeichnis Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2 1. Terminal-Server-Betrieb (SQL)... 3 1.1. Server 3 1.1.1. Terminalserver... 3 1.1.2. Datenbankserver (bei einer Datenbankgröße

Mehr

WINDOWS AZURE IM ÜBERBLICK GANZ NEUE MÖGLICHKEITEN

WINDOWS AZURE IM ÜBERBLICK GANZ NEUE MÖGLICHKEITEN WINDOWS AZURE IM ÜBERBLICK GANZ NEUE MÖGLICHKEITEN Dr. Bernd Kiupel Azure Lead Microsoft Schweiz GmbH NEUE MÖGLICHKEITEN DURCH UNABHÄNGIGKEIT VON INFRASTRUKTUR BISHER: IT-Infrastruktur begrenzt Anwendungen

Mehr

Oracle Database 10g Die RAC Evolution

Oracle Database 10g Die RAC Evolution Oracle Database 10g Die RAC Evolution Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 RAC-Revolution, RAC-Evolution & Computing Oracle8i mit OPS Oracle9i Rel.

Mehr

Inhalt: GridKa-Nutzung durch Experimente Tier2-Treffen im März Erfahrungen aus SC4 Anforderungen an GridKa

Inhalt: GridKa-Nutzung durch Experimente Tier2-Treffen im März Erfahrungen aus SC4 Anforderungen an GridKa TAB-Bericht Nov. 05 Jun.'06 1 Inhalt: GridKa-Nutzung durch Experimente Tier2-Treffen im März Erfahrungen aus SC4 Anforderungen an GridKa Günter Quast & Christian Zeitnitz, 14.6.'06 Quellen: - Experimentberichte

Mehr

Datenfluss in CERN-Experimenten

Datenfluss in CERN-Experimenten Ausarbeitung zum Hauptseminarvortrag Datenfluss in CERN-Experimenten von Valerie Scheurer Inhaltsverzeichnis 1. Das CERN 1.1 Allgemeines 1.2 Wichtige Errungenschaften 2. Das CMS Experiment 2.1 Aufbau 2.2

Mehr

Fragen zur GridVis MSSQL-Server

Fragen zur GridVis MSSQL-Server Fragen zur GridVis MSSQL-Server Frage Anmerkung 1.0 Server allgemein 1.1 Welche Sprache benötigt die Software bzgl. Betriebssystem/SQL Server (deutsch/englisch)? 1.2 Welche MS SQL Server-Edition wird mindestens

Mehr

TECHNISCHE VORAUSSETZUNGEN 09/2014

TECHNISCHE VORAUSSETZUNGEN 09/2014 Hardware- und Software-Anforderungen zum Betrieb von GSD-Softwarelösungen Stand: 18. September 2014 Impressum: GSD Gesellschaft für Software, Entwicklung und Datentechnik mbh Ludwigsstädter Straße 95+97

Mehr

Well-Balanced. Performance Tuning

Well-Balanced. Performance Tuning Well-Balanced Real Application Cluster Performance Tuning Über mich virtual7 GmbH Jürgen Bouché Zeppelinstraße 2 76185 Karlsruhe Tel.: +49 (721) 6190170 Fax.: +49 (721) 61901729 Email: jbouche@heine.de

Mehr

Der Nutzen und die Entscheidung für die private Cloud. Martin Constam Rechenpower in der Private Cloud 12. Mai 2014

Der Nutzen und die Entscheidung für die private Cloud. Martin Constam Rechenpower in der Private Cloud 12. Mai 2014 Der Nutzen und die Entscheidung für die private Cloud Martin Constam Rechenpower in der Private Cloud 12. Mai 2014 1 Übersicht - Wer sind wir? - Was sind unsere Aufgaben? - Hosting - Anforderungen - Entscheidung

Mehr

Einsatz von Sam-FS HSM am Max-Delbrück-Centrum

Einsatz von Sam-FS HSM am Max-Delbrück-Centrum Einsatz von Sam-FS HSM am Max-Delbrück-Centrum Vortrag am 18.6.2015 auf der 7. Sam-FS Nutzerkonferenz Christian Steinborn Dipl.-Inf./FH-Systembetreuer IT-Abteilung am Max-Delbrück-Centrum für molekulare

Mehr

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired make connections share ideas be inspired Data Guido Oswald Solution Architect @SAS Switzerland BIG Data.. Wer? BIG Data.. Wer? Wikipedia sagt: Als Big Data werden besonders große Datenmengen bezeichnet,

Mehr

Neue Speicherklassen Backup und Archive to Disk

Neue Speicherklassen Backup und Archive to Disk Neue Speicherklassen Backup und Archive to Disk Neue Speicherklassen Backup to Disk 1. Vorteile gegenüber herkömmlichen Band-Backups 2. Operationale Betrachtung 3. Finanzielle Betrachtung Archive to Disk

Mehr

Gliederung. Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik

Gliederung. Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik Cloud Computing Gliederung Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik 2 Bisher Programme und Daten sind lokal beim Anwender

Mehr

Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de

Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften Agenda Einleitung Vor- und Nachteile der Virtualisierung Virtualisierungssoftware

Mehr

Die aktuellen Top 10 IT Herausforderungen im Mittelstand

Die aktuellen Top 10 IT Herausforderungen im Mittelstand Die aktuellen Top 10 IT Herausforderungen im Mittelstand Ronald Boldt, SPI GmbH Über mich Ronald Boldt Leiter Business Solutions SPI GmbH Lehrbeauftragter für Geschäftsprozess orientiertes IT Management

Mehr

VMware als virtuelle Plattform

VMware als virtuelle Plattform VMware als virtuelle Plattform Andreas Heinemann aheine@gkec.informatik.tu-darmstadt.de Telekooperation Fachbereich Informatik Technische Universität Darmstadt Übersicht Einführung VMware / Produkte /

Mehr

4 Planung von Anwendungsund

4 Planung von Anwendungsund Einführung 4 Planung von Anwendungsund Datenbereitstellung Prüfungsanforderungen von Microsoft: Planning Application and Data Provisioning o Provision applications o Provision data Lernziele: Anwendungen

Mehr

Nutzen einer SAS GRID Umgebung für IT und Fachbereich

Nutzen einer SAS GRID Umgebung für IT und Fachbereich make connections share ideas be inspired Nutzen einer SAS GRID Umgebung für IT und Fachbereich POC Erfahrungen der Erste Bank Group Manuel Nitschinger SAS Platform Manager sit Solutions Austria Erste Group

Mehr

best Systeme GmbH Michael Beeck Geschäftsführer, CTO Michael.Beeck@best.de best Systeme GmbH

best Systeme GmbH Michael Beeck Geschäftsführer, CTO Michael.Beeck@best.de best Systeme GmbH best Systeme GmbH Michael Beeck Geschäftsführer, CTO Michael.Beeck@best.de best Systeme GmbH Münchner Str. 123a 85774 Unterföhring Tel: 089/950 60 80 Fax: 089/950 60 70 Web: www.best.de best Systeme GmbH

Mehr

Datenaustausch im Rechnerverbund NRW. Thomas Eifert Rechen- und Kommunikationszentrum der RWTH Aachen eifert@rz.rwth-aachen.de

Datenaustausch im Rechnerverbund NRW. Thomas Eifert Rechen- und Kommunikationszentrum der RWTH Aachen eifert@rz.rwth-aachen.de Datenaustausch im Rechnerverbund NRW Rechen- und Kommunikationszentrum der RWTH Aachen eifert@rz.rwth-aachen.de RV-NRW: Status Der Verbund auf Basis von DCE/DFS läuft technisch stabil Rechenzentren stellen

Mehr

Das Citrix Delivery Center

Das Citrix Delivery Center Das Citrix Delivery Center Die Anwendungsbereitstellung der Zukunft Marco Rosin Sales Manager Citrix Systems GmbH 15.15 16.00 Uhr, Raum B8 Herausforderungen mittelständischer Unternehmen in einer globalisierten

Mehr

D-Grid Site Monitoring im Hinblick auf EGI

D-Grid Site Monitoring im Hinblick auf EGI D-Grid Site Monitoring im Hinblick auf EGI Foued Jrad KIT die Kooperation von Die Kooperation von www.kit.edu Agenda Site Functional Tests Ersatz für SFT in D-Grid Zukunft der Site Monitoring in D-Grid

Mehr

Markus Feichtinger. Power Systems. Der Weg zu POWER! 2009 IBM Corporation

Markus Feichtinger. Power Systems. Der Weg zu POWER! 2009 IBM Corporation Markus Feichtinger Power Systems Der Weg zu POWER! Agenda Motivation Lösung Beispiel Export / Import - Überblick - Migration Beispiel XenoBridge - Überblick - Migration Benefits 2 Motivation Strategisch

Mehr

PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD

PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD PROLAG WORLD 2.0 PRODUKTBESCHREIBUNG SERVERSYSTEM, CLUSTERSYSTEME FÜR PROLAG WORLD Inhaltsverzeichnis 1. ZUSAMMENSTELLUNG VON SERVERN...3 1.1. ANFORDERUNGSPROFIL...3 1.2. 1.3. SERVER MODELLE...3 TECHNISCHE

Mehr

Seminar. Grid-Computing. Wintersemester 2005/2006

Seminar. Grid-Computing. Wintersemester 2005/2006 Seminar Grid-Computing Wintersemester 2005/2006 Gabriele von Voigt, Christian Grimm Stefan Piger, Jan Wiebelitz, Denis Göhr C. Grimm 12. Oktober 2005 Entstehung und Definition Grid-Computing Versuche zur

Mehr

VirtualBox und OSL Storage Cluster

VirtualBox und OSL Storage Cluster VirtualBox und OSL Storage Cluster A Cluster in a Box A Box in a Cluster Christian Schmidt Systemingenieur VirtualBox und OSL Storage Cluster VirtualBox x86 und AMD/Intel64 Virtualisierung Frei verfügbar

Mehr

Grid Computing. Einführung. Marc Lechtenfeld. Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen

Grid Computing. Einführung. Marc Lechtenfeld. Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen * Grid Computing Einführung Marc Lechtenfeld Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen Übersicht 1 Problematik 2 Systemanforderungen 3 Architektur 4 Implementation 5 Projekte

Mehr

Private Cloud mit Eucalyptus am SCC

Private Cloud mit Eucalyptus am SCC Private Cloud mit Eucalyptus am SCC Christian Baun 15. Dezember 2009 KIT The cooperation of Forschungszentrum Karlsruhe GmbH und Universität Karlsruhe (TH) http://www.kit.edu Cloud-Comuting = Grid-Computing?!

Mehr

Erneuerung des Archiv- und Backup-Systems

Erneuerung des Archiv- und Backup-Systems Wendlingweg 10: Neue ungefüllte Library, Feb. 15 2015 Feb. Nov. Dez. Inbetriebnahme der Hardware Installation und Einrichtung der Backup-Server neues Backup-Portal Verfahrensprüfung der Umstellung Test

Mehr

Das Unternehmen. BASYS Bartsch EDV-Systeme GmbH Hermine Seelhoff Str. 1-2 28357 Bremen Tel. 0421 434 20 30. Gegründet: 1988.

Das Unternehmen. BASYS Bartsch EDV-Systeme GmbH Hermine Seelhoff Str. 1-2 28357 Bremen Tel. 0421 434 20 30. Gegründet: 1988. Seite 2 Dr. Stephan Michaelsen www.basys-bremen.de Das Unternehmen BASYS Bartsch EDV-Systeme GmbH Hermine Seelhoff Str. 1-2 28357 Bremen Tel. 0421 434 20 30 www.basys-bremen.de vertrieb@basys-bremen.de

Mehr

NEVARIS Build Systemvoraussetzungen

NEVARIS Build Systemvoraussetzungen Konfiguration der Hardware-Umgebung für NEVARIS Build Die optimale Konfiguration einer passenden Hardware für NEVARIS Build mit der Datenbank SQL von Microsoft hängt von zahlreichen Einflussgrößen ab,

Mehr