Computing in der Hochenergiephysik in Deutschland Bestandsaufnahme und Aussicht

Größe: px
Ab Seite anzeigen:

Download "Computing in der Hochenergiephysik in Deutschland Bestandsaufnahme und Aussicht"

Transkript

1 Computing in der Hochenergiephysik in Deutschland Bestandsaufnahme und Aussicht Computing Project Board der Helmholtz Allianz Physics at the Terascale, Nov Das vorliegende Dokument wurde vom erweiterten Computing Project Board der Helmholtz-Allianz Physik an der Teraskala erstellt, das Vertreter des deutschen Tier1-Zentrums und aller deutschen Tier-2-Standorte sowie der LHC-Experimente Alice, ATLAS, CMS und LHCb und des Belle II- Experiments umfasst. Kurzdarstellung und Empfehlungen Das Modell der weltweit verteilten Datenanalyse bietet die Möglichkeit der schnellen Auswertung von Datenmengen im PetaByte-Bereich und war bei den LHC-Experimenten eine wesentliche Voraussetzung für den großen Erfolg der Analysen der vergangenen Datennahmeperiode. Der deutsche Anteil und Beitrag mit dem Tier-1 Zentrum GridKa am KIT, den verteilten Tier-2 Zentren am DESY, an der GSI und am MPI München sowie an den Universitäten Göttingen, Aachen, Wuppertal, Freiburg und an der LMU München hat gut funktioniert und international einen deutlich sichtbaren Beitrag bereitgestellt, der ca. 15% des weltweiten Tier-1-Bereiches und ca. 10% der Tier-2-Ressourcen beträgt. Die Nationalen Analyse-Facilities (NAF) am DESY und an der GSI stellen deutschlandweit von den Nutzern sehr gut angenommene und ausgelastete Ressourcen für die Datenauswertung zur Verfügung und werden auch in Zukunft benötigt. Neben den Hardware- und Infrastrukturressourcen ist ausreichend qualifiziertes Personal für die Betreuung der Systeme und der GRID-Middleware, für experimentspezifische Aufgaben sowie für Entwicklungsarbeiten zur Einbindung neuer Technologien notwendig. Dies ist eine Grundvoraussetzung für die effiziente Ressourcennutzung. Die Koordination der deutschen Beiträge zum Computing GRID geschieht innerhalb der einzelnen Experimente, dem Technical Advisory Board und Overview Board von GridKa und dem Allianz Computing Projekt Board, wobei letzteres die umfassendste Vertretung aller Standorte und Experimente bietet. Die Zusammenarbeit und Koordination im Computing Project Board hat sich gut bewährt und sollte unserer Ansicht nach auch in der Zukunft beibehalten werden. Die kommenden langjährigen Datennahmephasen der Experimente erfordern einen kontinuierlichen, regelmäßigen Ausbau der Computingressourcen und der Netzwerke. Der deutsche Beitrag sollte dabei den international abgestimmten Ressourcenplanungen im Worldwide LHC Computing GRID (WLCG) folgen. Zusätzlich zum wachsenden Bedarf der LHC-Experimente müssen die Anforderungen des Belle II-Experiments und für den ILC eingeplant werden. 1

2 1. Einleitung Die Hochenergiephysik ist ein Wissenschaftsbereich mit höchsten Ansprüchen an das Computing. Dies bedeutet sowohl große Anforderungen an die Rechenleistung - im Sinne des Capability Computings, z.b. für Simulationsrechnungen, als auch im Sinne des Capacity Computings für z.b. die Ereignisrekonstruktion und Datenanalyse. Ebenso herausragend in der Hochenergiephysik ist der Umgang mit sehr hohen Datenmengen; daher ist HEP auch eine Big Data Disziplin. Gerade die großen Datenmengen führten zu der Entwicklung des GRID-Computings, wie es seit einigen Jahren im Rahmen der LHC-Experimente und auch schon davor am Tevatron sowie am HERA, erfolgreich angewendet worden ist. Aufgrund des Erfolgs des GRID Computings basieren auch die Computingmodelle zukünftiger Experimente, wie Belle II oder für den ILC, auf dieser Technologie. Ähnlich große Datenmengen und Anforderungen an die benötigte Rechenleistung gibt es heute auch in anderen Wissenschaftsbereichen, einige weitere werden in den nächsten Jahren aufschließen (z.b. Astronomie, Astroteilchenphysik und die Experimente am FAIR). Im Folgenden wird sowohl der Status des Computing dargestellt, als auch auf den notwendigen Ausbau und Weiterentwicklungen in den kommenden Jahren eingegangen. 2. Status des HEP Computing Das Computingmodell der Teilchenphysik basiert historisch auf einem hierarchischem System von Rechenzentren ( Tier-Zentren ). Hierbei werden die Rohdaten der Experimente im Labor (z.b. CERN) im Tier-0 gespeichert und dann weiterverteilt. Bei den LHC-Experimenten erfolgt die Rekonstruktion an den Tier-1 Zentren in 11 Ländern. Dabei ist anzumerken, dass nicht jedes Tier-1 Zentrum alle Experimente unterstützt. Je nach Experiment werden die rekonstruierten Daten zusätzlich noch in ein oder mehrere kompaktere Formate übertragen und weltweit auf die 12 Tier-1 und 69 Tier-2 Zentren in 34 Ländern verteilt, wo sie für die endgültige Analyse zur Verfügung stehen. Zum Computingbedarf zur Verarbeitung der Daten kommt noch die Erzeugung von Simulationsereignissen benötigte Rechenleistung hinzu, die überwiegend von den Tier-2 Zentren geliefert wird. Für die LHC-Experimente werden die Aktivitäten, die Anforderungen und Überwachung des Systems in der World-wide-LHC-Computing-GRID (WLCG) Kollaboration koordiniert. Aus dem WLCG-Monitoring geht hervor, dass die deutschen Tier-Zentren einen signifikanten Anteil der Ressourcen (15% der T1 und 10% der T2 Kapazitäten, wie in etwa nach dem WLCG- Schlüssel basierend auf der Anzahl der Autoren erwartet) beisteuern und zu den weltweit besten hinsichtlich Betriebsstabilität gehören. Das HEP Computing hat in den letzten Jahren sehr gut funktioniert. Der Gesamtbedarf für die LHC-Datenanalyse wird allerdings erst durch die Nutzung zusätzlicher Tier-3-Ressourcen und der Nationalen Analyse Facilities (NAF) am DESY und der GSI abgedeckt. Zusätzlich und außerhalb des WLCG sind weitere, sogenannte Tier-3 Zentren an vielen Instituten vorhanden, auf denen die lokalen Arbeitsgruppen ihre Analysen entwickeln und durchführen. Die Nutzung der verschiedenen Tier-Zentren unterscheidet sich von Experiment zu Experiment etwas, aber es gibt generell eine Unterscheidung zwischen einerseits der zentralen Steuerung der Datenverteilung, Rekonstruktion, Selektion von Daten und Simulation, und andererseits der Endanalyse durch Physiker. Die zentrale Nutzung der Ressourcen ist gut kontrollierbar, wogegen der Zugriff auf Ressourcen bei der Endanalyse nicht zentral koordiniert werden kann und mit zeitlich starken Schwankungen einhergeht. Die Weiterentwicklung der Analysemodelle der Experimente basiert auf den Erfahrungen der erfolgreichen Analyse der LHC-Daten und auf neuen technologischen Möglichkeiten, insbesondere im Netzwerkbereich. Dabei findet eine Entwicklung von der hierarchischen hin zu einer föderativen Struktur statt, innerhalb der auch direkte Verbindungen zwischen Tier-2 Zentren, sowie direkter 2

3 Fernzugriff auf Daten ermöglicht werden Technische Anforderungen Die Anforderungen an die verschiedenen Tier-Zentren unterscheiden sich deutlich und sind in MoU s schriftlich niedergelegt. Das Tier-0 und die Tier-1 Zentren müssen einen 24x7 Betrieb garantieren, und es werden Speichersysteme mit Bandanbindung und eine exzellente Netzwerkanbindung benötigt (je nach Tier 1 Zentrum im Bereich von einem bis zu mehreren 10 GBit/s). Es bestehen direkte Verbindungen zum Tier-0, die über ein eigenes (virtuelles) Netzwerk, das LHCOPN (LHC optical private network), realisiert wurden. Bei den Tier-2 Zentren wird ein 8x5 Betrieb und eine gute (einige GBit/s) Netzwerkanbindung verlangt. Ein Tape-Backend ist nicht notwendig, da Daten im Notfall vom Tier-1 wiederhergestellt werden können. Bei ATLAS war jedes Tier-2 im klassischen hierarchischen Modell einem Tier-1 zugeordnet, von dem es seine Daten bezog. Da lediglich 10 Tier-1 Zentren für ATLAS existieren, sind viele Tier-2 Zentren einem Tier-1 in einem Nachbarland zugeordnet. Dem Tier-1 Zentrum am KIT sind neben den deutschen auch die Tier-2 Zentren in Polen, der Schweiz und Tschechien zugeordnet. Derzeit entstehen weitere T1-Zentren in Korea (für Alice) und in Russland (für alle 4 Experimente), das CMS Tier-1 Zentrum in Taipeh/Taiwan wird geschlossen. Die technische Realisierung der großen Computerfarmen der Tier-Zentren, erfordert ein erhebliches Know-How, da die Infrastruktur stark an die jeweiligen Anforderungen angepasst werden muss. Während Simulationsrechnugen im wesentlichen CPU-Leistung und nur relativ geringe Netzwerkbandbreite benötigen, hängen Rekonstruktion und insbesondere die Analyse kritisch von sehr schnellen Massenspeichersystemen und deren Anbindung an die Prozessorfarmen ab. Zur vollständigen Nutzung der Rechenkapazität benötigen die Prozessor-Kerne Daten mit einer Bandbreite von etwa MByte pro Sekunde. Bei Prozessoren mit vielen Kernen werden sehr hohe Datenraten und entsprechend leistungsfähige lokale Netze benötigt Infrastruktur Weltweit stehen (Stand Ende 2012) die in Tabelle 1aufgeführten Ressourcen im WLCG zur Verfügung. In Abbildung 1ist die Aufteilung auf die verschiedenen Zentren dargestellt. Tier-0 Tier-1 Tier-2 CPU-Kerne Disk (PByte) Tape (PByte) CPU-Kern = 10 HEPSpec06 Tabelle 1: Verfügbare WLCG-Ressourcen % der genutzten Ressourcen sind an den Tier-2 Zentren vorhanden. Die tatsächlich genutzten Ressourcen an den Tier-2 Zentren sind aber im Mittel etwa 50% höher als der Anteil an den bereitgestellten plegded Ressourcen. Dies ist bedingt durch die Möglichkeit der opportunistischen Nutzung freier CPU-Leistung von angegliederten Tier-3 Zentren, sowie durch den Betrieb von Ressourcen als shared resource, die von mehreren Communities genutzt werden. Diese erheblichen, zusätzlich genutzten Ressourcen ergänzen den knapp bemessenen Rahmen der Tier-2- Ressourcen und erlauben die effiziente Ausschöpfung des Physikpotenzials des LHC (siehe auch Abschnitt 2.3). 3

4 Abbildung 1: Anteile an den CPU-Ressourcen im gesamten WLCG im Jahr 2012 Das deutsche Tier-1 Zentrum GridKa wird vom KIT (Campus-Nord) betrieben. Es unterstützt die vier LHC-Experimente ATLAS, CMS, Alice und LHCb und die nicht-lhc-experimente D0, CDF, Babar, Compass und Belle, die aber nur noch einen kleinen Anteil an den Ressourcen haben. Weiterhin wird das im Aufbau befindliche Experiment Belle II unterstützt, und auch die Astroteilchenphysik ist mit dem Auger Experiment bei der Nutzung des GridKa mit erheblichen Anteilen beteiligt. Die deutschen Tier-2 Zentren stellen für Alice bei der GSI (1), für ATLAS an den Universitäten Freiburg(0,5), Göttingen(0,5), München(0,5) und Wuppertal(0,5), beim DESY(1) und am Max- Planck-Institut für Physik(0,5), sowie für CMS an der RWTH Aachen(0,5) und am DESY(1) den Kollaborationen Ressourcen zur Verfügung. Die Zahl in den Klammern gibt die ungefähre relative Größe in Bezug auf ein nominelles (experimentspezifisches) Tier-2-Zentrum an. Für LHCb gibt es ein Tier-2 Zentrum am DESY. Weiterhin betreiben die GSI und DESY je eine National Analysis Facility (NAF), die deutschlandweit für die Datenanalyse zur Verfügung steht. Auch nicht-lhc- Experimente werden an Tier-2 Standorten unterstützt. So werden am DESY die HERA- und ILC- Experimente, das Belle II Experiment und auch die Astroteilchenphysik unterstützt. Ähnliches gilt auch für andere Tier-2- Standorte. Die Betriebskosten der universitären Tier-2 werden im Wesentlichen aus Landesmitteln gedeckt. Diese Tier-2 Zentren dienen außerdem der Aus- und Weiterbildung des wissenschaftlichen Nachwuchses und stellen somit die Nachhaltigkeit der Expertise im GRID-Computing sicher. Aus diesem Grund sind die in Deutschland etablierten Tier- 2-Föderationen zwischen Universitäten und nicht-universitären Einrichtungen zur optimalen Balance und Entwicklung der Community besonders wichtig. Der zugesagte ( pledged ) deutsche Anteil am WLCG betrug 2012 etwa 15% an Ressourcen; damit ist GridKa das größte Tier-1 Zentrum weltweit. Bei den Tier-2 beträgt der Anteil etwa 10%; hier belegt Deutschland weltweit Rang 4 (nach US, UK, Italien). Die 2012 an den deutschen Tier- Zentren installierten Ressourcen sind in Tabelle 2 zusammengefasst. 4

5 Ort CPU Plattenplatz Kerne Anteil TByte Anteil GridKa % % DESY % % MPG 578 3% 670 3% GSI 700 4% 550 4% Universitäten % % Summe Anmerkung: 1 CPU-Kern = 10 HEPSpec06 Quelle: WLCG - Tabelle 2: Zugesagte ( pledged ) Computing-Ressourcen in Deutschland 2012 Die relativen Anteile der Ressourcen an den deutschen Tier-Zentren sind bei den verschiedenen Experimenten unterschiedlich groß. Dies liegt daran, dass die Anzahl der Tier-Zentren pro Experiment sehr unterschiedlich ist. So stellt z.b. das GridKa 25% der gesamten Alice Tier-1 Ressourcen zur Verfügung, da lediglich vier Alice Tier-1 Zentren weltweit existieren Nicht-WLCG-Ressourcen (Tier-3 bzw. NAF) Ein wesentlicher Teil der End-Analysearbeiten einzelner Nutzer findet auf institutseigenen Ressourcen (Tier-3) und der NAF am DESY bzw. der GSI statt. National Analysis Facilities am DESY und an der GSI Die NAFs am DESY und der GSI werden deutschlandweit genutzt. Die Nutzung wird durch Experimentvertreter zusammen mit den IT Abteilungen bei DESY und der GSI koordiniert. Am DESY ist die NAF mit 2800 CPU-Kerne sowie 4,4 PB Plattenspeicher ausgestattet; daneben steht ein schnelles Filesystem mit der Größe von 700 TB für die finale Analyse zur Verfügung. Bei der GSI stehen 1400 CPU-Kerne sowie 1,5 PB für die Alice-Datenauswertung in der NAF zur Verfügung. Universitäre Tier-3 Zentren Die institutseigenen Tier-3 Ressourcen, also CPU- und Plattenkapazität, unterliegen einem anderen Betriebsmodus. In der Regel nutzen nur die lokalen Gruppen diese Ressourcen, an einigen Zentren haben aber auch alle deutschen Nutzer Zugriff. Eine Umfrage im Juli 2013 hat ergeben, dass ca CPU-Kerne und 4,2 PByte Plattenplatz an 11 weiteren deutschen Instituten vorhanden sind, die zeitweise und anteilig für die LHC-Analyse zur Verfügung stehen. Dies entspricht in etwa dem halben Plattenplatz und fast dem 1,8 fachen der CPU-Ressourcen der Tier-2 Zentren. Erst die Investition von Bundesmitteln in die Tier-1 und Tier-2 Ressourcen, die zentrale, von den Experimenten bestimmte Aufgaben übernehmen, erzeugt für die Universitäten und Bundesländer eine Attraktivität, in großem Umfang in die Infrastruktur der lokalen Endnutzer für deren physikalische Analysen in Form von Tier-3 Zentren zu investieren. Diese Symbiose stellt aufgrund der etablierten Aufgabenteilung eine ausgewogene Balance der beteiligten Partner in Verantwortung und Nutzen dar. Dadurch wird eine optimale Ausnutzung des Physikpotenzials des LHC durch die beteiligten Arbeitsgruppen in Deutschland erst ermöglicht Betrieb der Ressourcen Das systemnahe Betriebspersonal, sowie die Betriebskosten, werden von den Standorten bereitgestellt. Die effiziente Nutzung in den Experimenten erfordert daneben den deutschlandweit koordinierten Einsatz von Personal für Datenmanagement und für Liaisonaufgaben zu den Analysen und 5

6 dem internationalen Betriebspersonal in den Experimenten. Weiterhin gibt es Kontakte zu den Technologie- und Software-Entwicklern, um frühzeitig von neuen technologischen Entwicklungen zu profitieren. Mittel für Personal in diesem Aufgabenbereich werden aus der Verbundforschung des BMBF bereitgestellt. Die Weiterentwicklung wichtiger GRID-Softwarekomponenten, wie etwa dcache, sowie von Analysesupportwerkzeuge, ist notwendig, um die Anforderungen zu erfüllen und Technologieentwicklungen effizient nutzen zu können. Entsprechende Mittel wurden, neben anderen Quellen, auch aus der Helmholtz-Allianz Physik an der Teraskala bereitgestellt Nutzung der Ressourcen Das Tier-1 Zentrum GridKa am KIT wird sowohl von den LHC-Experimenten, als auch von Experimenten wie Auger, Babar, Belle (II), CDF, Compass und DZero genutzt. Einen nennenswerten Anteil an der Nutzung erreicht, neben den LHC-Experimenten, aber nur das Auger Experiment. Die Nutzung ist zur Zeit durch die LHC-Experimente dominiert. Die Effizienz der genutzten Analyseprogramme ist durchweg sehr hoch, mit nur geringen Unterschieden zwischen den Experimenten. Die Auslastung der verfügbaren CPU-Kerne und des Speicherplatzes ist ebenfalls sehr hoch. Dies zeigt die Nutzungs- und Ressourcenstatistik für die LHC- Datenanalyse an dem Tier-1 und den Tier-2 Zentren in den vergangenen 12 Monaten, siehe Abbildung 2. Abbildung 2: Nutzungs- und Ressourcenstatistik für die LHC-Datenanalyse an den Standorten der deutschen Tier-1 und Tier-2 Zentren Gerade an den Tier-2 Zentren werden zeitweise doppelt so viele Ressourcen für die Tier-2 Aufgaben genutzt, wie ursprünglich versprochen worden sind. Dies ist auf die erwähnte opportunistische Nutzung der lokal vorhandenen Tier-3 Ressourcen zurückzuführen, aber auch auf die Nutzung von Ressourcen, die temporär von anderen nicht-lhc-communities nicht genutzt wurden. Dies zeigt, dass die zugesagten Ressourcen an den Tier-2 Zentren nicht ausreichen, um den realen Bedarf zu decken. Die zusätzlich genutzte CPU-Leistung steht allerdings nur ohne langfristige Planungssicherheit zur Verfügung. Wie in Abbildung 3 ersichtlich, trifft dies auch weltweit für die Nutzung der Tier-2 zu. 6

7 Abbildung 3: Weltweite Nutzungsstatistik der Tier-2 CPU-Ressourcen pro Experiment. Es ist das Verhältnis von genutzter/zugesagter CPU-Nutzung dargestellt Netzwerkanforderungen und Nutzung Bei der Datenanalyse werden große Datenvolumen verarbeitet; die Datentransfers und der Zugriff auf entfernte gespeicherte Daten stellt daher hohe Anforderungen an das nationale und internationale Netzwerk. In Abbildung 4 sind die monatlichen Datentransfers innerhalb des WLCG gezeigt. Diese liegen im Bereich von 20 PByte/Monat, was etwa 25% der gespeicherten Datenmenge der Experimente entspricht. Nicht erfasst, aber ebenso notwendig, sind die Datentransfers der NAF und der Tier-3 Zentren an den Instituten, die vor allem für die Endanalyse wichtig sind. In der Vergangenheit kam es bereits vereinzelt zu einer Überlastung der Netzwerkverbindungen an Tier-2 Zentren. Aus diesem Grund wurde das LHC-Netzwerk (LHCONE) Projekt zur Verbindung der Tier- 1 und Tier-2 Zentren auf internationalem Niveau gestartet. Ein funktionelles und performantes Netzwerk ist Voraussetzung für die erfolgreiche Nutzung der GRID-Ressourcen. Dies hat in der Vergangenheit ausreichend gut funktioniert und muss auch beim Ausbau der Ressourcen für die Zukunft entsprechend erweitert werden Erfahrungen In der Datennahmephase der LHC-Experimente von war das Computing eine wesentliche Voraussetzung für die erfolgreiche Datenauswertung am LHC. Das WLCG hat gut funktioniert und gerade die deutschen Standorte haben substantiell zum Erfolg beigetragen. Hierbei war vor allem auch die Flexibilität zu Reaktion auf veränderte Bedingungen wichtig. Die intensive Zusammenarbeit zwischen den Experimenten und den Tier-Zentren im Technical Advisory Board (TAB) des GridKa war hier genauso wichtig, wie die Zusammenarbeit der Standorte innerhalb eines Experiments. Während bei den Tier-2 Zentren die Nähe zu den Experimentgruppen standortbedingt gegeben ist, sind gerade für den Betrieb des Tier-1 die Experimentkontaktpersonen am GridKa extrem wichtig, um den Ressourceneinsatz zu koordinieren und um schnell auf Probleme reagieren zu können. Hier zeigt sich ganz deutlich, dass ein reiner Servicebetrieb, ohne die experimentnahe Betreuung der Tier-Zentren, für das LHC-Computing nicht funktionieren würde. 7

8 Abbildung 4: Datentransfer für die LHC Datenanalyse zwischen Tier-0, Tier-1 und Tier-2 Zentren, etwa 10% der Daten fließt an deutsche Zentren Es hat sich in den letzten Jahren aber auch gezeigt, dass die Personaldecke im Computingbereich extrem dünn ist und es sehr schwierig ist, Stellen mit geeigneten Kandidaten zu besetzen. Daher ist gerade der Ausbildungsaspekt, vor allem an den universitären Tier-2 Zentren, von großer Bedeutung. Weiterhin ist eine breite Basis an Expertise bei den verschiedenen benötigten Komponenten sehr wichtig für den Betrieb und die technologische Weiterentwicklung bei wachsenden Anforderungen. Hier ist einerseits das Speichermanagementsysytem dcache zu nennen, weitere wichtige Beiträge zum stabilen und effizienten Betrieb der Infrastruktur lieferten auch andere deutsche Entwicklungsprojekte wie Überwachungswerkzeuge für Dienste und Standorte ( HappyFace ) und Werkzeuge zum Job-Management ( Ganga ) und -Monitoring. Die erfolgreiche Durchführung von Simulations-Produktionskampagnen des Belle II-Experiments hat gezeigt, dass auch zukünftige Experimente stark von der etablierten GRID-Infrastruktur profitieren und Synergieeffekte über die LHC-Experimente hinaus bestehen Planungen für 2014 Der LHC befindet sich 2013 und 2014 im Long-Shutdown 1. Damit kommen keine zusätzlichen Daten von den Experimenten herein. Es wird aber intensiv an der Analyse der regulären und insbesondere der in 2012 zusätzlich genommenen 8 TeV Daten gearbeitet, des Weiteren läuft die Vorbereitung auf den Start in 2015 mit höherer Schwerpunktsenergie; beides macht neue und zusätzliche Simulationsrechnungen erforderlich. Die Experimente überarbeiten und optimieren wesentliche Teile der Software und des Computingmodells, um die Effizienzen weiter zu erhöhen und den Ressourcenbedarf zu minimieren. Für das Jahr 2014 werden nur wenige zusätzliche Ressourcen benötigt Bisherige Finanzierung Die Finanzierung der Tier-Zentren über die letzten 10 Jahre war sehr heterogen. Für die Tier-1 Investitionen standen anfangs Mittel des damaligen FZK und bis 2012 signifikante Sonderbewirt- 8

9 schaftungsmittel des BMBF zur Verfügung, während die Betriebs- und Personalkosten seit der 2. Periode der Programmorientierten Förderung (PoF-2) durch die Helmholtz-Gemeinschaft getragen wurden. Die Tier-2 Zentren starteten als Installationen im Rahmen der D-GRID Initiative, und ab 2007 wurde die Hardware über die Helmholtz Allianz Physik an der Teraskala finanziert. Die Installation am DESY (Tier-2 und NAF) wurde sowohl aus DESY Eigenmitteln, Mitteln aus der PoF-2, Allianzmitteln, als auch Sondermitteln vom BMBF aufgebaut und finanziert. Sowohl die Mittel für den technischen Betrieb, als auch die Betriebskosten werden hierbei vom jeweiligen Institut aufgebracht. Die Tier-2 Finanzierung durch die Helmholtz Allianz ist 2012 ausgelaufen. Einmalige Sondermittel des BMBF haben die Ressourcen für das Jahr 2013 und 2014 gesichert. Insgesamt ergibt sich in den Jahren das in Abbildung 5 dargestellte Bild der heterogenen Finanzierung der Tier-2 Zentren in Deutschland. Hierbei ist zu beachten, dass bei den Betriebskosten lediglich die direkten Stromkosten und das direkte technische Personal eingerechnet worden ist. Wie aus der Abbildung zu entnehmen ist, betragen die Investitionskosten der letzten fünf Jahre im Mittel etwa 2,9 M /Jahr. Hinzu kommen die Betriebskosten in Höhe von 2,6 M /Jahr. Darin sind etwa 130 k /Jahr für das private Netzwerk LHCONE enthalten. 3. Herausforderungen ab 2015 Abbildung 5: Finanzierung der Tier-2 Zentren seit 2007 Der LHC wird 2015 den Betrieb wieder aufnehmen. Die Schwerpunktsenergie auf etwa 13TeV erhöht und es wird erwartet, dass die Luminosität schnell die Werte von 2012 übertreffen wird. Beides zusammen führt zu mehr und komplexeren Ereignissen und damit zu einer Erhöhung der benötigten Rechenzeit für die Rekonstruktion. Zusammen mit einer Erhöhung der Datennahmerate um etwa einen Faktor 2 steigen damit die Anforderungen an das Computing erheblich. Im Vergleich zu Run I in wird insgesamt bis 2018 eine viermal größere Datenmenge für 100fb -1 erwartet. Dies bedingt auch eine Erhöhung des Datenvolumens für die Analysetätigkeiten, deren nicht-zentral koordinierter Charakter eine enorme Anforderung an die Tier-2, NAF und Tier-3 Ressourcen darstellt. Die starken Schwankungen der Last sind hierbei nur schwer abzufangen. Die damit einhergehenden Datentransfers werden das Netzwerk sehr stark belasten und bedingen einen deutlichen Ausbau der Anschlusskapazitäten der Zentren. 9

10 Belle II wird ab 2016 Daten nehmen und nach einer Anlaufphase von etwa zwei Jahren eine Datenrate produzieren, die etwa der eines LHC-Experiments entspricht. Eine besondere Herausforderung ist die Netzwerkanbindung nach Japan; allerdings halten sich die Anforderungen dadurch im Rahmen, dass kein Transfer von Rohdaten nach Europa vorgesehen ist Ressourcenbedarf ab 2015 Es wird im WLCG erwartet, dass für den Start der Analyse der neuen Daten die Ressourcen der Tier-1 und Tier-2 Zentren 2015 jeweils um etwa 30-35% steigen müssen. Die hier verwendeten Anforderungen der Experimente für 2015 und 2016 werden noch im Computing Resource Review Board (RRB) des CERN vorgestellt und abschließend begutachtet und genehmigt. Ab 2016 wird von einem Zuwachs der Ressourcen von etwa 20% pro Jahr ausgegangen, was vermutlich mit einem konstanten Budget erreicht werden kann und gleichzeitig den notwendigen Ersatz veralteter Hardware abdeckt. Die erwartete Gesamtentwicklung der WLCG-Ressourcen ist in Abbildung 6 gezeigt. Ab etwa 2018 wird das Belle II Experiment ebenfalls erhebliche Computing-Ressourcen benötigen. Bei einem Anteil von ~14% am Gesamtexperiment werden diese eine ähnliche Größe wie die eines der großen LHC-Experimente erreichen und sind in den obigen Betrachtungen nicht enthalten; sie sind in Abbildung 6 ebenfalls dargestellt. Abbildung 6: Entwicklung der CPU- und Speicher-Ressourcen. Der deutsche Anteil ist etwa 15% für die Tier-1, 10% für die Tier-2 und 14% für die Belle-II Ressourcen Technische Weiterentwicklung Die Einbindung neuer Technologien in die Computingmodelle der HEP Experimente wird in den nächsten Jahren ein wichtiger Teil der Entwicklungsarbeit ausmachen. Wichtige und vielversprechende Entwicklungsfelder sind: 10 die Parallelisierung und Vektorisierung der Software, die Nutzung von GPUs,

11 der Einsatz von Cloud-Ressourcen, die Nutzung von High-Performance-Computing-Ressourcen, sowie die insgesamt die Erweiterung zur dynamischen Nutzung von weltweit freien Ressourcen. Bei der Ausnutzung der Fähigkeiten neuester Hardwarearchitekturen werden erhebliche Leistungssteigerungen erwartet. Hierfür müssen Teile der Software neu geschrieben werden, was einen erheblichen Entwicklungsaufwand darstellt. Das notwendige Know-How, sowohl für die Vektorisierung der Software, als auch der Nutzung von GPUs, ist an einigen Orten bereits vorhanden, muss aber noch deutlich vergrößert und breiter gestreut werden. Eine Zusammenarbeit aller Experimente ist hier notwendig. Die Nutzung von nicht HEP-spezifischen Ressourcen (Cloud, HPC-Zentren) wird bereits seit einiger Zeit getestet und in der Praxis ausprobiert. So ist die Simulation eine sinnvolle Anwendung für die Nutzung von High Performance Computing- und Cloud-Ressourcen. Datenintensive Anwendungen sind hierfür, zumindest bisher, nicht sinnvoll, da die Datentransferanforderungen nicht so einfach erfüllt werden können. 4. Zusammenfassung Dieses Dokument fasst den gegenwärtigen Status und die Planungen und Empfehlungen für den in der nahen Zukunft notwendigen Ausbau der Computing-Infrastruktur für die Experimente Alice, ATLAS, CMS und LHCb am LHC und das Belle II-Experiment am KEK in Japan zusammen. Es wurde erstellt vom erweiterten GRID Project Board der Helmholtz-Allianz Physik an der Teraskala, mit Vertretern des deutschen Tier1-Zentrums GridKa am KIT und der Tier-2 Standorte bei DESY, GSI und MPI München und an den Universitäten RWTH Aachen, Freiburg, Göttingen, LMU München und Wuppertal sowie zusätzlich je einem Vertreter des LHCb- und des Belle II- Experiments. Erstellt durch das erweiterte Project Board der Allianz Physics at the Terascale Günter Duckeck (LMU München, ATLAS), Volker Gülzow (DESY, Tier-2/NAF), Torsten Harenberg (Wuppertal, ATLAS), Andreas Heiss (KIT, Tier-1), Matthias Kasemann (DESY, CMS), Stefan Kluth (MPI München, ATLAS), Thomas Kreß (Aachen, CMS), Thomas Kuhr (KIT, Belle), Peter Malzacher (GSI, Alice), Hartmut Stadie (Hamburg, CMS), Arnulf Quadt (Göttingen, ATLAS), Günter Quast (KIT, CMS), Michael Schmelling (MPI Heidelberg, LHCb), Markus Schumacher (Freiburg, ATLAS), Christian Zeitnitz (Wuppertal, ATLAS) 11

12 Korrekturen und Änderungen (Stand November 2013) Das Computing-Resource-Review-Board (C-RRB) des CERN hat im Oktober 2013 die Ressourcenanforderungen der Experimente für die Jahre 2014 und 2015 beraten. Diese wurden bereits vorab von der C-RRB Scrutiny Group begutachtet und teilweise angepasst. Die folgenden Änderungen ergeben sich für die Planung der Computing-Ressourcen ab 2015: Abschnitt 3.1: Die Steigerung der Ressourcen im 2015 betragen 30% für die Tier-1 Zentren 25% für die Tier-2 Zentren Die jährlichen Steigerungen ab 2016 betragen 20%/Jahr für die CPU-Ressourcen 15%/Jahr für den Plattenplatz 15%/Jahr für die Tape-Kapazität Insgesamt ergibt sich damit eine korrigierte Version der Abbildung 6: Abbildung 7: Entspricht Abbildung 6 mit geänderten Zuwachs ab 2015 (gemäß C-RRB im Oktober 2013) 12

Experimenten. really big data

Experimenten. really big data Datenfluss in CERN- Experimenten really big data Gliederung Das CERN Allgemeines Wichtige Errungenschaften Der Weg der Daten Das CMS-Experiment Aufbau Anfallende Daten Trigger Das Grid Die Ebenen des Grid

Mehr

Deutsche Beteiligungen in der Teilchenphysik, Informationen und Material über Teilchenphysik in Deutschland. Michael Hauschild / CERN

Deutsche Beteiligungen in der Teilchenphysik, Informationen und Material über Teilchenphysik in Deutschland. Michael Hauschild / CERN Deutsche Beteiligungen in der Teilchenphysik, Informationen und Material über Teilchenphysik in Deutschland 1 Teilchenphysik weltweit Die grossen Fünf : Amerika: SLAC (Stanford Universität, Kalifornien)

Mehr

KET-Sitzung am 8.2.2013 Telefonkonferenz

KET-Sitzung am 8.2.2013 Telefonkonferenz KET-Sitzung am 8.2.2013 Telefonkonferenz Anwesend: Bethke (zeitweise), Borras, Brock, Dittmaier, Hebbeker, Kroha, Mnich, Müller, Quast, Rembser, Rückl, Schleper, Zeitnitz Hamburg, den 28. 2. 2013 VERFASSER:

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

Inhalt: GridKa-Nutzung durch Experimente Tier2-Treffen im März Erfahrungen aus SC4 Anforderungen an GridKa

Inhalt: GridKa-Nutzung durch Experimente Tier2-Treffen im März Erfahrungen aus SC4 Anforderungen an GridKa TAB-Bericht Nov. 05 Jun.'06 1 Inhalt: GridKa-Nutzung durch Experimente Tier2-Treffen im März Erfahrungen aus SC4 Anforderungen an GridKa Günter Quast & Christian Zeitnitz, 14.6.'06 Quellen: - Experimentberichte

Mehr

Das LHC-Computing-Grid

Das LHC-Computing-Grid Das LHC-Computing-Grid Von Julian Gethmann WS 11/12 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Überblick Ansprüche an die Rechnerinfrastruktur

Mehr

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Cloud-Computing Seminar Hochschule Mannheim WS0910 1/23 Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Fakultät für Informatik Hochschule

Mehr

LCG. LHC Computing Grid. Rolf Reinthaler. Universität Würzburg. 17. Juli 2009

LCG. LHC Computing Grid. Rolf Reinthaler. Universität Würzburg. 17. Juli 2009 LCG LHC Computing Grid Rolf Reinthaler Universität Würzburg 17. Juli 2009 Rolf Reinthaler (Universität Würzburg) LHC Computing Grid 17. Juli 2009 1 / 28 Contents 1 Anforderungen an das LHC Computing 2

Mehr

Herausforderungen des Grid Computing für die universitäre IT- Struktur?

Herausforderungen des Grid Computing für die universitäre IT- Struktur? Herausforderungen des Grid Computing für die universitäre IT- Struktur? Uwe Schwiegelshohn D-Grid Corporation TU Dortmund 14. Oktober 2008 Finanzierungslücke im IT-Bereich Disziplinen mit traditionell

Mehr

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte I N F O R M A T I O N V I R T U A L I S I E R U N G Wir schützen Ihre Unternehmenswerte Wir schützen Ihre Unternehmenswerte Ausfallsicherheit durch Virtualisierung Die heutigen Anforderungen an IT-Infrastrukturen

Mehr

KET-Sitzung am 30. 04. 2014 Telefonkonferenz

KET-Sitzung am 30. 04. 2014 Telefonkonferenz KET-Sitzung am 30. 04. 2014 Telefonkonferenz Anwesend: Bethke, Borras, Brock, Hebbeker, Kroha, Mnich, Müller, Quast, Rembser, Schleper, Zeitnitz Hamburg, den 03. 06. 2014 VERFASSER: Hubert Kroha, Peter

Mehr

Grid-Computing bei CDFII

Grid-Computing bei CDFII Grid-Computing bei CDFII G.Barker, M.Erdmann, M.Feindt, Th.Müller, U.Kerzel, K.Rinnert Institut für Experimentelle Kernphysik Universität Karlsruhe mailto:kerzel@fnal.gov - Förderschwerpunkt Elementarteilchenphysik

Mehr

Grid-Aktivitäten an der RWTH-Aachen

Grid-Aktivitäten an der RWTH-Aachen Grid-Aktivitäten an der RWTH-Aachen M.Kirsch, M. Duda, M. Erdmann, G. Flügge, S. Kappler, Th. Kreß, A. Nowack Matthias.Kirsch@physik.rwth-aachen.de III. Physikalisches Institut A RWTH Aachen Frühjahrstagung

Mehr

Grid-Computing. LHC Computing: Datenanalyse im weltweiten GRID

Grid-Computing. LHC Computing: Datenanalyse im weltweiten GRID LHC Computing: Datenanalyse im weltweiten GRID Vortrag: Walter Bender Betreuer: Thomas Kreß 1 Themenüberblick Was ist Grid Computing Einführung technische Entwicklung Vergleich mit Stromnetz Anwendungen

Mehr

Individueller IT-Service und -Support Wir behalten Ihr Netzwerk im Auge. Technologie, die verbindet.

Individueller IT-Service und -Support Wir behalten Ihr Netzwerk im Auge. Technologie, die verbindet. Individueller IT-Service und -Support Wir behalten Ihr Netzwerk im Auge Technologie, die verbindet. Einleitung Flexibler Service-Partner für Ihre IT Unsere eigene Service-Leitstelle garantiert Ihnen die

Mehr

Microsoft Lizenzierung SQL Server 2014. Bernd Löschner

Microsoft Lizenzierung SQL Server 2014. Bernd Löschner Bernd Löschner EDITIONEN Enterprise Edition für mission critical Anwendungen und large scale Data Warehousing. Business Intelligence Edition für Premium Unternehmen und self service BI. Standard Edition

Mehr

Bandbreite - unverzichtbar für den wissenschaftlichen Erfolg am Beispiel des CMS-Experiments. Prof. Dr. Martin Erdmann, Dr.

Bandbreite - unverzichtbar für den wissenschaftlichen Erfolg am Beispiel des CMS-Experiments. Prof. Dr. Martin Erdmann, Dr. Bandbreite - unverzichtbar für den wissenschaftlichen Erfolg am Beispiel des CMS-Experiments Prof. Dr. Martin Erdmann, Dr. Volker Gülzow W µ ν Gestern: Mikroskopie der Materie Ortsauflösung Mikroskop:

Mehr

Bericht des GridKa Technical Advisory Boards

Bericht des GridKa Technical Advisory Boards Bericht des GridKa Technical Advisory Boards 1 Inhalt: Günter Quast & Christian Zeitnitz, 19.7.'07 Aktivitäten der Experimente Jan. - Jun. '07 TAB Empfehlungen: - Administratoren der Experimente - zukünftige

Mehr

High Energy Physics Community Grid

High Energy Physics Community Grid High Energy Physics Community Grid Wolfgang Walkowiak Universität Siegen D-Grid All-Hands-Meeting Göttingen 10. September 2007 1 Grundlegende Fragen der Teilchenphysik Woraus besteht Materie? Welche Kräfte

Mehr

Angewandte Forschung zu Datenlebenszyklen in der Helmholtz-Gemeinschaft und darüber hinaus

Angewandte Forschung zu Datenlebenszyklen in der Helmholtz-Gemeinschaft und darüber hinaus Angewandte Forschung zu Datenlebenszyklen in der Helmholtz-Gemeinschaft und darüber hinaus Christopher Jung, KIT (SCC) KIT University of the State of Baden-Wuerttemberg and National Research Center of

Mehr

3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN?

3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN? 3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN? Udo Schaefer Berlin, den 10. November 2011 DIE NETZE UND IHRE NUTZUNG Berechnungsgrundlage 800 Millionen Facebook Nutzer Transport

Mehr

Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund

Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund Das Wissenschaftlichen Rechnen hat sich in Forschung und Lehre in den letzten Jahren zu einem wichtigen

Mehr

4 Planung von Anwendungsund

4 Planung von Anwendungsund Einführung 4 Planung von Anwendungsund Datenbereitstellung Prüfungsanforderungen von Microsoft: Planning Application and Data Provisioning o Provision applications o Provision data Lernziele: Anwendungen

Mehr

Virtualisierung in Netzen Möglichkeiten und Probleme

Virtualisierung in Netzen Möglichkeiten und Probleme Virtualisierung in Netzen Möglichkeiten und Probleme Dieter Kranzlmüller, Martin Metzker Munich Network Management Team Ludwig-Maximilians-Universität München (LMU) & Leibniz-Rechenzentrum der Bayerischen

Mehr

Hochleistungs-Disk-I/O

Hochleistungs-Disk-I/O Hochleistungs-Disk-I/O mit Lustre, dcache und AFS eine vergleichende Betrachtung Stephan Wiesand DESY DV 33. Treffen des ZKI AK Supercomputing Hamburg, 2010-03-04 Computing am DESY Standort Zeuthen Batch

Mehr

SOLISYON GMBH CHRISTIAN WOLF, BENJAMIN WEISSMAN. Optimierung von Abfragen in MS SQL Server DWH-Umgebungen

SOLISYON GMBH CHRISTIAN WOLF, BENJAMIN WEISSMAN. Optimierung von Abfragen in MS SQL Server DWH-Umgebungen WEITER BLICKEN. MEHR ERKENNEN. BESSER ENTSCHEIDEN. Optimierung von Abfragen in MS SQL Server DWH-Umgebungen SOLISYON GMBH CHRISTIAN WOLF, BENJAMIN WEISSMAN VERSION 1.0 OPTIMIERUNG VON ABFRAGEN IN MS SQL

Mehr

Forschungsdaten in der Hochenergiephysik - Aufgaben der Bibliothek

Forschungsdaten in der Hochenergiephysik - Aufgaben der Bibliothek Forschungsdaten in der Hochenergiephysik - Aufgaben der Bibliothek Dr. Zaven Akopov Deutsches Elektronen-Synchrotron DESY Inhalt DPHEP Aktivität HEP Daten: Herausforderungen und Besonderheiten Anforderungen

Mehr

Multicast Backbone in the Cloud. Sebastian Zagaria Prof. Dr. Thomas C. Schmidt

Multicast Backbone in the Cloud. Sebastian Zagaria Prof. Dr. Thomas C. Schmidt Multicast Backbone in the Cloud Sebastian Zagaria Prof. Dr. Thomas C. Schmidt Gliederung Motivation HAMcast Project Cloud Computing Multicast Backbone in the Cloud Ausblick Motivation Probleme von IP Multicast

Mehr

2010 FUJITSU TECHNOLOGY SOLUTIONS

2010 FUJITSU TECHNOLOGY SOLUTIONS ist eigentlich Infrastructure-as-a-Service? 1 ist eigentlich Infrastructure-as-a- Service? Infrastructure-as-a-Service definiert sich über 5 Parameter: 1. Infrastruktur: Neben anderen Cloudangeboten wie

Mehr

Dezentrale Datenproduktion und -analyse bei DØ

Dezentrale Datenproduktion und -analyse bei DØ Dezentrale Datenproduktion und -analyse bei DØ Thomas Nunnemann LMU München nunne@fnal.gov DPG Mainz 31.3.04 Computing: Aufgaben/Anforderungen Datenaustausch verteilter Datenbankzugriff Prozessierung von

Mehr

Die Grid-Infrastrukur und die NAF am DESY

Die Grid-Infrastrukur und die NAF am DESY Die Grid-Infrastrukur und die NAF am DESY - Aufbau Grid und NAF, aktuelle Ressourcen und Zahlen - Erfahrungen mit erster Analyse von LHC Daten - Einige geplante und mögliche Neuerungen Yves Kemp für DESY

Mehr

Instrument, Compute, Data Sharing Ressourcen gemeinsam nutzen statt selber aufbauen

Instrument, Compute, Data Sharing Ressourcen gemeinsam nutzen statt selber aufbauen Virtuelle Forschungsumgebungen aufbauen mit D Grid Workshop des WissGridFachberater Teams Instrument, Compute, Data Sharing Ressourcen gemeinsam nutzen statt selber aufbauen 19.01.2011 F.Schlünzen / DESY

Mehr

Das Leistungsspektrum der Firmengruppe archive.it. Unsere Mission: Wir sind ein Komplettdienstleister für alle EDV Belange von Museen und Archiven

Das Leistungsspektrum der Firmengruppe archive.it. Unsere Mission: Wir sind ein Komplettdienstleister für alle EDV Belange von Museen und Archiven Das Leistungsspektrum der Firmengruppe archive.it Unsere Mission: Wir sind ein Komplettdienstleister für alle EDV Belange von Museen und Archiven 1 Die Firmen der archive.it Gruppe CMB GmbH Wien Software

Mehr

Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen. Masterarbeit

Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen. Masterarbeit Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen Masterarbeit zur Erlangung des akademischen Grades Master of Science (M.Sc.) im Masterstudiengang Wirtschaftswissenschaft

Mehr

Ziele und Grundlagen des Integrierten IT-Betriebs

Ziele und Grundlagen des Integrierten IT-Betriebs Ziele und Grundlagen des Integrierten IT-Betriebs Berliner Anwenderforum am 19. Februar 2013 Referent: Thomas Dickmann (Leiter Produktmanagement des ITDZ Berlin) Moderne Perspektiven für die Verwaltung.

Mehr

Die aktuellen Top 10 IT Herausforderungen im Mittelstand

Die aktuellen Top 10 IT Herausforderungen im Mittelstand Die aktuellen Top 10 IT Herausforderungen im Mittelstand Ronald Boldt, SPI GmbH Über mich Ronald Boldt Leiter Business Solutions SPI GmbH Lehrbeauftragter für Geschäftsprozess orientiertes IT Management

Mehr

Was darf das Grid kosten?

Was darf das Grid kosten? Was darf das Grid kosten? Dr. Marcel Kunze Steinbuch Centre for Computing Abteilung Integration und Virtualisierung Die Kooperation von Darf das Grid was kosten? Infrastruktur: Geschäftsmodell oder Sponsoring?

Mehr

EMC. Data Lake Foundation

EMC. Data Lake Foundation EMC Data Lake Foundation 180 Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured

Mehr

MTF Ihr Weg zum modernen Datacenter

MTF Ihr Weg zum modernen Datacenter MTF Ihr Weg zum modernen Datacenter Beat Ammann Rico Steinemann Agenda Migration Server 2003 MTF Swiss Cloud Ausgangslage End of Support Microsoft kündigt den Support per 14. Juli 2015 ab Keine Sicherheits-

Mehr

Protokoll vom BtG Meeting am 17.04.2007 und 08.05.2007

Protokoll vom BtG Meeting am 17.04.2007 und 08.05.2007 Protokoll vom BtG Meeting am 17.04.2007 und 08.05.2007 Author: IISM Created: May 10, 2007 Contents 1 Erstes Treffen: 17.04.2007 2 1.1 Teilnehmer........................................ 2 1.2 Anforderungen

Mehr

Software Defined Storage

Software Defined Storage Software Defined Storage - Wenn Speicher zum Service wird - Copyright 2015 DataCore Software Corp. All Rights Reserved. Copyright 2015 DataCore Software Corp. All Rights Reserved. Über uns... Über 25.000

Mehr

Big Data Herausforderungen für Rechenzentren

Big Data Herausforderungen für Rechenzentren FINANCIAL INSTITUTIONS ENERGY INFRASTRUCTURE, MINING AND COMMODITIES TRANSPORT TECHNOLOGY AND INNOVATION PHARMACEUTICALS AND LIFE SCIENCES Big Data Herausforderungen für Rechenzentren RA Dr. Flemming Moos

Mehr

LCG2-basierte MonteCarlo Produktion bei H1

LCG2-basierte MonteCarlo Produktion bei H1 LCG2-basierte MonteCarlo Produktion bei H1 Moritz Karbach Universität Dortmund moritz.karbach@desy.de MonteCarlo Überblick e 27 GeV Generator e h1simrec rekonstruiertes Ereignis p 920 GeV X Detektorsimulation

Mehr

Das CMS Experiment am Large Hadron Collider (LHC) am. Beispiel für globale Kommunikation in der Elementarteilchen-physik

Das CMS Experiment am Large Hadron Collider (LHC) am. Beispiel für globale Kommunikation in der Elementarteilchen-physik Das CMS Experiment am Large Hadron Collider (LHC) am Beispiel für globale Kommunikation in der Elementarteilchen-physik Übersicht: Am 10. September 2008 wurde am CERN in Genf der weltgrößte Teilchenbeschleuniger

Mehr

Kundeninfo Anbindung externer Standorte an die Uptime Cloud

Kundeninfo Anbindung externer Standorte an die Uptime Cloud Kundeninfo Anbindung externer Standorte an die Uptime Cloud 1 Einleitung Uptime IT bietet seinen Kunden Infrastructure as a Service (IaaS) Leistungen auf Basis der Uptime Cloud an 2 Standorten an. Für

Mehr

WIE ERHÖHT MAN DIE EFFIZIENZ DES BESTEHENDEN RECHENZENTRUMS UM 75% AK Data Center - eco e.v. 1. Dezember 2009

WIE ERHÖHT MAN DIE EFFIZIENZ DES BESTEHENDEN RECHENZENTRUMS UM 75% AK Data Center - eco e.v. 1. Dezember 2009 WIE ERHÖHT MAN DIE EFFIZIENZ DES BESTEHENDEN RECHENZENTRUMS UM 75% AK Data Center - eco e.v. 1. Dezember 2009 HOST EUROPE GROUP Größter Anbieter von standardisierten Managed Hosting Lösungen in Deutschland

Mehr

Projektmanagement: Software braucht Anwenderakzeptanz

Projektmanagement: Software braucht Anwenderakzeptanz Projektmanagement: Software braucht Anwenderakzeptanz Autor: Dr. Michael Streng, Gründer und Geschäftsführer der parameta Projektberatung GmbH & Co. KG In allen Unternehmen, die Projekte durchführen, spielt

Mehr

Wachstumsmotor IT! Vorstellung der IDC Marktstudie. future thinking Der RZ-Kongress April 2015

Wachstumsmotor IT! Vorstellung der IDC Marktstudie. future thinking Der RZ-Kongress April 2015 Vorstellung der IDC Marktstudie future thinking Der RZ-Kongress April 2015 1 Eine starke Familie Die Friedhelm Loh Group eine erfolgreiche Unternehmensgruppe 11.500 77 Mitarbeiter weltweit int. Tochtergesellschaften

Mehr

QM IT. Dirk Diestelhorst

QM IT. Dirk Diestelhorst QM IT Dirk Diestelhorst Vorstellungsrunde Ihr Name? Ihre Berufung? 1 bis 2 Sätze Optional Ihr Unternehmen? Ihr Arbeitgeber? Was verändert sich? Es kommt nicht mehr darauf an, etwas spezielles zu Wissen

Mehr

DESY Personal und Finanzen

DESY Personal und Finanzen DESY Personal und Finanzen Die Abteilungen Personal sowie Finanz- und Rechnungswesen gehören neben den Abteilungen Allgemeine Verwaltung, Warenwirtschaft, Recht, Zentrales Bauwesen sowie Technischer Notdienst

Mehr

Konzentrieren Sie sich...

Konzentrieren Sie sich... Konzentrieren Sie sich... ...auf Ihr Kerngeschäft! Setzen Sie mit sure7 auf einen kompetenten und flexiblen IT-Dienstleister und konzentrieren Sie sich auf Ihre Kernkompetenz. Individuell gestaltete IT-Konzepte

Mehr

Helix Nebula Cloud-Computing IN EINER

Helix Nebula Cloud-Computing IN EINER Helix Nebula Cloud-Computing IN EINER GANZ NEUEN DIMENSION Kapazitäten für Kapazitäten so funktioniert helix nebula die helix-nebula-initiative WIN-WIN FÜR WISSENSCHAFT UND WIRTSCHAFT Die Zukunft des Wissens

Mehr

DURCHGÄNGIGE SAP CHANGE- UND RELEASE-PROZESSE EINFACH UMSETZEN

DURCHGÄNGIGE SAP CHANGE- UND RELEASE-PROZESSE EINFACH UMSETZEN THEGUARD! SMARTCHANGE CHANGE PROCESS DURCHGÄNGIGE SAP CHANGE- UND RELEASE-PROZESSE EINFACH UMSETZEN DURCHGÄNGIGE SAP CHANGE- UND RELEASE-PROZESSE EINFACH UMSETZEN THEGUARD! SMARTCHANGE I CHANGE PROCESS

Mehr

Erfolg ist programmierbar.

Erfolg ist programmierbar. 4578954569774981234656895856512457895456977498 3465689585651245789545697749812346568958561245 9545697749812346568958565124578954569774981234 6895856512457895456977498123465689585612457895 6977498123465689585651245789545697749812346568

Mehr

Strukturen im D-Grid. Uwe Schwiegelshohn D-Grid GmbH / TU Dortmund. 3. DFN Kommunikationsforum Konstanz, Mai 2010

Strukturen im D-Grid. Uwe Schwiegelshohn D-Grid GmbH / TU Dortmund. 3. DFN Kommunikationsforum Konstanz, Mai 2010 Strukturen im D-Grid Uwe Schwiegelshohn D-Grid GmbH / TU Dortmund 3. DFN Kommunikationsforum Konstanz, Mai 2010 Was ist das Grid? coordinated resource sharing and problem solving in dynamic, multi-institutional

Mehr

LBS-Hosting. in der Verbundzentrale des GBV. Dennis Benndorf. - Systembetreuung - 26.05.2015

LBS-Hosting. in der Verbundzentrale des GBV. Dennis Benndorf. - Systembetreuung - 26.05.2015 LBS-Hosting in der Verbundzentrale des GBV Dennis Benndorf - Systembetreuung - 26.05.2015 Überblick Was? - Definition des Hostingbegriffes Warum? -Pro und Contra LBS-Hosting Womit? -Überblick über die

Mehr

dcache! The dcache team

dcache! The dcache team dcache The dcache team Antje Petersen Patrick Fuhrmann, Tigran Mkrtchyan Paul Millar, Karsten Schwank, Christian Bernardt (at DESY) Dmitry Litvintsev, Albert Rossi (Fermilab) Gerd Behrmann (NorduNet (formerly

Mehr

Cloud Computing. Betriebssicherheit von Cloud Umgebungen C O N N E C T I N G B U S I N E S S & T E C H N O L O G Y

Cloud Computing. Betriebssicherheit von Cloud Umgebungen C O N N E C T I N G B U S I N E S S & T E C H N O L O G Y Cloud Computing Betriebssicherheit von Cloud Umgebungen Urs Zumstein Leiter Performance Care Team Urs.Zumstein@DevoTeam.ch 079 639 42 58 Agenda Definition von Cloud Services Anforderungen an die Betriebssicherheit

Mehr

WWM. whitepaper cloudlösungen für das EvEntmanagEmEnt. WWM Whitepaper Serie 2014.1

WWM. whitepaper cloudlösungen für das EvEntmanagEmEnt. WWM Whitepaper Serie 2014.1 WWM whitepaper cloudlösungen für das EvEntmanagEmEnt WWM Whitepaper Serie 2014.1 Inhalt Executive Summary 3 Worum es geht Herausforderung Nr. 1 3 individuelle Konzepte Herausforderung Nr. 2 3 Schnelle

Mehr

SMARTE LÖSUNGEN FÜR DIE VERNETZTE WELT

SMARTE LÖSUNGEN FÜR DIE VERNETZTE WELT SMARTE LÖSUNGEN FÜR DIE VERNETZTE WELT VERBINDEN SIE IHRE GERÄTE MIT DER VERNETZTEN WELT SMARTE LÖSUNGEN FÜR NEUE GESCHÄFTSMODELLE Die digitale Revolution hat das nächste Level erreicht, Vernetzung und

Mehr

Virtualisierung rechnet sich allein durch Strom-Einsparung aber wer hat ein Interesse daran?

Virtualisierung rechnet sich allein durch Strom-Einsparung aber wer hat ein Interesse daran? Ismaning, 13. Juli 2007 Virtualisierung rechnet sich allein durch Strom-Einsparung aber wer hat ein Interesse daran? Virtualisierungs-/Konsolidierungsprojekte erreichen ROI allein durch Stromeinsparung

Mehr

Grundlagen des Grid Computing

Grundlagen des Grid Computing Grundlagen des Grid Computing Grid Middleware Toolkits: glite ICA Joh.. Kepler Universität t Linz glite Grid Middleware für das LHC Grid Wurde im Rahmen des EGEE Projekts entwickelt Basiert auf dem Globus

Mehr

Das Labors für Informationslogistik an der FH Kufstein

Das Labors für Informationslogistik an der FH Kufstein international. mobile. multicultural Das Labors für Informationslogistik an der FH Kufstein "Flexible service- und prozessorientierte Informationssysteme Aachen, 13.-14. November 2008 Prof. (FH) Karsten

Mehr

Performance Monitoring Warum macht es Sinn?

Performance Monitoring Warum macht es Sinn? Performance Monitoring Warum macht es Sinn? achermann consulting ag Nicola Lardieri Network Engineer Luzern, 25.5.2011 Inhalt Definition Monitoring Warum Performance Monitoring? Performance Monitoring

Mehr

Next-Generation Software und Computing für die LHC - Datenanalyse

Next-Generation Software und Computing für die LHC - Datenanalyse Next-Generation Software und Computing für die LHC - Datenanalyse Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik DPG - Tagung Mainz, 26. März 2014 KIT Universität des Landes Baden-Württemberg

Mehr

Die EBCONT Unternehmensgruppe.

Die EBCONT Unternehmensgruppe. 1200 Wien, Handelskai 94-96 Johannes Litschauer, Alex Deles IT-Infrastruktur IT-Betrieb (managed Services) Cloud / Elastizität 1200 Wien, Handelskai 94-96 Johannes Litschauer, Alex Deles Enterprise Solutions

Mehr

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Software Defined Storage - wenn Storage zum Service wird - Jens Gerlach Regional Manager West Copyright 2015 DataCore Software Corp. All Rights

Mehr

Cordaware bestinformed Neuerungen in Version 4 Copyright Cordaware Informationslogistik GmbH 2007

Cordaware bestinformed Neuerungen in Version 4 Copyright Cordaware Informationslogistik GmbH 2007 Änderungen ab Basis Edition: Interne Datenbank: Durch die Erweiterung der bestinformed Datenstruktur mit einer leistungsfähigen internen Datenbank werden zahlreiche Verbesserungen erzielt. Um die wichtigsten

Mehr

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG!

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! JUNI 2011 Sehr geehrter Geschäftspartner, (oder die, die es gerne werden möchten) das Thema Virtualisierung oder die Cloud ist in aller Munde wir möchten Ihnen

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

Cloud4E Trusted Cloud Computing for Engineering

Cloud4E Trusted Cloud Computing for Engineering Cloud4E Trusted Cloud Computing for Engineering André Schneider, Andreas Uhlig Cloud4E - Trusted Cloud Computing for Engineering 1 Projektpartner ITI Gesellschaft für ingenieurtechnische Informationsverarbeitung

Mehr

FIRMENPROFIL. Virtual Software as a Service

FIRMENPROFIL. Virtual Software as a Service FIRMENPROFIL Virtual Software as a Service WER WIR SIND ECKDATEN Die ViSaaS GmbH & Co. KG ist Ihr professioneller Partner für den Bereich Virtual Software as a Service. Mit unseren modernen und flexiblen

Mehr

Technik der Cloud. Prof. Dr. Hannes Federrath Sicherheit in verteilten Systemen (SVS) http://svs.informatik.uni-hamburg.de. München, 18.

Technik der Cloud. Prof. Dr. Hannes Federrath Sicherheit in verteilten Systemen (SVS) http://svs.informatik.uni-hamburg.de. München, 18. Technik der Cloud Prof. Dr. Hannes Federrath Sicherheit in verteilten Systemen (SVS) http://svs.informatik.uni-hamburg.de München, 18. Oktober 2013 1 Begriff Cloud Computing verteiltes, vernetztes System

Mehr

Frage und Antworten zum Webcast: Virtual Server 2005 :

Frage und Antworten zum Webcast: Virtual Server 2005 : Frage und Antworten zum Webcast: Virtual Server 2005 : Frage: Läuft die Software nur unter Windows 2003 oder auch unter Windows 2000? Antwort: VS 2005 läuft nur unter Windows Server 2003 und Windows XP

Mehr

Der starke Partner für Ihre IT-Umgebung.

Der starke Partner für Ihre IT-Umgebung. Der starke Partner für Ihre IT-Umgebung. Leistungsfähig. Verlässlich. Mittelständisch. www.michael-wessel.de IT-Service für den Mittelstand Leidenschaft und Erfahrung für Ihren Erfolg. Von der Analyse

Mehr

DRIVE LIKE A VIRTUAL DEVELOPER Die Poleposition für Ihre Softwareentwicklung

DRIVE LIKE A VIRTUAL DEVELOPER Die Poleposition für Ihre Softwareentwicklung DRIVE LIKE A VIRTUAL DEVELOPER Die Poleposition für Ihre Softwareentwicklung Was für ein Tempo! Das Rad dreht sich rasant schnell: Die heutigen Anforderungen an Softwareentwicklung sind hoch und werden

Mehr

Hochleistungsrechnen in Grids. Seminar: Grid-Middleware. Mirko Dietrich mirko.dietrich@hrz.uni-kassel.de. 4. Dezember 2006

Hochleistungsrechnen in Grids. Seminar: Grid-Middleware. Mirko Dietrich mirko.dietrich@hrz.uni-kassel.de. 4. Dezember 2006 Seminar: Hochleistungsrechnen in Grids Grid-Middleware Mirko Dietrich mirko.dietrich@hrz.uni-kassel.de 4. Dezember 2006 2 Inhalt Funktionen einer Grid-Middleware Grid Standards Middleware-Systeme Zusammenfassung

Mehr

Verfügbarkeit von Applikationen und Failover Szenarien. Winfried Wojtenek. wojtenek@mac.com

Verfügbarkeit von Applikationen und Failover Szenarien. Winfried Wojtenek. wojtenek@mac.com Verfügbarkeit von Applikationen und Failover Szenarien Winfried Wojtenek wojtenek@mac.com Verfügbarkeit % Tage Stunden Minuten 99.000 3 16 36 99.500 1 20 48 99.900 0 9 46 99.990 0 0 53 99.999 0 0 5 Tabelle

Mehr

Neue Modelle des IT-Betriebs. Das Projekt VITBL

Neue Modelle des IT-Betriebs. Das Projekt VITBL Neue Modelle des IT-Betriebs. Das Projekt VITBL Berliner Anwenderforum am 19. Februar 2014 Referent: Thomas Dickmann (Leiter Produktmanagement) Moderne Perspektiven für die Verwaltung. Neue Modelle des

Mehr

Netz16 GmbH Managed Service / Cloud Solutions. www.netz16.de Netz16 GmbH Firmenpräsentation / Stand 2014 S. 1

Netz16 GmbH Managed Service / Cloud Solutions. www.netz16.de Netz16 GmbH Firmenpräsentation / Stand 2014 S. 1 Netz16 GmbH Managed Service / Cloud Solutions www.netz16.de Netz16 GmbH Firmenpräsentation / Stand 2014 S. 1 Vorstellung Netz16 Eckdaten unseres Unternehmens Personal 80 60 40 20 0 2010 2011 2012 2013

Mehr

Scheduling Mechanisms for the Grid

Scheduling Mechanisms for the Grid Scheduling Mechanisms for the Grid Seminar Mechanismen in verteilten Netzen Xu,Yongchun und Zheng,Bin Betreuer: Bjoern Schnizler 1 Definition Grid-Computing Scheduling 2 Definition--Grid 3 Definition--Grid

Mehr

synergetic AG Open House 2012 Ihr Unternehmen in der Wolke - Cloud Lösungen von synergetic

synergetic AG Open House 2012 Ihr Unternehmen in der Wolke - Cloud Lösungen von synergetic synergetic AG Open House 2012 Ihr Unternehmen in der Wolke - Cloud Lösungen von synergetic Markus Krämer Vorsitzender des Vorstandes der synergetic AG Verantwortlich für Strategie und Finanzen der synergetic

Mehr

PIWIN II. Praktische Informatik für Wirtschaftsmathematiker, Ingenieure und Naturwissenschaftler II. Vorlesung 2 SWS SS 08

PIWIN II. Praktische Informatik für Wirtschaftsmathematiker, Ingenieure und Naturwissenschaftler II. Vorlesung 2 SWS SS 08 PIWIN II Kap. 3: Verteilte Systeme & Rechnernetze 1 PIWIN II Praktische Informatik für Wirtschaftsmathematiker, Ingenieure und Naturwissenschaftler II Vorlesung 2 SWS SS 08 Fakultät für Informatik Technische

Mehr

Grid Computing. Einführung. Marc Lechtenfeld. Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen

Grid Computing. Einführung. Marc Lechtenfeld. Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen * Grid Computing Einführung Marc Lechtenfeld Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen Übersicht 1 Problematik 2 Systemanforderungen 3 Architektur 4 Implementation 5 Projekte

Mehr

Das CMS-Experiment Größe: 21.5 m x 15 m, Gewicht: 12500 t Investitionen: 350 Mio. Mitglieder: 2250 aus 38 Ländern

Das CMS-Experiment Größe: 21.5 m x 15 m, Gewicht: 12500 t Investitionen: 350 Mio. Mitglieder: 2250 aus 38 Ländern T.Hebbeker 2007-01-21 Das CMS-Experiment Größe: 21.5 m x 15 m, Gewicht: 12500 t Investitionen: 350 Mio. Mitglieder: 2250 aus 38 Ländern Deutsche Gruppen Beiträge zum Detektorbau Silizium-Spurdetektor Myon-Detektor

Mehr

eg e s c h ä f t s p r o z e s s MEHR ZEIT FÜR IHR GESCHÄFT SHD managed Ihre IT-Services

eg e s c h ä f t s p r o z e s s MEHR ZEIT FÜR IHR GESCHÄFT SHD managed Ihre IT-Services eg e s c h ä f t s p r o z e s s erfahrung service kompetenz it-gestützte MEHR ZEIT FÜR IHR GESCHÄFT SHD managed Ihre IT-Services erfolgssicherung durch laufende optimierung Als langjährig erfahrenes IT-Unternehmen

Mehr

CRM-Komplettpaket zum Fixpreis

CRM-Komplettpaket zum Fixpreis Richtig informiert. Jederzeit und überall. CRM-Komplettpaket zum Fixpreis Leistungsbeschreibung CAS Software AG, Wilhelm-Schickard-Str. 8-12, 76131 Karlsruhe, www.cas.de Copyright Die hier enthaltenen

Mehr

Entwicklung der Erneuerbaren Energien zur internationalen Marktfähigkeit

Entwicklung der Erneuerbaren Energien zur internationalen Marktfähigkeit Entwicklung der Erneuerbaren Energien zur internationalen Marktfähigkeit BDEW-Leitveranstaltung Smart Renewables Sven Utermöhlen, CEO E.ON Climate & Renewables Central Europe GmbH Marktintegration eine

Mehr

GLASFASERNETZ DATACENTER RHEIN-NECKAR RHEIN-NECKAR-CLOUD MULTIMEDIA. Fixed Line BESCHREIBUNG. carrier ethernet TBFL_PFK_MA_13201507

GLASFASERNETZ DATACENTER RHEIN-NECKAR RHEIN-NECKAR-CLOUD MULTIMEDIA. Fixed Line BESCHREIBUNG. carrier ethernet TBFL_PFK_MA_13201507 Fixed Line carrier ethernet TBFL_PFK_MA_13201507 Carrier Ethernet Services Ihre Kunden haben mehrere Standorte und einen wachsenden Bedarf an Lösungen zum differenzierten Austausch von immer größeren Datenmengen?

Mehr

Artikel eindeutig mit Barcodes identifizieren und verfolgen

Artikel eindeutig mit Barcodes identifizieren und verfolgen Artikel eindeutig mit Barcodes identifizieren und verfolgen Einführung Um die Vielfalt an Anforderungen zu erfüllen haben wir drei verschiedene Varianten zur Erfassung von Barcodes implementiert. Die drei

Mehr

Prozessmanagement Quo Vadis?

Prozessmanagement Quo Vadis? Prozessmanagement Quo Vadis? Status von Prozessmanagement in Österreich Prozessmanagement ist ein effektives und effizientes Instrument zur Umsetzung der strategischen Ziele, sowie um kontinuierliche Verbesserungen

Mehr

HEP Grid in Göttingen Status und Pläne

HEP Grid in Göttingen Status und Pläne HEP Grid in Status und Pläne Arnulf Quadt LHC at CERN Tevatron at Fermilab II. Göttinger Grid Seminar Grid zum Anfassen 13. September 2007 26. September 13. April: Top Quark 2007:Physics HEP Grid at Hadron

Mehr

Projektphasen und Technische Vorbereitung eines NX Refiles mit dem PLMJobManager

Projektphasen und Technische Vorbereitung eines NX Refiles mit dem PLMJobManager Projektphasen und Technische Vorbereitung eines NX Refiles mit dem PLMJobManager Dieses Dokument dient zur Information über die Organisation der Projektphasen und der technischen Vorbereitung eines Refile

Mehr

Überblick. Komponenten der Grid-Entwicklung. Nachhaltigkeitsmodelle in Science und Business. D-Grid: Nachhaltigkeit, H. Enke (AIP), AstroGrid-D

Überblick. Komponenten der Grid-Entwicklung. Nachhaltigkeitsmodelle in Science und Business. D-Grid: Nachhaltigkeit, H. Enke (AIP), AstroGrid-D Überblick Komponenten der Grid-Entwicklung 1. Middleware 2. Resource Integration 3. Connectivity 4. Verankerung der Grid-Entwicklung in der Community Nachhaltigkeitsmodelle in Science und Business 2 Nationale

Mehr

Die Marktsituation heute und die Position von FUJITSU

Die Marktsituation heute und die Position von FUJITSU Die Marktsituation heute und die Position von FUJITSU Rupert Lehner Head of Sales Region Germany 34 Copyright 2011 Fujitsu Technology Solutions Marktentwicklung im Jahr 2011 Der weltweite IT-Markt im Jahr

Mehr

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Folie 1 VDE-Symposium 2013 BV Thüringen und Dresden Virtualisierung von Leittechnikkomponenten Andreas Gorbauch PSIEnergie-EE Folie

Mehr

Durchführungsbestimmungen der Eurex Deutschland und der Eurex Zürich über Technische Einrichtungen

Durchführungsbestimmungen der Eurex Deutschland und der Eurex Zürich über Technische Einrichtungen über Technische Einrichtungen 01.03.200606.09.1999 Seite 1 Durchführungsbestimmungen der Eurex Deutschland und der Eurex Zürich über Technische Einrichtungen 1 Definitionen 1.1 Netzwerk der Eurex-Börsen

Mehr

Unternehmens-Philosophie

Unternehmens-Philosophie More than search. Unternehmens-Philosophie Online Marketing ist dynamisch. Märkte entwickeln sich extrem schnell. Damit Sie in diesem unübersichtlichen Markt den Überblick nicht verlieren und Ihr Online

Mehr

Online Help StruxureWare Data Center Expert

Online Help StruxureWare Data Center Expert Online Help StruxureWare Data Center Expert Version 7.2.7 Virtuelle StruxureWare Data Center Expert-Appliance Der StruxureWare Data Center Expert-7.2-Server ist als virtuelle Appliance verfügbar, die auf

Mehr