Computing in der Hochenergiephysik in Deutschland Bestandsaufnahme und Aussicht

Größe: px
Ab Seite anzeigen:

Download "Computing in der Hochenergiephysik in Deutschland Bestandsaufnahme und Aussicht"

Transkript

1 Computing in der Hochenergiephysik in Deutschland Bestandsaufnahme und Aussicht Computing Project Board der Helmholtz Allianz Physics at the Terascale, Nov Das vorliegende Dokument wurde vom erweiterten Computing Project Board der Helmholtz-Allianz Physik an der Teraskala erstellt, das Vertreter des deutschen Tier1-Zentrums und aller deutschen Tier-2-Standorte sowie der LHC-Experimente Alice, ATLAS, CMS und LHCb und des Belle II- Experiments umfasst. Kurzdarstellung und Empfehlungen Das Modell der weltweit verteilten Datenanalyse bietet die Möglichkeit der schnellen Auswertung von Datenmengen im PetaByte-Bereich und war bei den LHC-Experimenten eine wesentliche Voraussetzung für den großen Erfolg der Analysen der vergangenen Datennahmeperiode. Der deutsche Anteil und Beitrag mit dem Tier-1 Zentrum GridKa am KIT, den verteilten Tier-2 Zentren am DESY, an der GSI und am MPI München sowie an den Universitäten Göttingen, Aachen, Wuppertal, Freiburg und an der LMU München hat gut funktioniert und international einen deutlich sichtbaren Beitrag bereitgestellt, der ca. 15% des weltweiten Tier-1-Bereiches und ca. 10% der Tier-2-Ressourcen beträgt. Die Nationalen Analyse-Facilities (NAF) am DESY und an der GSI stellen deutschlandweit von den Nutzern sehr gut angenommene und ausgelastete Ressourcen für die Datenauswertung zur Verfügung und werden auch in Zukunft benötigt. Neben den Hardware- und Infrastrukturressourcen ist ausreichend qualifiziertes Personal für die Betreuung der Systeme und der GRID-Middleware, für experimentspezifische Aufgaben sowie für Entwicklungsarbeiten zur Einbindung neuer Technologien notwendig. Dies ist eine Grundvoraussetzung für die effiziente Ressourcennutzung. Die Koordination der deutschen Beiträge zum Computing GRID geschieht innerhalb der einzelnen Experimente, dem Technical Advisory Board und Overview Board von GridKa und dem Allianz Computing Projekt Board, wobei letzteres die umfassendste Vertretung aller Standorte und Experimente bietet. Die Zusammenarbeit und Koordination im Computing Project Board hat sich gut bewährt und sollte unserer Ansicht nach auch in der Zukunft beibehalten werden. Die kommenden langjährigen Datennahmephasen der Experimente erfordern einen kontinuierlichen, regelmäßigen Ausbau der Computingressourcen und der Netzwerke. Der deutsche Beitrag sollte dabei den international abgestimmten Ressourcenplanungen im Worldwide LHC Computing GRID (WLCG) folgen. Zusätzlich zum wachsenden Bedarf der LHC-Experimente müssen die Anforderungen des Belle II-Experiments und für den ILC eingeplant werden. 1

2 1. Einleitung Die Hochenergiephysik ist ein Wissenschaftsbereich mit höchsten Ansprüchen an das Computing. Dies bedeutet sowohl große Anforderungen an die Rechenleistung - im Sinne des Capability Computings, z.b. für Simulationsrechnungen, als auch im Sinne des Capacity Computings für z.b. die Ereignisrekonstruktion und Datenanalyse. Ebenso herausragend in der Hochenergiephysik ist der Umgang mit sehr hohen Datenmengen; daher ist HEP auch eine Big Data Disziplin. Gerade die großen Datenmengen führten zu der Entwicklung des GRID-Computings, wie es seit einigen Jahren im Rahmen der LHC-Experimente und auch schon davor am Tevatron sowie am HERA, erfolgreich angewendet worden ist. Aufgrund des Erfolgs des GRID Computings basieren auch die Computingmodelle zukünftiger Experimente, wie Belle II oder für den ILC, auf dieser Technologie. Ähnlich große Datenmengen und Anforderungen an die benötigte Rechenleistung gibt es heute auch in anderen Wissenschaftsbereichen, einige weitere werden in den nächsten Jahren aufschließen (z.b. Astronomie, Astroteilchenphysik und die Experimente am FAIR). Im Folgenden wird sowohl der Status des Computing dargestellt, als auch auf den notwendigen Ausbau und Weiterentwicklungen in den kommenden Jahren eingegangen. 2. Status des HEP Computing Das Computingmodell der Teilchenphysik basiert historisch auf einem hierarchischem System von Rechenzentren ( Tier-Zentren ). Hierbei werden die Rohdaten der Experimente im Labor (z.b. CERN) im Tier-0 gespeichert und dann weiterverteilt. Bei den LHC-Experimenten erfolgt die Rekonstruktion an den Tier-1 Zentren in 11 Ländern. Dabei ist anzumerken, dass nicht jedes Tier-1 Zentrum alle Experimente unterstützt. Je nach Experiment werden die rekonstruierten Daten zusätzlich noch in ein oder mehrere kompaktere Formate übertragen und weltweit auf die 12 Tier-1 und 69 Tier-2 Zentren in 34 Ländern verteilt, wo sie für die endgültige Analyse zur Verfügung stehen. Zum Computingbedarf zur Verarbeitung der Daten kommt noch die Erzeugung von Simulationsereignissen benötigte Rechenleistung hinzu, die überwiegend von den Tier-2 Zentren geliefert wird. Für die LHC-Experimente werden die Aktivitäten, die Anforderungen und Überwachung des Systems in der World-wide-LHC-Computing-GRID (WLCG) Kollaboration koordiniert. Aus dem WLCG-Monitoring geht hervor, dass die deutschen Tier-Zentren einen signifikanten Anteil der Ressourcen (15% der T1 und 10% der T2 Kapazitäten, wie in etwa nach dem WLCG- Schlüssel basierend auf der Anzahl der Autoren erwartet) beisteuern und zu den weltweit besten hinsichtlich Betriebsstabilität gehören. Das HEP Computing hat in den letzten Jahren sehr gut funktioniert. Der Gesamtbedarf für die LHC-Datenanalyse wird allerdings erst durch die Nutzung zusätzlicher Tier-3-Ressourcen und der Nationalen Analyse Facilities (NAF) am DESY und der GSI abgedeckt. Zusätzlich und außerhalb des WLCG sind weitere, sogenannte Tier-3 Zentren an vielen Instituten vorhanden, auf denen die lokalen Arbeitsgruppen ihre Analysen entwickeln und durchführen. Die Nutzung der verschiedenen Tier-Zentren unterscheidet sich von Experiment zu Experiment etwas, aber es gibt generell eine Unterscheidung zwischen einerseits der zentralen Steuerung der Datenverteilung, Rekonstruktion, Selektion von Daten und Simulation, und andererseits der Endanalyse durch Physiker. Die zentrale Nutzung der Ressourcen ist gut kontrollierbar, wogegen der Zugriff auf Ressourcen bei der Endanalyse nicht zentral koordiniert werden kann und mit zeitlich starken Schwankungen einhergeht. Die Weiterentwicklung der Analysemodelle der Experimente basiert auf den Erfahrungen der erfolgreichen Analyse der LHC-Daten und auf neuen technologischen Möglichkeiten, insbesondere im Netzwerkbereich. Dabei findet eine Entwicklung von der hierarchischen hin zu einer föderativen Struktur statt, innerhalb der auch direkte Verbindungen zwischen Tier-2 Zentren, sowie direkter 2

3 Fernzugriff auf Daten ermöglicht werden Technische Anforderungen Die Anforderungen an die verschiedenen Tier-Zentren unterscheiden sich deutlich und sind in MoU s schriftlich niedergelegt. Das Tier-0 und die Tier-1 Zentren müssen einen 24x7 Betrieb garantieren, und es werden Speichersysteme mit Bandanbindung und eine exzellente Netzwerkanbindung benötigt (je nach Tier 1 Zentrum im Bereich von einem bis zu mehreren 10 GBit/s). Es bestehen direkte Verbindungen zum Tier-0, die über ein eigenes (virtuelles) Netzwerk, das LHCOPN (LHC optical private network), realisiert wurden. Bei den Tier-2 Zentren wird ein 8x5 Betrieb und eine gute (einige GBit/s) Netzwerkanbindung verlangt. Ein Tape-Backend ist nicht notwendig, da Daten im Notfall vom Tier-1 wiederhergestellt werden können. Bei ATLAS war jedes Tier-2 im klassischen hierarchischen Modell einem Tier-1 zugeordnet, von dem es seine Daten bezog. Da lediglich 10 Tier-1 Zentren für ATLAS existieren, sind viele Tier-2 Zentren einem Tier-1 in einem Nachbarland zugeordnet. Dem Tier-1 Zentrum am KIT sind neben den deutschen auch die Tier-2 Zentren in Polen, der Schweiz und Tschechien zugeordnet. Derzeit entstehen weitere T1-Zentren in Korea (für Alice) und in Russland (für alle 4 Experimente), das CMS Tier-1 Zentrum in Taipeh/Taiwan wird geschlossen. Die technische Realisierung der großen Computerfarmen der Tier-Zentren, erfordert ein erhebliches Know-How, da die Infrastruktur stark an die jeweiligen Anforderungen angepasst werden muss. Während Simulationsrechnugen im wesentlichen CPU-Leistung und nur relativ geringe Netzwerkbandbreite benötigen, hängen Rekonstruktion und insbesondere die Analyse kritisch von sehr schnellen Massenspeichersystemen und deren Anbindung an die Prozessorfarmen ab. Zur vollständigen Nutzung der Rechenkapazität benötigen die Prozessor-Kerne Daten mit einer Bandbreite von etwa MByte pro Sekunde. Bei Prozessoren mit vielen Kernen werden sehr hohe Datenraten und entsprechend leistungsfähige lokale Netze benötigt Infrastruktur Weltweit stehen (Stand Ende 2012) die in Tabelle 1aufgeführten Ressourcen im WLCG zur Verfügung. In Abbildung 1ist die Aufteilung auf die verschiedenen Zentren dargestellt. Tier-0 Tier-1 Tier-2 CPU-Kerne Disk (PByte) Tape (PByte) CPU-Kern = 10 HEPSpec06 Tabelle 1: Verfügbare WLCG-Ressourcen % der genutzten Ressourcen sind an den Tier-2 Zentren vorhanden. Die tatsächlich genutzten Ressourcen an den Tier-2 Zentren sind aber im Mittel etwa 50% höher als der Anteil an den bereitgestellten plegded Ressourcen. Dies ist bedingt durch die Möglichkeit der opportunistischen Nutzung freier CPU-Leistung von angegliederten Tier-3 Zentren, sowie durch den Betrieb von Ressourcen als shared resource, die von mehreren Communities genutzt werden. Diese erheblichen, zusätzlich genutzten Ressourcen ergänzen den knapp bemessenen Rahmen der Tier-2- Ressourcen und erlauben die effiziente Ausschöpfung des Physikpotenzials des LHC (siehe auch Abschnitt 2.3). 3

4 Abbildung 1: Anteile an den CPU-Ressourcen im gesamten WLCG im Jahr 2012 Das deutsche Tier-1 Zentrum GridKa wird vom KIT (Campus-Nord) betrieben. Es unterstützt die vier LHC-Experimente ATLAS, CMS, Alice und LHCb und die nicht-lhc-experimente D0, CDF, Babar, Compass und Belle, die aber nur noch einen kleinen Anteil an den Ressourcen haben. Weiterhin wird das im Aufbau befindliche Experiment Belle II unterstützt, und auch die Astroteilchenphysik ist mit dem Auger Experiment bei der Nutzung des GridKa mit erheblichen Anteilen beteiligt. Die deutschen Tier-2 Zentren stellen für Alice bei der GSI (1), für ATLAS an den Universitäten Freiburg(0,5), Göttingen(0,5), München(0,5) und Wuppertal(0,5), beim DESY(1) und am Max- Planck-Institut für Physik(0,5), sowie für CMS an der RWTH Aachen(0,5) und am DESY(1) den Kollaborationen Ressourcen zur Verfügung. Die Zahl in den Klammern gibt die ungefähre relative Größe in Bezug auf ein nominelles (experimentspezifisches) Tier-2-Zentrum an. Für LHCb gibt es ein Tier-2 Zentrum am DESY. Weiterhin betreiben die GSI und DESY je eine National Analysis Facility (NAF), die deutschlandweit für die Datenanalyse zur Verfügung steht. Auch nicht-lhc- Experimente werden an Tier-2 Standorten unterstützt. So werden am DESY die HERA- und ILC- Experimente, das Belle II Experiment und auch die Astroteilchenphysik unterstützt. Ähnliches gilt auch für andere Tier-2- Standorte. Die Betriebskosten der universitären Tier-2 werden im Wesentlichen aus Landesmitteln gedeckt. Diese Tier-2 Zentren dienen außerdem der Aus- und Weiterbildung des wissenschaftlichen Nachwuchses und stellen somit die Nachhaltigkeit der Expertise im GRID-Computing sicher. Aus diesem Grund sind die in Deutschland etablierten Tier- 2-Föderationen zwischen Universitäten und nicht-universitären Einrichtungen zur optimalen Balance und Entwicklung der Community besonders wichtig. Der zugesagte ( pledged ) deutsche Anteil am WLCG betrug 2012 etwa 15% an Ressourcen; damit ist GridKa das größte Tier-1 Zentrum weltweit. Bei den Tier-2 beträgt der Anteil etwa 10%; hier belegt Deutschland weltweit Rang 4 (nach US, UK, Italien). Die 2012 an den deutschen Tier- Zentren installierten Ressourcen sind in Tabelle 2 zusammengefasst. 4

5 Ort CPU Plattenplatz Kerne Anteil TByte Anteil GridKa % % DESY % % MPG 578 3% 670 3% GSI 700 4% 550 4% Universitäten % % Summe Anmerkung: 1 CPU-Kern = 10 HEPSpec06 Quelle: WLCG - Tabelle 2: Zugesagte ( pledged ) Computing-Ressourcen in Deutschland 2012 Die relativen Anteile der Ressourcen an den deutschen Tier-Zentren sind bei den verschiedenen Experimenten unterschiedlich groß. Dies liegt daran, dass die Anzahl der Tier-Zentren pro Experiment sehr unterschiedlich ist. So stellt z.b. das GridKa 25% der gesamten Alice Tier-1 Ressourcen zur Verfügung, da lediglich vier Alice Tier-1 Zentren weltweit existieren Nicht-WLCG-Ressourcen (Tier-3 bzw. NAF) Ein wesentlicher Teil der End-Analysearbeiten einzelner Nutzer findet auf institutseigenen Ressourcen (Tier-3) und der NAF am DESY bzw. der GSI statt. National Analysis Facilities am DESY und an der GSI Die NAFs am DESY und der GSI werden deutschlandweit genutzt. Die Nutzung wird durch Experimentvertreter zusammen mit den IT Abteilungen bei DESY und der GSI koordiniert. Am DESY ist die NAF mit 2800 CPU-Kerne sowie 4,4 PB Plattenspeicher ausgestattet; daneben steht ein schnelles Filesystem mit der Größe von 700 TB für die finale Analyse zur Verfügung. Bei der GSI stehen 1400 CPU-Kerne sowie 1,5 PB für die Alice-Datenauswertung in der NAF zur Verfügung. Universitäre Tier-3 Zentren Die institutseigenen Tier-3 Ressourcen, also CPU- und Plattenkapazität, unterliegen einem anderen Betriebsmodus. In der Regel nutzen nur die lokalen Gruppen diese Ressourcen, an einigen Zentren haben aber auch alle deutschen Nutzer Zugriff. Eine Umfrage im Juli 2013 hat ergeben, dass ca CPU-Kerne und 4,2 PByte Plattenplatz an 11 weiteren deutschen Instituten vorhanden sind, die zeitweise und anteilig für die LHC-Analyse zur Verfügung stehen. Dies entspricht in etwa dem halben Plattenplatz und fast dem 1,8 fachen der CPU-Ressourcen der Tier-2 Zentren. Erst die Investition von Bundesmitteln in die Tier-1 und Tier-2 Ressourcen, die zentrale, von den Experimenten bestimmte Aufgaben übernehmen, erzeugt für die Universitäten und Bundesländer eine Attraktivität, in großem Umfang in die Infrastruktur der lokalen Endnutzer für deren physikalische Analysen in Form von Tier-3 Zentren zu investieren. Diese Symbiose stellt aufgrund der etablierten Aufgabenteilung eine ausgewogene Balance der beteiligten Partner in Verantwortung und Nutzen dar. Dadurch wird eine optimale Ausnutzung des Physikpotenzials des LHC durch die beteiligten Arbeitsgruppen in Deutschland erst ermöglicht Betrieb der Ressourcen Das systemnahe Betriebspersonal, sowie die Betriebskosten, werden von den Standorten bereitgestellt. Die effiziente Nutzung in den Experimenten erfordert daneben den deutschlandweit koordinierten Einsatz von Personal für Datenmanagement und für Liaisonaufgaben zu den Analysen und 5

6 dem internationalen Betriebspersonal in den Experimenten. Weiterhin gibt es Kontakte zu den Technologie- und Software-Entwicklern, um frühzeitig von neuen technologischen Entwicklungen zu profitieren. Mittel für Personal in diesem Aufgabenbereich werden aus der Verbundforschung des BMBF bereitgestellt. Die Weiterentwicklung wichtiger GRID-Softwarekomponenten, wie etwa dcache, sowie von Analysesupportwerkzeuge, ist notwendig, um die Anforderungen zu erfüllen und Technologieentwicklungen effizient nutzen zu können. Entsprechende Mittel wurden, neben anderen Quellen, auch aus der Helmholtz-Allianz Physik an der Teraskala bereitgestellt Nutzung der Ressourcen Das Tier-1 Zentrum GridKa am KIT wird sowohl von den LHC-Experimenten, als auch von Experimenten wie Auger, Babar, Belle (II), CDF, Compass und DZero genutzt. Einen nennenswerten Anteil an der Nutzung erreicht, neben den LHC-Experimenten, aber nur das Auger Experiment. Die Nutzung ist zur Zeit durch die LHC-Experimente dominiert. Die Effizienz der genutzten Analyseprogramme ist durchweg sehr hoch, mit nur geringen Unterschieden zwischen den Experimenten. Die Auslastung der verfügbaren CPU-Kerne und des Speicherplatzes ist ebenfalls sehr hoch. Dies zeigt die Nutzungs- und Ressourcenstatistik für die LHC- Datenanalyse an dem Tier-1 und den Tier-2 Zentren in den vergangenen 12 Monaten, siehe Abbildung 2. Abbildung 2: Nutzungs- und Ressourcenstatistik für die LHC-Datenanalyse an den Standorten der deutschen Tier-1 und Tier-2 Zentren Gerade an den Tier-2 Zentren werden zeitweise doppelt so viele Ressourcen für die Tier-2 Aufgaben genutzt, wie ursprünglich versprochen worden sind. Dies ist auf die erwähnte opportunistische Nutzung der lokal vorhandenen Tier-3 Ressourcen zurückzuführen, aber auch auf die Nutzung von Ressourcen, die temporär von anderen nicht-lhc-communities nicht genutzt wurden. Dies zeigt, dass die zugesagten Ressourcen an den Tier-2 Zentren nicht ausreichen, um den realen Bedarf zu decken. Die zusätzlich genutzte CPU-Leistung steht allerdings nur ohne langfristige Planungssicherheit zur Verfügung. Wie in Abbildung 3 ersichtlich, trifft dies auch weltweit für die Nutzung der Tier-2 zu. 6

7 Abbildung 3: Weltweite Nutzungsstatistik der Tier-2 CPU-Ressourcen pro Experiment. Es ist das Verhältnis von genutzter/zugesagter CPU-Nutzung dargestellt Netzwerkanforderungen und Nutzung Bei der Datenanalyse werden große Datenvolumen verarbeitet; die Datentransfers und der Zugriff auf entfernte gespeicherte Daten stellt daher hohe Anforderungen an das nationale und internationale Netzwerk. In Abbildung 4 sind die monatlichen Datentransfers innerhalb des WLCG gezeigt. Diese liegen im Bereich von 20 PByte/Monat, was etwa 25% der gespeicherten Datenmenge der Experimente entspricht. Nicht erfasst, aber ebenso notwendig, sind die Datentransfers der NAF und der Tier-3 Zentren an den Instituten, die vor allem für die Endanalyse wichtig sind. In der Vergangenheit kam es bereits vereinzelt zu einer Überlastung der Netzwerkverbindungen an Tier-2 Zentren. Aus diesem Grund wurde das LHC-Netzwerk (LHCONE) Projekt zur Verbindung der Tier- 1 und Tier-2 Zentren auf internationalem Niveau gestartet. Ein funktionelles und performantes Netzwerk ist Voraussetzung für die erfolgreiche Nutzung der GRID-Ressourcen. Dies hat in der Vergangenheit ausreichend gut funktioniert und muss auch beim Ausbau der Ressourcen für die Zukunft entsprechend erweitert werden Erfahrungen In der Datennahmephase der LHC-Experimente von war das Computing eine wesentliche Voraussetzung für die erfolgreiche Datenauswertung am LHC. Das WLCG hat gut funktioniert und gerade die deutschen Standorte haben substantiell zum Erfolg beigetragen. Hierbei war vor allem auch die Flexibilität zu Reaktion auf veränderte Bedingungen wichtig. Die intensive Zusammenarbeit zwischen den Experimenten und den Tier-Zentren im Technical Advisory Board (TAB) des GridKa war hier genauso wichtig, wie die Zusammenarbeit der Standorte innerhalb eines Experiments. Während bei den Tier-2 Zentren die Nähe zu den Experimentgruppen standortbedingt gegeben ist, sind gerade für den Betrieb des Tier-1 die Experimentkontaktpersonen am GridKa extrem wichtig, um den Ressourceneinsatz zu koordinieren und um schnell auf Probleme reagieren zu können. Hier zeigt sich ganz deutlich, dass ein reiner Servicebetrieb, ohne die experimentnahe Betreuung der Tier-Zentren, für das LHC-Computing nicht funktionieren würde. 7

8 Abbildung 4: Datentransfer für die LHC Datenanalyse zwischen Tier-0, Tier-1 und Tier-2 Zentren, etwa 10% der Daten fließt an deutsche Zentren Es hat sich in den letzten Jahren aber auch gezeigt, dass die Personaldecke im Computingbereich extrem dünn ist und es sehr schwierig ist, Stellen mit geeigneten Kandidaten zu besetzen. Daher ist gerade der Ausbildungsaspekt, vor allem an den universitären Tier-2 Zentren, von großer Bedeutung. Weiterhin ist eine breite Basis an Expertise bei den verschiedenen benötigten Komponenten sehr wichtig für den Betrieb und die technologische Weiterentwicklung bei wachsenden Anforderungen. Hier ist einerseits das Speichermanagementsysytem dcache zu nennen, weitere wichtige Beiträge zum stabilen und effizienten Betrieb der Infrastruktur lieferten auch andere deutsche Entwicklungsprojekte wie Überwachungswerkzeuge für Dienste und Standorte ( HappyFace ) und Werkzeuge zum Job-Management ( Ganga ) und -Monitoring. Die erfolgreiche Durchführung von Simulations-Produktionskampagnen des Belle II-Experiments hat gezeigt, dass auch zukünftige Experimente stark von der etablierten GRID-Infrastruktur profitieren und Synergieeffekte über die LHC-Experimente hinaus bestehen Planungen für 2014 Der LHC befindet sich 2013 und 2014 im Long-Shutdown 1. Damit kommen keine zusätzlichen Daten von den Experimenten herein. Es wird aber intensiv an der Analyse der regulären und insbesondere der in 2012 zusätzlich genommenen 8 TeV Daten gearbeitet, des Weiteren läuft die Vorbereitung auf den Start in 2015 mit höherer Schwerpunktsenergie; beides macht neue und zusätzliche Simulationsrechnungen erforderlich. Die Experimente überarbeiten und optimieren wesentliche Teile der Software und des Computingmodells, um die Effizienzen weiter zu erhöhen und den Ressourcenbedarf zu minimieren. Für das Jahr 2014 werden nur wenige zusätzliche Ressourcen benötigt Bisherige Finanzierung Die Finanzierung der Tier-Zentren über die letzten 10 Jahre war sehr heterogen. Für die Tier-1 Investitionen standen anfangs Mittel des damaligen FZK und bis 2012 signifikante Sonderbewirt- 8

9 schaftungsmittel des BMBF zur Verfügung, während die Betriebs- und Personalkosten seit der 2. Periode der Programmorientierten Förderung (PoF-2) durch die Helmholtz-Gemeinschaft getragen wurden. Die Tier-2 Zentren starteten als Installationen im Rahmen der D-GRID Initiative, und ab 2007 wurde die Hardware über die Helmholtz Allianz Physik an der Teraskala finanziert. Die Installation am DESY (Tier-2 und NAF) wurde sowohl aus DESY Eigenmitteln, Mitteln aus der PoF-2, Allianzmitteln, als auch Sondermitteln vom BMBF aufgebaut und finanziert. Sowohl die Mittel für den technischen Betrieb, als auch die Betriebskosten werden hierbei vom jeweiligen Institut aufgebracht. Die Tier-2 Finanzierung durch die Helmholtz Allianz ist 2012 ausgelaufen. Einmalige Sondermittel des BMBF haben die Ressourcen für das Jahr 2013 und 2014 gesichert. Insgesamt ergibt sich in den Jahren das in Abbildung 5 dargestellte Bild der heterogenen Finanzierung der Tier-2 Zentren in Deutschland. Hierbei ist zu beachten, dass bei den Betriebskosten lediglich die direkten Stromkosten und das direkte technische Personal eingerechnet worden ist. Wie aus der Abbildung zu entnehmen ist, betragen die Investitionskosten der letzten fünf Jahre im Mittel etwa 2,9 M /Jahr. Hinzu kommen die Betriebskosten in Höhe von 2,6 M /Jahr. Darin sind etwa 130 k /Jahr für das private Netzwerk LHCONE enthalten. 3. Herausforderungen ab 2015 Abbildung 5: Finanzierung der Tier-2 Zentren seit 2007 Der LHC wird 2015 den Betrieb wieder aufnehmen. Die Schwerpunktsenergie auf etwa 13TeV erhöht und es wird erwartet, dass die Luminosität schnell die Werte von 2012 übertreffen wird. Beides zusammen führt zu mehr und komplexeren Ereignissen und damit zu einer Erhöhung der benötigten Rechenzeit für die Rekonstruktion. Zusammen mit einer Erhöhung der Datennahmerate um etwa einen Faktor 2 steigen damit die Anforderungen an das Computing erheblich. Im Vergleich zu Run I in wird insgesamt bis 2018 eine viermal größere Datenmenge für 100fb -1 erwartet. Dies bedingt auch eine Erhöhung des Datenvolumens für die Analysetätigkeiten, deren nicht-zentral koordinierter Charakter eine enorme Anforderung an die Tier-2, NAF und Tier-3 Ressourcen darstellt. Die starken Schwankungen der Last sind hierbei nur schwer abzufangen. Die damit einhergehenden Datentransfers werden das Netzwerk sehr stark belasten und bedingen einen deutlichen Ausbau der Anschlusskapazitäten der Zentren. 9

10 Belle II wird ab 2016 Daten nehmen und nach einer Anlaufphase von etwa zwei Jahren eine Datenrate produzieren, die etwa der eines LHC-Experiments entspricht. Eine besondere Herausforderung ist die Netzwerkanbindung nach Japan; allerdings halten sich die Anforderungen dadurch im Rahmen, dass kein Transfer von Rohdaten nach Europa vorgesehen ist Ressourcenbedarf ab 2015 Es wird im WLCG erwartet, dass für den Start der Analyse der neuen Daten die Ressourcen der Tier-1 und Tier-2 Zentren 2015 jeweils um etwa 30-35% steigen müssen. Die hier verwendeten Anforderungen der Experimente für 2015 und 2016 werden noch im Computing Resource Review Board (RRB) des CERN vorgestellt und abschließend begutachtet und genehmigt. Ab 2016 wird von einem Zuwachs der Ressourcen von etwa 20% pro Jahr ausgegangen, was vermutlich mit einem konstanten Budget erreicht werden kann und gleichzeitig den notwendigen Ersatz veralteter Hardware abdeckt. Die erwartete Gesamtentwicklung der WLCG-Ressourcen ist in Abbildung 6 gezeigt. Ab etwa 2018 wird das Belle II Experiment ebenfalls erhebliche Computing-Ressourcen benötigen. Bei einem Anteil von ~14% am Gesamtexperiment werden diese eine ähnliche Größe wie die eines der großen LHC-Experimente erreichen und sind in den obigen Betrachtungen nicht enthalten; sie sind in Abbildung 6 ebenfalls dargestellt. Abbildung 6: Entwicklung der CPU- und Speicher-Ressourcen. Der deutsche Anteil ist etwa 15% für die Tier-1, 10% für die Tier-2 und 14% für die Belle-II Ressourcen Technische Weiterentwicklung Die Einbindung neuer Technologien in die Computingmodelle der HEP Experimente wird in den nächsten Jahren ein wichtiger Teil der Entwicklungsarbeit ausmachen. Wichtige und vielversprechende Entwicklungsfelder sind: 10 die Parallelisierung und Vektorisierung der Software, die Nutzung von GPUs,

11 der Einsatz von Cloud-Ressourcen, die Nutzung von High-Performance-Computing-Ressourcen, sowie die insgesamt die Erweiterung zur dynamischen Nutzung von weltweit freien Ressourcen. Bei der Ausnutzung der Fähigkeiten neuester Hardwarearchitekturen werden erhebliche Leistungssteigerungen erwartet. Hierfür müssen Teile der Software neu geschrieben werden, was einen erheblichen Entwicklungsaufwand darstellt. Das notwendige Know-How, sowohl für die Vektorisierung der Software, als auch der Nutzung von GPUs, ist an einigen Orten bereits vorhanden, muss aber noch deutlich vergrößert und breiter gestreut werden. Eine Zusammenarbeit aller Experimente ist hier notwendig. Die Nutzung von nicht HEP-spezifischen Ressourcen (Cloud, HPC-Zentren) wird bereits seit einiger Zeit getestet und in der Praxis ausprobiert. So ist die Simulation eine sinnvolle Anwendung für die Nutzung von High Performance Computing- und Cloud-Ressourcen. Datenintensive Anwendungen sind hierfür, zumindest bisher, nicht sinnvoll, da die Datentransferanforderungen nicht so einfach erfüllt werden können. 4. Zusammenfassung Dieses Dokument fasst den gegenwärtigen Status und die Planungen und Empfehlungen für den in der nahen Zukunft notwendigen Ausbau der Computing-Infrastruktur für die Experimente Alice, ATLAS, CMS und LHCb am LHC und das Belle II-Experiment am KEK in Japan zusammen. Es wurde erstellt vom erweiterten GRID Project Board der Helmholtz-Allianz Physik an der Teraskala, mit Vertretern des deutschen Tier1-Zentrums GridKa am KIT und der Tier-2 Standorte bei DESY, GSI und MPI München und an den Universitäten RWTH Aachen, Freiburg, Göttingen, LMU München und Wuppertal sowie zusätzlich je einem Vertreter des LHCb- und des Belle II- Experiments. Erstellt durch das erweiterte Project Board der Allianz Physics at the Terascale Günter Duckeck (LMU München, ATLAS), Volker Gülzow (DESY, Tier-2/NAF), Torsten Harenberg (Wuppertal, ATLAS), Andreas Heiss (KIT, Tier-1), Matthias Kasemann (DESY, CMS), Stefan Kluth (MPI München, ATLAS), Thomas Kreß (Aachen, CMS), Thomas Kuhr (KIT, Belle), Peter Malzacher (GSI, Alice), Hartmut Stadie (Hamburg, CMS), Arnulf Quadt (Göttingen, ATLAS), Günter Quast (KIT, CMS), Michael Schmelling (MPI Heidelberg, LHCb), Markus Schumacher (Freiburg, ATLAS), Christian Zeitnitz (Wuppertal, ATLAS) 11

12 Korrekturen und Änderungen (Stand November 2013) Das Computing-Resource-Review-Board (C-RRB) des CERN hat im Oktober 2013 die Ressourcenanforderungen der Experimente für die Jahre 2014 und 2015 beraten. Diese wurden bereits vorab von der C-RRB Scrutiny Group begutachtet und teilweise angepasst. Die folgenden Änderungen ergeben sich für die Planung der Computing-Ressourcen ab 2015: Abschnitt 3.1: Die Steigerung der Ressourcen im 2015 betragen 30% für die Tier-1 Zentren 25% für die Tier-2 Zentren Die jährlichen Steigerungen ab 2016 betragen 20%/Jahr für die CPU-Ressourcen 15%/Jahr für den Plattenplatz 15%/Jahr für die Tape-Kapazität Insgesamt ergibt sich damit eine korrigierte Version der Abbildung 6: Abbildung 7: Entspricht Abbildung 6 mit geänderten Zuwachs ab 2015 (gemäß C-RRB im Oktober 2013) 12

Deutsche Beteiligungen in der Teilchenphysik, Informationen und Material über Teilchenphysik in Deutschland. Michael Hauschild / CERN

Deutsche Beteiligungen in der Teilchenphysik, Informationen und Material über Teilchenphysik in Deutschland. Michael Hauschild / CERN Deutsche Beteiligungen in der Teilchenphysik, Informationen und Material über Teilchenphysik in Deutschland 1 Teilchenphysik weltweit Die grossen Fünf : Amerika: SLAC (Stanford Universität, Kalifornien)

Mehr

Das LHC-Computing-Grid

Das LHC-Computing-Grid Das LHC-Computing-Grid Von Julian Gethmann WS 11/12 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Überblick Ansprüche an die Rechnerinfrastruktur

Mehr

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Cloud-Computing Seminar Hochschule Mannheim WS0910 1/23 Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Fakultät für Informatik Hochschule

Mehr

KET-Sitzung am 30. 04. 2014 Telefonkonferenz

KET-Sitzung am 30. 04. 2014 Telefonkonferenz KET-Sitzung am 30. 04. 2014 Telefonkonferenz Anwesend: Bethke, Borras, Brock, Hebbeker, Kroha, Mnich, Müller, Quast, Rembser, Schleper, Zeitnitz Hamburg, den 03. 06. 2014 VERFASSER: Hubert Kroha, Peter

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

Grid-Computing. LHC Computing: Datenanalyse im weltweiten GRID

Grid-Computing. LHC Computing: Datenanalyse im weltweiten GRID LHC Computing: Datenanalyse im weltweiten GRID Vortrag: Walter Bender Betreuer: Thomas Kreß 1 Themenüberblick Was ist Grid Computing Einführung technische Entwicklung Vergleich mit Stromnetz Anwendungen

Mehr

Hochleistungs-Disk-I/O

Hochleistungs-Disk-I/O Hochleistungs-Disk-I/O mit Lustre, dcache und AFS eine vergleichende Betrachtung Stephan Wiesand DESY DV 33. Treffen des ZKI AK Supercomputing Hamburg, 2010-03-04 Computing am DESY Standort Zeuthen Batch

Mehr

Die Grid-Infrastrukur und die NAF am DESY

Die Grid-Infrastrukur und die NAF am DESY Die Grid-Infrastrukur und die NAF am DESY - Aufbau Grid und NAF, aktuelle Ressourcen und Zahlen - Erfahrungen mit erster Analyse von LHC Daten - Einige geplante und mögliche Neuerungen Yves Kemp für DESY

Mehr

Grid-Aktivitäten an der RWTH-Aachen

Grid-Aktivitäten an der RWTH-Aachen Grid-Aktivitäten an der RWTH-Aachen M.Kirsch, M. Duda, M. Erdmann, G. Flügge, S. Kappler, Th. Kreß, A. Nowack Matthias.Kirsch@physik.rwth-aachen.de III. Physikalisches Institut A RWTH Aachen Frühjahrstagung

Mehr

Instrument, Compute, Data Sharing Ressourcen gemeinsam nutzen statt selber aufbauen

Instrument, Compute, Data Sharing Ressourcen gemeinsam nutzen statt selber aufbauen Virtuelle Forschungsumgebungen aufbauen mit D Grid Workshop des WissGridFachberater Teams Instrument, Compute, Data Sharing Ressourcen gemeinsam nutzen statt selber aufbauen 19.01.2011 F.Schlünzen / DESY

Mehr

Herausforderungen des Grid Computing für die universitäre IT- Struktur?

Herausforderungen des Grid Computing für die universitäre IT- Struktur? Herausforderungen des Grid Computing für die universitäre IT- Struktur? Uwe Schwiegelshohn D-Grid Corporation TU Dortmund 14. Oktober 2008 Finanzierungslücke im IT-Bereich Disziplinen mit traditionell

Mehr

Dezentrale Datenproduktion und -analyse bei DØ

Dezentrale Datenproduktion und -analyse bei DØ Dezentrale Datenproduktion und -analyse bei DØ Thomas Nunnemann LMU München nunne@fnal.gov DPG Mainz 31.3.04 Computing: Aufgaben/Anforderungen Datenaustausch verteilter Datenbankzugriff Prozessierung von

Mehr

dcache! The dcache team

dcache! The dcache team dcache The dcache team Antje Petersen Patrick Fuhrmann, Tigran Mkrtchyan Paul Millar, Karsten Schwank, Christian Bernardt (at DESY) Dmitry Litvintsev, Albert Rossi (Fermilab) Gerd Behrmann (NorduNet (formerly

Mehr

Das CMS Experiment am Large Hadron Collider (LHC) am. Beispiel für globale Kommunikation in der Elementarteilchen-physik

Das CMS Experiment am Large Hadron Collider (LHC) am. Beispiel für globale Kommunikation in der Elementarteilchen-physik Das CMS Experiment am Large Hadron Collider (LHC) am Beispiel für globale Kommunikation in der Elementarteilchen-physik Übersicht: Am 10. September 2008 wurde am CERN in Genf der weltgrößte Teilchenbeschleuniger

Mehr

Angewandte Forschung zu Datenlebenszyklen in der Helmholtz-Gemeinschaft und darüber hinaus

Angewandte Forschung zu Datenlebenszyklen in der Helmholtz-Gemeinschaft und darüber hinaus Angewandte Forschung zu Datenlebenszyklen in der Helmholtz-Gemeinschaft und darüber hinaus Christopher Jung, KIT (SCC) KIT University of the State of Baden-Wuerttemberg and National Research Center of

Mehr

Next-Generation Software und Computing für die LHC - Datenanalyse

Next-Generation Software und Computing für die LHC - Datenanalyse Next-Generation Software und Computing für die LHC - Datenanalyse Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik DPG - Tagung Mainz, 26. März 2014 KIT Universität des Landes Baden-Württemberg

Mehr

Massenspeichersysteme im Einsatz bei TIER 2/3 Grid-Zentren

Massenspeichersysteme im Einsatz bei TIER 2/3 Grid-Zentren Massenspeichersysteme im Einsatz bei TIER 2/3 Grid-Zentren Manuel Giffels III. Physikalisches Institut B RWTH Aachen Bad Honnef, 23.08.2005 Manuel Giffels Massenspeichersysteme im Einsatz bei TIER 2/3

Mehr

3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN?

3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN? 3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN? Udo Schaefer Berlin, den 10. November 2011 DIE NETZE UND IHRE NUTZUNG Berechnungsgrundlage 800 Millionen Facebook Nutzer Transport

Mehr

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz MOGON Markus Tacke HPC ZDV HPC - AHRP Was ist Mogon allgemein? Das neue High Performance Cluster der JGU Ein neues wichtiges Werkzeug für Auswertung von Messdaten und Simulationen Beispiele Kondensierte

Mehr

Cloud Computing bereitet sich für den breiten Einsatz im Gesundheitswesen vor.

Cloud Computing bereitet sich für den breiten Einsatz im Gesundheitswesen vor. Cloud Computing im Gesundheitswesen Cloud Computing ist derzeit das beherrschende Thema in der Informationstechnologie. Die Möglichkeit IT Ressourcen oder Applikationen aus einem Netz von Computern zu

Mehr

Ralf Enderle 19.11.07. Grid Computing. Seminar am Institut für verteilte Systeme im WS 07/08 - Forschungstrends im Bereich Verteilte Systeme -

Ralf Enderle 19.11.07. Grid Computing. Seminar am Institut für verteilte Systeme im WS 07/08 - Forschungstrends im Bereich Verteilte Systeme - Ralf Enderle 19.11.07 Grid Computing Seminar am Institut für verteilte Systeme im WS 07/08 - Forschungstrends im Bereich Verteilte Systeme - Seite 2 Inhalt Einleitung Konzeptueller Aufbau eines Grid Systems

Mehr

Microsoft Lizenzierung SQL Server 2014. Bernd Löschner

Microsoft Lizenzierung SQL Server 2014. Bernd Löschner Bernd Löschner EDITIONEN Enterprise Edition für mission critical Anwendungen und large scale Data Warehousing. Business Intelligence Edition für Premium Unternehmen und self service BI. Standard Edition

Mehr

Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund

Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund Das Wissenschaftlichen Rechnen hat sich in Forschung und Lehre in den letzten Jahren zu einem wichtigen

Mehr

GridKa The German Tier-1 Computing Centre: Status, Strategy & Future Plans

GridKa The German Tier-1 Computing Centre: Status, Strategy & Future Plans GridKa The German Tier-1 Computing Centre: Status, Strategy & Future Plans Forschungszentrum Karlsruhe GmbH Hauptabteilung Informations- und Kommunikationstechnik Hermann-von-Helmholtz-Platz 1 D-76344

Mehr

Grid Computing für datenintensive Anwendungen

Grid Computing für datenintensive Anwendungen Grid Computing für datenintensive Anwendungen Andreas Schreiber Deutsches Zentrum für Luft- und Raumfahrt e.v. (DLR) Köln-Porz Workshop "Wege aus dem Daten-Chaos" Köln-Porz, 16. Mai 2002 1 Überblick Einleitung

Mehr

Forschungsdaten in der Hochenergiephysik - Aufgaben der Bibliothek

Forschungsdaten in der Hochenergiephysik - Aufgaben der Bibliothek Forschungsdaten in der Hochenergiephysik - Aufgaben der Bibliothek Dr. Zaven Akopov Deutsches Elektronen-Synchrotron DESY Inhalt DPHEP Aktivität HEP Daten: Herausforderungen und Besonderheiten Anforderungen

Mehr

Physik Olympiade 2014

Physik Olympiade 2014 Physik Olympiade 2014 Rechenpower und Massen von Daten in der Physik - Gestern und Heute - Dr. Volker Gülzow IT-Gruppe Hamburg, den 27. April 2014 Volker Gülzow IPhO 27.4.2014 Seite 2 Da erhält man als

Mehr

Wachstumsmotor IT! Vorstellung der IDC Marktstudie. future thinking Der RZ-Kongress April 2015

Wachstumsmotor IT! Vorstellung der IDC Marktstudie. future thinking Der RZ-Kongress April 2015 Vorstellung der IDC Marktstudie future thinking Der RZ-Kongress April 2015 1 Eine starke Familie Die Friedhelm Loh Group eine erfolgreiche Unternehmensgruppe 11.500 77 Mitarbeiter weltweit int. Tochtergesellschaften

Mehr

Helix Nebula Cloud-Computing IN EINER

Helix Nebula Cloud-Computing IN EINER Helix Nebula Cloud-Computing IN EINER GANZ NEUEN DIMENSION Kapazitäten für Kapazitäten so funktioniert helix nebula die helix-nebula-initiative WIN-WIN FÜR WISSENSCHAFT UND WIRTSCHAFT Die Zukunft des Wissens

Mehr

DESY Personal und Finanzen

DESY Personal und Finanzen DESY Personal und Finanzen Die Abteilungen Personal sowie Finanz- und Rechnungswesen gehören neben den Abteilungen Allgemeine Verwaltung, Warenwirtschaft, Recht, Zentrales Bauwesen sowie Technischer Notdienst

Mehr

Hochleistungsrechnen und Grid-Computing am ZIH

Hochleistungsrechnen und Grid-Computing am ZIH Zentrum für Informationsdienste und Hochleistungsrechnen Hochleistungsrechnen und Grid-Computing am ZIH Dresden, 5.7.2007 Hochleistungsrechner / Speicherkomplex ZIH-Ressourcen im Grid Hardware Software

Mehr

Mini-Urknall, World-Wide-Web und gerechte Versicherungstarife

Mini-Urknall, World-Wide-Web und gerechte Versicherungstarife Mini-Urknall, World-Wide-Web und gerechte Versicherungstarife Grundlagenforschung und Technologietransfer Prof. Dr. Michael Feindt Institut für Experimentelle Kernphysik Universität Karlsruhe Wissenschaftlicher

Mehr

Online Help StruxureWare Data Center Expert

Online Help StruxureWare Data Center Expert Online Help StruxureWare Data Center Expert Version 7.2.7 Virtuelle StruxureWare Data Center Expert-Appliance Der StruxureWare Data Center Expert-7.2-Server ist als virtuelle Appliance verfügbar, die auf

Mehr

Vorlesung: glite: Eine Grid Middleware für die HEP.

Vorlesung: glite: Eine Grid Middleware für die HEP. Vorlesung: glite: Eine Grid Middleware für die HEP. Yves Kemp DESY IT FHTW Berlin 28.06.2011 Was erwartet Sie die folgenden 60 Minuten? > HEP: Hoch-Energie-Physik (ein anderer Name für Teilchenphysik)

Mehr

Was treibt die Informatik in einem Finanzkonzern? 19. Juni 2009

Was treibt die Informatik in einem Finanzkonzern? 19. Juni 2009 Was treibt die Informatik in einem Finanzkonzern? 19. Juni 2009 Image courtesy of S Kreuzer Hans Wegener, Head Of Program Management, Business Intelligence, Group IT Shared Services, Zurich Financial Services

Mehr

Was darf das Grid kosten?

Was darf das Grid kosten? Was darf das Grid kosten? Dr. Marcel Kunze Steinbuch Centre for Computing Abteilung Integration und Virtualisierung Die Kooperation von Darf das Grid was kosten? Infrastruktur: Geschäftsmodell oder Sponsoring?

Mehr

2010 FUJITSU TECHNOLOGY SOLUTIONS

2010 FUJITSU TECHNOLOGY SOLUTIONS ist eigentlich Infrastructure-as-a-Service? 1 ist eigentlich Infrastructure-as-a- Service? Infrastructure-as-a-Service definiert sich über 5 Parameter: 1. Infrastruktur: Neben anderen Cloudangeboten wie

Mehr

4 Planung von Anwendungsund

4 Planung von Anwendungsund Einführung 4 Planung von Anwendungsund Datenbereitstellung Prüfungsanforderungen von Microsoft: Planning Application and Data Provisioning o Provision applications o Provision data Lernziele: Anwendungen

Mehr

EMC. Data Lake Foundation

EMC. Data Lake Foundation EMC Data Lake Foundation 180 Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured

Mehr

Strukturen im D-Grid. Uwe Schwiegelshohn D-Grid GmbH / TU Dortmund. 3. DFN Kommunikationsforum Konstanz, Mai 2010

Strukturen im D-Grid. Uwe Schwiegelshohn D-Grid GmbH / TU Dortmund. 3. DFN Kommunikationsforum Konstanz, Mai 2010 Strukturen im D-Grid Uwe Schwiegelshohn D-Grid GmbH / TU Dortmund 3. DFN Kommunikationsforum Konstanz, Mai 2010 Was ist das Grid? coordinated resource sharing and problem solving in dynamic, multi-institutional

Mehr

Instant-Grid ein Grid in 15 Minuten

Instant-Grid ein Grid in 15 Minuten Instant-Grid ein Grid in 15 Minuten Vortrag von Andreas Félix beim Practical Linux Forum des LinuxTag 2006 Gesellschaft für wissenschaftliche Datenverarbeitung Göttingen mbh Übersicht über den Vortrag

Mehr

Grid Computing. Einführung. Marc Lechtenfeld. Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen

Grid Computing. Einführung. Marc Lechtenfeld. Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen * Grid Computing Einführung Marc Lechtenfeld Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen Übersicht 1 Problematik 2 Systemanforderungen 3 Architektur 4 Implementation 5 Projekte

Mehr

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte I N F O R M A T I O N V I R T U A L I S I E R U N G Wir schützen Ihre Unternehmenswerte Wir schützen Ihre Unternehmenswerte Ausfallsicherheit durch Virtualisierung Die heutigen Anforderungen an IT-Infrastrukturen

Mehr

Einführung. Worüber muss man sich beim Kauf eines Storagesystems den Kopf zerbrechen? Copyright 2013 DataCore Software Corp. All Rights Reserved.

Einführung. Worüber muss man sich beim Kauf eines Storagesystems den Kopf zerbrechen? Copyright 2013 DataCore Software Corp. All Rights Reserved. Einführung Worüber muss man sich beim Kauf eines Storagesystems den Kopf zerbrechen? Storage Priorities Expand storage capacity Improve storage performance Simplify mgt & provisioning Consolidate storage

Mehr

Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen. Masterarbeit

Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen. Masterarbeit Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen Masterarbeit zur Erlangung des akademischen Grades Master of Science (M.Sc.) im Masterstudiengang Wirtschaftswissenschaft

Mehr

Noon2Noon Protecting Big Data

Noon2Noon Protecting Big Data Noon2Noon Protecting Big Data Dr. Jürgen Arnold Empalis Consulting GmbH Nürnberg, 25.11.2014 Protecting Big Data using Node Replication 2 Agenda Einführung Aufgabenstellung Herangehensweise Stand Zusammenfassung

Mehr

query flood DoS attacks in Gnutella

query flood DoS attacks in Gnutella query flood DoS attacks in Gnutella von Andreas Legrum basierend auf einem Dokument von Neil Daswani und Hector Garcia-Molina Für das Seminar "Peer-to-peer Information Systems" - 1 - Übersicht 1. Einführung

Mehr

Fragestellung: Wie viele CPU Kerne sollte eine VM unter Virtualbox zugewiesen bekommen?

Fragestellung: Wie viele CPU Kerne sollte eine VM unter Virtualbox zugewiesen bekommen? Fragestellung: Wie viele CPU Kerne sollte eine VM unter Virtualbox zugewiesen bekommen? Umgebung Getestet wurde auf einem Linux-System mit voller invis-server Installation, auf dem eine virtuelle Maschine

Mehr

MTF Ihr Weg zum modernen Datacenter

MTF Ihr Weg zum modernen Datacenter MTF Ihr Weg zum modernen Datacenter Beat Ammann Rico Steinemann Agenda Migration Server 2003 MTF Swiss Cloud Ausgangslage End of Support Microsoft kündigt den Support per 14. Juli 2015 ab Keine Sicherheits-

Mehr

MATCHING VON PRODUKTDATEN IN DER CLOUD

MATCHING VON PRODUKTDATEN IN DER CLOUD MATCHING VON PRODUKTDATEN IN DER CLOUD Dr. Andreas Thor Universität Leipzig 15.12.2011 Web Data Integration Workshop 2011 Cloud Computing 2 Cloud computing is using the internet to access someone else's

Mehr

AFS Backup und Recover nicht nur für (Legato) NetWorker

AFS Backup und Recover nicht nur für (Legato) NetWorker AFS Backup und Recover nicht nur für (Legato) NetWorker Wolfgang Friebel, DESY 28.9.2006 1 Backup Inhalt Schematischer Ablauf Volle und inkrementelle Backups Backup auf Disk Backup auf Tape Recover Recover

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

FACTSHEET. Backup «ready to go»

FACTSHEET. Backup «ready to go» FACTSHEET Backup «ready to go» Backup «ready to go» für Ihre Virtualisierungs-Umgebung Nach wie vor werden immer mehr Unternehmensanwendungen und -daten auf virtuelle Maschinen verlagert. Mit dem stetigen

Mehr

Cloud Computing. D o m i n i c R e u t e r 19.07.2011. Softwarearchitekturen

Cloud Computing. D o m i n i c R e u t e r 19.07.2011. Softwarearchitekturen Cloud Computing D o m i n i c R e u t e r 19.07.2011 1 Seminar: Dozent: Softwarearchitekturen Benedikt Meurer GLIEDERUNG Grundlagen Servervirtualisierung Netzwerkvirtualisierung Storagevirtualisierung

Mehr

SAS Analytics bringt SAP HANA in den Fachbereich

SAS Analytics bringt SAP HANA in den Fachbereich Pressemitteilung Hamburg, 08. November 2013 SAS Analytics bringt SAP HANA in den Fachbereich Ergonomie kombiniert mit Leistungsfähigkeit: die BI-Experten der accantec group geben der neuen Partnerschaft

Mehr

Kundeninfo Anbindung externer Standorte an die Uptime Cloud

Kundeninfo Anbindung externer Standorte an die Uptime Cloud Kundeninfo Anbindung externer Standorte an die Uptime Cloud 1 Einleitung Uptime IT bietet seinen Kunden Infrastructure as a Service (IaaS) Leistungen auf Basis der Uptime Cloud an 2 Standorten an. Für

Mehr

Invenio@HGF Status und Perspektiven

Invenio@HGF Status und Perspektiven Invenio@HGF Status und Perspektiven 12. Helmholtz Open Access Workshop Von Open Access zu Open Science: aktuelle Herausforderungen in der Helmholtz-Gemeinschaft Potstam, 27. November 2013 Dr. Christoph

Mehr

Datenfluss in CERN-Experimenten

Datenfluss in CERN-Experimenten Ausarbeitung zum Hauptseminarvortrag Datenfluss in CERN-Experimenten von Valerie Scheurer Inhaltsverzeichnis 1. Das CERN 1.1 Allgemeines 1.2 Wichtige Errungenschaften 2. Das CMS Experiment 2.1 Aufbau 2.2

Mehr

Effizienzsteigerung im Rechenzentrum durch DCIM finden Sie den Einstieg!

Effizienzsteigerung im Rechenzentrum durch DCIM finden Sie den Einstieg! Effizienzsteigerung im Rechenzentrum durch DCIM finden Sie den Einstieg! 6. Februar 2013 Was ist DCIM? Data center infrastructure management (DCIM) is a new form of data center management which extends

Mehr

WIE ERHÖHT MAN DIE EFFIZIENZ DES BESTEHENDEN RECHENZENTRUMS UM 75% AK Data Center - eco e.v. 1. Dezember 2009

WIE ERHÖHT MAN DIE EFFIZIENZ DES BESTEHENDEN RECHENZENTRUMS UM 75% AK Data Center - eco e.v. 1. Dezember 2009 WIE ERHÖHT MAN DIE EFFIZIENZ DES BESTEHENDEN RECHENZENTRUMS UM 75% AK Data Center - eco e.v. 1. Dezember 2009 HOST EUROPE GROUP Größter Anbieter von standardisierten Managed Hosting Lösungen in Deutschland

Mehr

Grid-Technologie in Göttingen

Grid-Technologie in Göttingen GWDG-Bericht Nr. 74 Ulrich Schwardmann (Hrsg.) Grid-Technologie in Göttingen Beiträge zum Grid-Ressourcen-Zentrum GoeGrid Gesellschaft für wissenschaftliche Datenverarbeitung mbh Göttingen Ulrich Schwardmann

Mehr

Hochleistungsrechnen in Grids. Seminar: Grid-Middleware. Mirko Dietrich mirko.dietrich@hrz.uni-kassel.de. 4. Dezember 2006

Hochleistungsrechnen in Grids. Seminar: Grid-Middleware. Mirko Dietrich mirko.dietrich@hrz.uni-kassel.de. 4. Dezember 2006 Seminar: Hochleistungsrechnen in Grids Grid-Middleware Mirko Dietrich mirko.dietrich@hrz.uni-kassel.de 4. Dezember 2006 2 Inhalt Funktionen einer Grid-Middleware Grid Standards Middleware-Systeme Zusammenfassung

Mehr

Fraunhofer Resource Grid

Fraunhofer Resource Grid Fraunhofer Resource Grid Fraunhofer Resource Grid Andreas Hoheisel (andreas.hoheisel@first.fraunhofer.de) Uwe Der (uwe.der@first.fraunhofer.de) Computing Grids Computing Grids Das Netz ist der Computer

Mehr

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung Fritz Günther 17.03.2014 Folie 1 Agenda Was ist Virtualisierung Server- / Clientvirtualisierung

Mehr

Eingliederung der in DARIAH-DE entwickelten und angebotenen Komponenten in die Strukturen der Rechenzentren (M 2.4.1)

Eingliederung der in DARIAH-DE entwickelten und angebotenen Komponenten in die Strukturen der Rechenzentren (M 2.4.1) Eingliederung der in DARIAH-DE entwickelten und angebotenen Komponenten in die Strukturen der Rechenzentren (M 2.4.1) Version 23.02.2015 Cluster 2 Verantwortlicher Partner RZG DARIAH-DE Aufbau von Forschungsinfrastrukturen

Mehr

Big Data Herausforderungen für Rechenzentren

Big Data Herausforderungen für Rechenzentren FINANCIAL INSTITUTIONS ENERGY INFRASTRUCTURE, MINING AND COMMODITIES TRANSPORT TECHNOLOGY AND INNOVATION PHARMACEUTICALS AND LIFE SCIENCES Big Data Herausforderungen für Rechenzentren RA Dr. Flemming Moos

Mehr

Grundlagen des Grid Computing

Grundlagen des Grid Computing Grundlagen des Grid Computing Grid Middleware Toolkits: glite ICA Joh.. Kepler Universität t Linz glite Grid Middleware für das LHC Grid Wurde im Rahmen des EGEE Projekts entwickelt Basiert auf dem Globus

Mehr

Software Defined Storage

Software Defined Storage Software Defined Storage - Wenn Speicher zum Service wird - Copyright 2015 DataCore Software Corp. All Rights Reserved. Copyright 2015 DataCore Software Corp. All Rights Reserved. Über uns... Über 25.000

Mehr

Notfallmanagement in Zeiten des Cloud Computing

Notfallmanagement in Zeiten des Cloud Computing Ihre IT ist unser Business Notfallmanagement in Zeiten des Cloud Computing Thomas Reichenberger Manager Business Unit Cloud Services, VCDX, CISA ACP IT Solutions AG ACP Gruppe I www.acp.de I www.acp.at

Mehr

Digitalisiert und dann?

Digitalisiert und dann? Digitalisiert und dann? Der Aufbau eines Workflows zur Verwaltung und Online-Stellung digitaler Reproduktionen des Landesarchivs Baden-Württembergs Made digital Wege und Ziele Koblenz, 26. November 2014

Mehr

Energy-Efficient Cluster Computing

Energy-Efficient Cluster Computing Energy-Efficient Cluster Computing http://www.eeclust.de April 2009 März 2012 Timo Minartz Universität Hamburg Arbeitsbereich Wissenschaftliches Rechnen Konsortium Universität Hamburg (Koordinator) Thomas

Mehr

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT

Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Produkte und Systeme der Informationstechnologie ENERGIE- MANAGEMENT Folie 1 VDE-Symposium 2013 BV Thüringen und Dresden Virtualisierung von Leittechnikkomponenten Andreas Gorbauch PSIEnergie-EE Folie

Mehr

Das Labors für Informationslogistik an der FH Kufstein

Das Labors für Informationslogistik an der FH Kufstein international. mobile. multicultural Das Labors für Informationslogistik an der FH Kufstein "Flexible service- und prozessorientierte Informationssysteme Aachen, 13.-14. November 2008 Prof. (FH) Karsten

Mehr

Einsatz von Sam-FS HSM am Max-Delbrück-Centrum

Einsatz von Sam-FS HSM am Max-Delbrück-Centrum Einsatz von Sam-FS HSM am Max-Delbrück-Centrum Vortrag am 18.6.2015 auf der 7. Sam-FS Nutzerkonferenz Christian Steinborn Dipl.-Inf./FH-Systembetreuer IT-Abteilung am Max-Delbrück-Centrum für molekulare

Mehr

Die EBCONT Unternehmensgruppe.

Die EBCONT Unternehmensgruppe. 1200 Wien, Handelskai 94-96 Johannes Litschauer, Alex Deles IT-Infrastruktur IT-Betrieb (managed Services) Cloud / Elastizität 1200 Wien, Handelskai 94-96 Johannes Litschauer, Alex Deles Enterprise Solutions

Mehr

Ziele und Grundlagen des Integrierten IT-Betriebs

Ziele und Grundlagen des Integrierten IT-Betriebs Ziele und Grundlagen des Integrierten IT-Betriebs Berliner Anwenderforum am 19. Februar 2013 Referent: Thomas Dickmann (Leiter Produktmanagement des ITDZ Berlin) Moderne Perspektiven für die Verwaltung.

Mehr

STRATO setzt bei Nutzungsanalyse und Kapazitätsplanung des Cloud- Angebots HiDrive auf Pentaho BI

STRATO setzt bei Nutzungsanalyse und Kapazitätsplanung des Cloud- Angebots HiDrive auf Pentaho BI STRATO setzt bei Nutzungsanalyse und Kapazitätsplanung des Cloud- Angebots HiDrive auf Pentaho BI Mit Pentaho kann STRATO die Ressourcen hinter seiner HiDrive Lösung vorrausschauend ausbauen und das Produkt

Mehr

Heterogenes Speichermanagement mit V:DRIVE

Heterogenes Speichermanagement mit V:DRIVE Heterogenes Speichermanagement mit V:DRIVE V:DRIVE - Grundlage eines effizienten Speichermanagements Die Datenexplosion verlangt nach innovativem Speichermanagement Moderne Businessprozesse verlangen auf

Mehr

Managed Cloud Services

Managed Cloud Services Managed Cloud Services Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Cloud Services

Mehr

Ab in den Himmel: Was kommt jenseits der Cloud? 20 R. Altenhöner Ab in den Himmel: Was kommt jenseits der Cloud? 04.6.2014 Bibliothekartag 2014

Ab in den Himmel: Was kommt jenseits der Cloud? 20 R. Altenhöner Ab in den Himmel: Was kommt jenseits der Cloud? 04.6.2014 Bibliothekartag 2014 Ab in den Himmel: Was kommt jenseits der Cloud? 1 20 R. Altenhöner Ab in den Himmel: Was kommt jenseits der Cloud? 04.6.2014 Bibliothekartag 2014 Inhalt 1. Einleitung / Motivation 2. Cloud ein bisschen

Mehr

bw-grid Cluster in Mannheim

bw-grid Cluster in Mannheim bw-grid Cluster in Mannheim Dr. Heinz Kredel mit Helmut Fränznick, Rudi Müller, Steffen Hau, Andreas Baust Inhalt Grid und D-Grid BMBF Projekt bw-grid Cluster Stand: Aufbau und Inbetriebnahme Benutzung

Mehr

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2.

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2. Cloud Computing Frank Hallas und Alexander Butiu Universität Erlangen Nürnberg, Lehrstuhl für Hardware/Software CoDesign Multicorearchitectures and Programming Seminar, Sommersemester 2013 1. Definition

Mehr

Das Leibniz-Rechenzentrum

Das Leibniz-Rechenzentrum Andreas Heddergott, LRZ Das Leibniz-Rechenzentrum Das Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften ist der IT-Dienstleister der Münchner Universitäten und Hochschulen. Es bietet weit

Mehr

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching 1.1 Caching von Webanwendungen In den vergangenen Jahren hat sich das Webumfeld sehr verändert. Nicht nur eine zunehmend größere Zahl an Benutzern sondern auch die Anforderungen in Bezug auf dynamischere

Mehr

(früher: Double-Take Backup)

(früher: Double-Take Backup) (früher: Double-Take Backup) Eine minutengenaue Kopie aller Daten am Standort: Damit ein schlimmer Tag nicht noch schlimmer wird Double-Take RecoverNow für Windows (früher: Double-Take Backup) sichert

Mehr

Virtualisierung im Rechenzentrum

Virtualisierung im Rechenzentrum in wenigen Minuten geht es los Virtualisierung im Rechenzentrum Der erste Schritt auf dem Weg in die Cloud KEIN VOIP, nur Tel: 030 / 7261 76245 Sitzungsnr.: *6385* Virtualisierung im Rechenzentrum Der

Mehr

IDC-Studie zu Storage in Deutschland 2013 Unternehmen wappnen sich für die Datenflut

IDC-Studie zu Storage in Deutschland 2013 Unternehmen wappnen sich für die Datenflut Pressemeldung Frankfurt am Main, 14. Juni 2013 IDC-Studie zu Storage in Deutschland 2013 Unternehmen wappnen sich für die Datenflut Stark wachsende Datenmengen forcieren die Anforderungen an Speichertechnologien

Mehr

RAID. Name: Artur Neumann

RAID. Name: Artur Neumann Name: Inhaltsverzeichnis 1 Was ist RAID 3 1.1 RAID-Level... 3 2 Wozu RAID 3 3 Wie werden RAID Gruppen verwaltet 3 3.1 Software RAID... 3 3.2 Hardware RAID... 4 4 Die Verschiedenen RAID-Level 4 4.1 RAID

Mehr

Multicast Backbone in the Cloud. Sebastian Zagaria Prof. Dr. Thomas C. Schmidt

Multicast Backbone in the Cloud. Sebastian Zagaria Prof. Dr. Thomas C. Schmidt Multicast Backbone in the Cloud Sebastian Zagaria Prof. Dr. Thomas C. Schmidt Gliederung Motivation HAMcast Project Cloud Computing Multicast Backbone in the Cloud Ausblick Motivation Probleme von IP Multicast

Mehr

Grid Computing. Siegmar Alber 0720046 salber@cosy.sbg.ac.at Universität Salzburg. Luca Debiasi 0720045 ldebiasi@cosy.sbg.ac.at Universität Salzburg

Grid Computing. Siegmar Alber 0720046 salber@cosy.sbg.ac.at Universität Salzburg. Luca Debiasi 0720045 ldebiasi@cosy.sbg.ac.at Universität Salzburg Grid Computing Luca Debiasi 0720045 ldebiasi@cosy.sbg.ac.at Universität Salzburg Siegmar Alber 0720046 salber@cosy.sbg.ac.at Universität Salzburg 13.03.2009 1 Inhaltsverzeichnis 1 Einleitung 3 2 Aufbau

Mehr

Cloud Computing. Betriebssicherheit von Cloud Umgebungen C O N N E C T I N G B U S I N E S S & T E C H N O L O G Y

Cloud Computing. Betriebssicherheit von Cloud Umgebungen C O N N E C T I N G B U S I N E S S & T E C H N O L O G Y Cloud Computing Betriebssicherheit von Cloud Umgebungen Urs Zumstein Leiter Performance Care Team Urs.Zumstein@DevoTeam.ch 079 639 42 58 Agenda Definition von Cloud Services Anforderungen an die Betriebssicherheit

Mehr

Informationssystemanalyse Grundlagen 1 1

Informationssystemanalyse Grundlagen 1 1 Informationssystemanalyse Grundlagen 1 1 Software-Projekte Klassischerweise wird Software-Entwicklung in Projektform abgewickelt. Projekte kommen dabei zwischen einem Anbieter und einem Kunden zustande,

Mehr

Die Marktsituation heute und die Position von FUJITSU

Die Marktsituation heute und die Position von FUJITSU Die Marktsituation heute und die Position von FUJITSU Rupert Lehner Head of Sales Region Germany 34 Copyright 2011 Fujitsu Technology Solutions Marktentwicklung im Jahr 2011 Der weltweite IT-Markt im Jahr

Mehr

eg e s c h ä f t s p r o z e s s MEHR ZEIT FÜR IHR GESCHÄFT SHD managed Ihre IT-Services

eg e s c h ä f t s p r o z e s s MEHR ZEIT FÜR IHR GESCHÄFT SHD managed Ihre IT-Services eg e s c h ä f t s p r o z e s s erfahrung service kompetenz it-gestützte MEHR ZEIT FÜR IHR GESCHÄFT SHD managed Ihre IT-Services erfolgssicherung durch laufende optimierung Als langjährig erfahrenes IT-Unternehmen

Mehr

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Software Defined Storage - wenn Storage zum Service wird - Jens Gerlach Regional Manager West Copyright 2015 DataCore Software Corp. All Rights

Mehr

CLOUD COMPUTING IN DEUTSCHLAND 2013

CLOUD COMPUTING IN DEUTSCHLAND 2013 Fallstudie: IBM IDC Multi-Client-Projekt CLOUD COMPUTING IN DEUTSCHLAND 2013 business-anforderungen und Geschäftsprozesse mit Hilfe von Cloud Services besser unterstützen ibm Fallstudie: highq Computerlösungen

Mehr

Bringt Ihre IT auf den Punkt.

Bringt Ihre IT auf den Punkt. Bringt Ihre IT auf den Punkt. Keep it simple, but smart Streamo IT-Consulting bietet Ihnen die Leistungen, das Wissen und die Möglichkeiten, die Sie für Ihre IT brauchen: auf hohem Niveau, mit kurzen

Mehr

SCC Mitbegründer der Gauss-Allianz. Datenanalyse für den leistungsstärksten Teilchenbeschleuniger der Welt

SCC Mitbegründer der Gauss-Allianz. Datenanalyse für den leistungsstärksten Teilchenbeschleuniger der Welt ISSN 1866-4954 SEPTEMBER 2008 / 2 Steinbuch Centre for Computing SCC Steinbuch Centrum für Computing Weltweite Testumgebung für Cloud Computing SCC Mitbegründer der Gauss-Allianz Datenanalyse für den leistungsstärksten

Mehr

Big Data: großes Potenzial und hohes Risiko IT-Sicherheit bestimmt die technologischen Trends

Big Data: großes Potenzial und hohes Risiko IT-Sicherheit bestimmt die technologischen Trends Big Data: großes Potenzial und hohes Risiko IT-Sicherheit bestimmt die technologischen Trends Dipl.-Ing. Dieter Westerkamp, Bereichsleiter Technik und Wissenschaft im VDI Dr. Ina Kayser, Arbeitsmarktexpertin

Mehr