Juni 2015 LRZ-Bericht 2015-01



Ähnliche Dokumente
Jahresbericht. Leibniz-Rechenzentrum. der Bayerischen Akademie der Wissenschaften. Juli 2013 LRZ-Bericht Leibniz-Rechenzentrum.

Das Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften

Virtualisierung in Netzen Möglichkeiten und Probleme

WINDOWS 8 WINDOWS SERVER 2012

Virtual Desktop Infrasstructure - VDI

Fallstudie HP Unified WLAN Lösung

Open Source als de-facto Standard bei Swisscom Cloud Services

Der Nutzen und die Entscheidung für die private Cloud. Martin Constam Rechenpower in der Private Cloud 12. Mai 2014

Umstieg auf Microsoft Exchange in der Fakultät 02

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte

Installationsanleitung dateiagent Pro

Lizenzen auschecken. Was ist zu tun?

Sicherheitsaspekte der Langzeitarchivierung am Leibniz- Rechenzentrum. 09. Juni Rosa Freund

HANDBUCH LSM GRUNDLAGEN LSM

ANYWHERE Zugriff von externen Arbeitsplätzen

EXCHANGE Neuerungen und Praxis

Microsoft SharePoint 2013 Designer

System Center Essentials 2010

3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN?

IT- Wir machen das! Leistungskatalog. M3B Service GmbH Alter Sportplatz Lake Schmallenberg

Alle Informationen zu Windows Server 2003 Übersicht der Produkte

Installation SQL- Server 2012 Single Node

2 Die Terminaldienste Prüfungsanforderungen von Microsoft: Lernziele:

Content Management System mit INTREXX 2002.

Konfiguration Firewall (Zyxel Zywall 10) (von Gruppe Schraubenmeier)

Anleitung zum Prüfen von WebDAV

SharePoint Demonstration

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen

Das Leibniz-Rechenzentrum

Microsoft Azure Fundamentals MOC 10979

lldeckblatt Einsatzszenarien von SIMATIC Security-Produkten im PCS 7-Umfeld SIMATIC PCS 7 FAQ Mai 2013 Service & Support Answers for industry.

Paul Petzold Firmengründer, Verwaltungsratspräsident und Delegierter der Mirus Software AG

Verfügbarkeit von Applikationen und Failover Szenarien. Winfried Wojtenek.

Geyer & Weinig: Service Level Management in neuer Qualität.

SMART Newsletter Education Solutions April 2015

:: Anleitung Hosting Server 1cloud.ch ::

Windows 10 Sicherheit im Überblick

Formular»Fragenkatalog BIM-Server«

KASPERSKY SECURITY FOR VIRTUALIZATION 2015

WINDOWS AZURE IM ÜBERBLICK GANZ NEUE MÖGLICHKEITEN

Er musste so eingerichtet werden, dass das D-Laufwerk auf das E-Laufwerk gespiegelt

Überblick IBM Offerings für Cloud-Provider

Softwaretechnische Anforderungen zu Opale bluepearl Version 1.0 vom

Technische Anwendungsbeispiele

Intelligente Updateverwaltung Inventarisierung von Softwareprodukten Remoteunterstützung, mobile Endgeräte u.v.m.

SWITCHaai Die Authentifizierungs- und Autorisierungs- Infrastruktur der Schweizer Hochschulen

Donato Quaresima Matthias Hirsch

Konfiguration VLAN's. Konfiguration VLAN's IACBOX.COM. Version Deutsch

BI in der Cloud eine valide Alternative Überblick zum Leistungsspektrum und erste Erfahrungen

Uwe Baumann artiso Solutions

4D Server v12 64-bit Version BETA VERSION

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2

Installation und Inbetriebnahme von SolidWorks

Konzept zur Push Notification/GCM für das LP System (vormals BDS System)

Agenda. TERRA CLOUD GmbH Zahlen, Daten, Fakten Private & Hybrid Cloud Szenarien Public Cloud Szenarien Lessons Learned

WinVetpro im Betriebsmodus Laptop

Ora Education GmbH. Lehrgang: Oracle Application Server 10g R3: Administration

EIDAMO Webshop-Lösung - White Paper

NEWSLETTER // AUGUST 2015

Kurzanleitung um Transponder mit einem scemtec TT Reader und der Software UniDemo zu lesen

Anleitung zur Nutzung des SharePort Utility

IBM Software Demos Tivoli Provisioning Manager for OS Deployment

Tutorial Windows XP SP2 verteilen

Diese Anleitung erläutert die Einrichtung des Active Directory Modus im DNS-343.

iphone 4 - Einrichtung des VPN Clients (Cisco VPN Client) / Verbinden des iphones mit einem Exchange

Installation der SAS Foundation Software auf Windows

Persönliche Einladung. Zur IT Managers Lounge am 4. November 2009 in Köln, Hotel im Wasserturm.

GEZIELT MEHR SICHERHEIT MIT 4I ACCESS SERVER & 4I CONNECT CLIENT

Systemen im Wandel. Autor: Dr. Gerd Frenzen Coromell GmbH Seite 1 von 5

Preisliste für The Unscrambler X

Anleitung für Webcasts

Lizenzierung von Windows Server 2012

SCHULUNG MIT SYSTEM: E-LEARNING VON RAUM21

Task: Nmap Skripte ausführen

Neuerungen im Service Pack 2

Citrix CVE 400 1I Engineering a Citrix Virtualization Solution

Lizenzierung von System Center 2012

Managed Infrastructure Service (MIS) Schweiz

Business Application Framework für SharePoint Der Kern aller PSC-Lösungen

14.2 Einrichten der Druckserverfunktionen

WLAN an der TUC. eduroam mit Windows 7. Empfohlen - gesichertes Funknetz mit WPA/WPA2

Windows Server Dieses Dokument beschreibt einige Details zum Aufsetzen eines Windows Server 2003 (Andres Bohren /

synergetic AG Open House 2012 Ihr Unternehmen in der Wolke - Cloud Lösungen von synergetic

Institut für Computational Engineering ICE. N ä h e r d ra n a m S ys t e m d e r Te c h n i k d e r Z u ku n f t. w w w. n t b.

Ihr Weg in die Cloud einfach A1. Alexandros Osyos, MBA Leiter Partner Management A1 Telekom Austria

Test zur Bereitschaft für die Cloud

Anleitung zum Prüfen von WebDAV

Bes 10 Für ios und Android

Der Begriff Cloud. Eine Spurensuche. Patric Hafner geops

PowerWeiss Synchronisation

HTBVIEWER INBETRIEBNAHME

TELEMETRIE EINER ANWENDUNG

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features.

NbI-HS. NbIServ Bethenhausen Bethenhausen

Anleitung. Download und Installation von Office365

Themen des Kapitels. 2 Übersicht XenDesktop

MOBILE ON POWER MACHEN SIE IHRE ANWENDUNGEN MOBIL?!

Whitepaper webmethods 9.0. webmethods 9.0. Die Integrationsplattform für BPM, EAI und SOA 2013 SYRACOM AG

Transkript:

Jahresbericht 2014

Juni 2015 LRZ-Bericht 2015-01

Jahresbericht 2014 des Leibniz-Rechenzentrums i Inhaltsverzeichnis Abbildungsverzeichnis... vii Tabellenverzeichnis... x Vorwort... 1 1 Highlights - Die wichtigsten Ereignisse am LRZ 2014... 2 1.1 Einführung des neuen LRZ-Logos und Corporate Designs... 2 1.2 Eduroam im WLAN der SWM... 2 1.3 Anbindung der Staatlichen Museen und Archive an das MWN... 3 1.4 SuperMUC Status and Results Workshop, User Forum und Berichtsband... 3 1.5 PRACE ISC Award: 1,4 Petaflops mit SeisSol auf SuperMUC... 4 1.6 Science Veröffentlichung über genetische Algorithmen... 4 1.7 Zweiter Extreme Scaling Workshop... 4 1.8 Vorbereitungen für die Phase 2 des SuperMUC... 4 1.9 Einsparungen beim Energieverbrauch von HPC Systemen... 4 1.10 Überwachungssoftware Persyst... 4 1.11 Power Data Aggregation Monitor (PowerDAM)... 5 1.12 Webfrontend für Remote Visualisierung... 5 1.13 Erneuerung der VMware- und Linux-Cluster-Infrastruktur... 5 1.14 Erhöhung der Redundanz im Münchner Wissenschaftsnetz... 5 1.15 Starkes Wachstum bei Exchange am LRZ... 5 1.16 Desktop-Management TUM-PC... 6 1.17 Security Incident and Event Management System... 6 1.18 Die wichtigsten öffentlichen Auftritte des LRZ... 7 2 Forschung und Projekte... 9 2.1 Forschungskoordination und Projektmanagement... 9 2.2 Energieeffizientes Rechenzentrum... 9 2.2.1 Einsparungen beim Energieverbrauch von HPC Systemen... 9 2.3 Energieseminar... 9 2.4 Projekte, an denen sich das LRZ beteiligt...10 2.4.1 Automatic Online Tuning (AutoTune)...10 2.4.2 Dynamical Exascale Entry Platform / Extended Reach (DEEP/-ER)...12 2.4.3 European Exascale Software Initiative 2 (EESI2)...13 2.4.4 European Grid Infrastructure (EGI-InSPIRE)...15 2.4.5 Ein flexibles Framework zur Energie- und Performanceanalyse hochparalleler Applikationen im Rechenzentrum (FEPA)...16 2.4.6 GÉANT GN3plus...17 2.4.7 Intel Parallel Computing Center (IPCC)...20 2.4.8 Software-Initiative des KONWIHR...22 2.4.9 Mont-Blanc & Mont-Blanc 2...24 2.4.10 Mr. SymBioMath...25 2.4.11 PRACE Second Implementation Phase Project (PRACE-2IP)...26 2.4.12 PRACE Third Implementation Phase Project (PRACE-3IP)...28

ii Inhaltsverzeichnis 2.4.13 Safe And Secure European Routing (SASER)... 30 2.4.14 Simulation und Optimierung des Energiekreislaufs von Rechenzentrums- Klimatisierungsnetzen unter Berücksichtigung von Supercomputer- Betriebsszenarien (SIMOPEK)... 33 2.4.15 Virtuelles Alpen-Observatorium II (VAO-II)... 35 2.4.16 Virtual Earthquake and Seismology Research Community in Europe e- Science Environment (VERCE)... 36 2.4.17 Webbasiertes Customer Network Management (WebCNM)... 38 2.4.18 Standardisierungsaktivitäten im Bereich der parallelen Programmierung... 39 2.5 Mitarbeit in Initiativen zur Förderung und Weiterentwicklung von HPC-Technologien in Europa 39 2.5.1 ETP4HPC... 39 2.5.2 PROSPECT e.v.... 39 3 Darstellung des LRZ in der Öffentlichkeit... 40 3.1 Allgemeine Öffentlichkeit und Medien - PR... 40 3.2 Hochleistungsrechnen... 41 3.2.1 Supercomputing Konferenzen... 41 3.2.2 SuperMUC Status and Results Workshop, User Forum und Berichtsband... 41 3.2.3 Ergebnisse auf GCS Webseiten... 42 3.3 Zentrum für Virtuelle Realität und Visualisierung (V2C)... 42 3.3.1 Vorträge... 42 3.3.2 Veranstaltungen... 42 3.3.3 Booklet... 44 4 IT-Service Management... 45 4.1 Einführung von ISO/IEC 20000... 45 4.1.1 Incident Management... 45 4.1.2 Change- und Configuration Management... 45 4.1.3 Weitere ITSM-Prozesse... 45 4.1.4 Sonstige Aktivitäten... 45 4.2 Service-Management-Plattform Action Request System... 46 5 IT-Sicherheit... 47 5.1 Sicherheitsmanagement... 47 5.2 Antivirus... 47 5.3 WSUS... 47 5.4 Virtuelle Firewalls... 47 5.5 Technische Aspekte des Sicherheitsmanagements... 49 5.5.1 Secomat... 49 5.5.2 Security Information & Event Management... 50 5.5.3 Sicherheits- und Netzmanagement: Nyx... 50 5.5.4 Self-Service Portal; Sperr- und Entsperrmechanismen... 51 6 IT-Basisdienste... 52 6.1 E-Mail... 52 6.1.1 Migration der lokalen Mailserver im MWN... 52 6.1.2 Inhaltsbasierte Prequeue-Filterung von Spam- und Virenmails... 52 6.1.3 Verschlüsselte Übertragung von E-Mails... 52 6.1.4 Statistiken zur Mailnutzung... 53 6.2 Exchange... 55

Jahresbericht 2014 des Leibniz-Rechenzentrums iii 6.2.1 Migration auf Exchange 2013...55 6.2.2 Exchange für die Hochschule München...55 6.2.3 Nutzung des Exchange-Dienstes...55 6.3 Webhosting...56 6.3.1 Performance-Tuning in der neuen Webhosting-Betriebsumgebung...56 6.3.2 Verlagerung und Upgrade TUM-Typo3-Projekt...57 6.4 Desktop-Management...57 6.4.1 Rechnerpools...58 6.4.2 TUM-PC...58 6.4.3 MWN-MAC...59 6.5 Benutzerverwaltung und Verzeichnisdienste...59 6.5.1 Benutzerverwaltung für LRZ-Dienste...59 6.5.2 CampusLMU und TUMonline...65 6.5.3 MWN Active Directory...65 6.5.4 DFN-AAI/Shibboleth...66 6.6 Bibliotheksdienste...68 6.6.1 Arbeitsgruppe Bibliotheksdienste...68 6.6.2 System- und Softwaremanagement...68 6.6.3 Projekt Rosetta (Langzeitarchivierung)...68 6.6.4 Bibliotheksverbund Bayern (BVB)...68 6.6.5 Münchner Digitalisierungszentrum (MDZ)...69 7 Virtuelle Realität und Visualisierung...72 7.1 Kooperationen...72 7.2 Forschung und Lehre...72 8 IT-Server-Infrastruktur...74 8.1 Linux-Server...74 8.1.1 Virtuelle Server...74 8.1.2 Analyse von Log- und Diagnosedaten...74 8.1.3 Monitoring...74 8.1.4 Managed Hosting für hochschulstart.de...74 8.2 Windows...75 9 Hochleistungssysteme und SuperMUC...76 9.1 Höchstleistungsrechner SuperMUC...76 9.1.1 SuperMUC Phase 2...76 9.1.2 Das neue Intel Xeon Phi System SuperMIC...77 9.1.3 Das neue Remote-Visualisierungs-System für SuperMUC Benutzer...78 9.1.4 Betrieb des Höchstleistungsrechners SuperMUC...79 9.1.5 Auslastung...79 9.1.6 Rechenzeit nach Fachgebieten...81 9.1.7 Jobgröße...82 9.1.8 Datentransfer...83 9.2 Linux-Cluster...84 9.2.1 Betrieb...84 9.2.2 Nutzung des Linux-Clusters...84 9.2.3 Antrag zur Ersetzung veralteter Komponenten des Linux-Clusters...86 9.3 Applikations- und Benutzerunterstützung im Bereich HPC...87 9.3.1 Supportanfragen...87 9.3.2 Benutzerverwaltung für die Hochleistungssysteme...88 9.3.3 Software für HPC Systeme...88

iv Inhaltsverzeichnis 9.3.4 Kurse und Ausbildung... 88 9.4 Application Labs... 88 9.4.1 AstroLab (πcs Astro)... 88 9.4.2 BioLab (πcs Bio)... 89 9.4.3 GeoLab (πcs Geo)... 89 9.4.4 Energie und Umwelt... 90 10 Datenhaltung... 91 10.1 Überblick Datenhaltung... 91 10.2 Archiv- und Backupsystem... 91 10.2.1 Konfiguration... 91 10.2.2 Schwerpunkte in den Aktivitäten... 96 10.2.3 Statistik... 96 10.2.4 Plattform für digitale Langzeitarchivierung... 98 10.3 Datenbanken... 101 10.4 Onlinespeicher... 101 10.4.1 Konfiguration und Entwicklung im Überblick... 101 10.4.2 Hochverfügbarer Speicher für virtuelle Server... 103 10.4.3 MWN Storage Cloud... 104 10.4.4 Sync+Share Lösung für die Münchner Universitäten... 105 10.5 Daten- und Archivräume... 105 11 Münchner Wissenschaftsnetz Internetzugang... 107 11.1 Struktur und Betrieb des Münchner Wissenschaftsnetzes (MWN)... 107 11.1.1 Struktur des Backbone Netzes... 112 11.1.2 Planung von WDM-Systemen im MWN-Backbone... 113 11.1.3 Struktur der Gebäudenetze im MWN... 114 11.1.4 Struktur des Rechenzentrumsnetzes (LRZ-Netz)... 115 11.2 Anschluss ans MWN und wesentliche Änderungen im Netz... 117 11.2.1 Wesentliche Netzänderungen im Jahr 2014... 117 11.2.2 Netzausbau (Verkabelung); Netzinvestitionsprogramm... 118 11.2.3 Redundante LWL-Verkabelung und zweiter zentraler Netzknoten auf dem Campus Garching... 119 11.2.4 Anbindung Studentenwohnheime... 120 11.3 DNS und Sicherheit im DNS... 123 11.3.1 DNS-Amplification-Attacks und offene Resolver... 125 11.3.2 DNSSEC... 126 11.4 DHCP... 126 11.5 Radius... 127 11.6 Switch-Infrastruktur / Switch-Erneuerung... 128 11.7 Telefonie... 128 11.7.1 VoIP-Anlage und Betrieb... 128 11.7.2 Zugang über UMTS... 129 11.7.3 Verbesserung der Mobilfunkversorgung in den LRZ-Gebäuden... 129 11.7.4 Ausschreibung BayKOM... 129 11.8 Unterstützung von Infrastrukturdiensten... 129 11.8.1 Server Load Balancer (SLB)... 129 11.8.2 IPv6... 130 11.8.3 Wellenlängenmultiplexer... 131 11.8.4 NeSSI... 132

Jahresbericht 2014 des Leibniz-Rechenzentrums v 11.9 Netzmanagement und monitoring...133 11.9.1 Netzmanagement...133 11.9.2 Netzdokumentation...135 11.9.3 MWN-WLAN-Visualisierung mit OpenStreetMap für Endbenutzer...135 11.9.4 Inhaltliche Aktualisierung der Netzdokumentation...136 11.9.5 Überwachung der Dienstqualität...136 11.9.6 Reporting für Netzverantwortliche...137 11.10 Internetzugang und LAN...137 11.11 WLAN und Eduroam...140 11.11.1 Eduroam...142 11.11.2 Vorkonfigurierte Profile für eduroam (CAT)...143 11.11.3 Eduroam off Campus...144 11.11.4 Gastkennungen...145 11.11.5 Unterstützung von Veranstaltungen...145 11.12 VPN 145 11.12.1 Technik...146 11.12.2 VPN-Software...146 11.12.3 Telearbeitsplätze von LRZ-Mitarbeitern...146 11.12.4 Entwicklung des Datenverkehrs über die VPN-Server...146 12 Kurse, Ausbildung und Benutzerbetreuung...149 12.1 Kurse und Veranstaltungen...149 12.1.1 Kursübersicht, Statistik 2014...149 13 Software-Bezug und Lizenzen...154 13.1 Microsoft...154 13.1.1 Mietlizenzen für LRZ und Akademie...154 13.1.2 Zugang der Universitätskliniken zum Bundesvertrag...154 13.1.3 Plausibilisierungen oder: Damokles-Schwert der Software-Audits...154 13.2 Adobe...154 13.2.1 CLP...154 13.2.2 ETLA Desktop...155 13.3 Ansys...155 13.4 SPSS...155 13.5 VMware...155 13.6 Software Asset Management...155 13.7 Verlängerung und Ausbau bestehender Verträge...155 13.8 Tagesgeschäft...156 13.8.1 Abläufe und Änderungen bei der Versorgung der Kunden des LRZ...156 13.8.2 Betrieb von Lizenzservern für Kunden des LRZ...157 14 Gebäude und Infrastruktur...158 14.1 Gebäudemanagement...158 14.2 Energieeffizienz...158 15 Personal...160

vi Inhaltsverzeichnis 16 Zahlen und Fakten... 161 16.1 Personal... 161 16.2 E-Mail und Exchange... 162 16.3 Poster und Schriften... 162 16.4 Benutzerverwaltung und Shibboleth... 162 16.5 Höchstleistungsrechner... 163 16.6 Hochleistungs-Linux-System... 164 16.7 Hochleistungs-Graphik-System... 166 16.8 Datenspeicher... 167 16.9 Das Münchner Wissenschaftsnetz (MWN)... 169 16.10 Netzkomponenten im MWN... 170 16.10.1 Router... 170 16.10.2 Switches... 171 16.10.3 WLAN-Komponenten... 172 16.10.4 Netz-Server... 173

Jahresbericht 2014 des Leibniz-Rechenzentrums vii Abbildungsverzeichnis Abbildung 1: Das neue Logo des LRZ...2 Abbildung 2: eduroam-wlan-standorte am Marienplatz, die von den Stadtwerken München betrieben werden...3 Abbildung 3: Anstieg der Exchange-Nutzung im MWN...6 Abbildung 4: Anstieg der Anzahl verwalteter TUM-PCs in 2014...6 Abbildung 5: Stand des LRZ bei den Münchner Wissenschaftstagen...7 Abbildung 6: Präsentation beim Akademientag im November 2014...8 Abbildung 7: Open Lab Day des V2C am 16. Dezember 2014...8 Abbildung 8: GÉANT-TrustBroker-Workflow nach der DAME-Protokollspezifikation... 17 Abbildung 9: SP-side account linking with ORCID... 18 Abbildung 10: Stand des LRZ bei den Münchner Wissenschaftstagen... 40 Abbildung 11: Einband des Berichtsbandes 2014... 41 Abbildung 12: Webseiten des Gauß-Zentrums mit Ergebnissen von Projekten am SuperMUC... 42 Abbildung 13: Studierende präsentieren ihre Projekte am Open Lab Day... 43 Abbildung 14: Präsentation einer Gletschervisualisierung am Akademientag in der BAdW... 43 Abbildung 15: Entwicklung der virtuellen Firewalls seit 2007... 48 Abbildung 16: Web-Schnittstelle Adaptive Security Device Manager (ASDM)... 48 Abbildung 17: secomat1... 49 Abbildung 18: secomat2... 49 Abbildung 19: secomat3... 49 Abbildung 20: secomat4... 49 Abbildung 21: Entwicklung der Exchange-Nutzung seit 2011... 56 Abbildung 22: Webserver-Antwortzeit [ms] in alter (KW37) und neuer (KW39) Betriebsumgebung... 57 Abbildung 23: Entwicklung des TUM-PCs in 2014... 59 Abbildung 24: Serverlandschaft und Einbindung des LRZ-SIM-Systems... 64 Abbildung 25: Computerkonten im MWN-ADS in 2014... 66 Abbildung 26: Bavarikon 2 - Produktion. Eines von drei Netzen... 70 Abbildung 27: Dreigliedrige Netzsegmentierung für MDZ-Dienste... 71 Abbildung 28: Das V2C mit seinen einzelnen Komponenten... 72 Abbildung 29: Virtuelle Serverinstanzen am LRZ... 74 Abbildung 30: Blick auf das neu installierte SuperMUC Phase 2-System (Foto: Andreas Heddergott)... 77 Abbildung 31: Racks des SuperMIC... 77 Abbildung 32: Netzwerk-Topologie des Intel Xeon Phi Systems... 78 Abbildung 33: Rechenzeitabgabe (in Core-Stunden). Bis 3. Quartal 2012 nur Migrationssystem (Fat-Nodes), ab 4. Quartal 2013 Thin und Fat-Nodes... 80 Abbildung 34: Prozentuale Auslastung (Verhältnis der tatsächlichen zur maximal möglichen Rechenzeitabgabe)... 80 Abbildung 35: Verteilung der Rechenzeit nach Fachgebieten... 81 Abbildung 36: Zeitliche Entwicklung der Nutzung von SuperMUC durch Fachgebiete... 82 Abbildung 37: Zeitliche Entwicklung SuperMUC-Nutzung in Abhängigkeit von der Jobgröße... 83

viii Inhaltsverzeichnis Abbildung 38: Ca. 460 TByte wurden 2014 per GridFTP von und zum SuperMUC übertragen... 83 Abbildung 39: Kumulativer Anteil von Jobs in Abhängigkeit von der Wartezeit... 86 Abbildung 40: Entwicklung der Anzahl von Supportanfragen im Bereich HPC... 87 Abbildung 41: Überblick Archiv- und Backupsysteme... 92 Abbildung 42: Hochleistungs-Archiv- und Backupsystem Ende 2014... 93 Abbildung 43: LTO-Archiv- und Backupsystem Ende 2014... 94 Abbildung 44: Desaster Recovery-Archiv- und Backupsystem Ende 2014... 95 Abbildung 45: Datenverkehr (TB pro Monat)... 97 Abbildung 46: Datenumfang (TB pro Monat)... 97 Abbildung 47: Speicherbelegung seit 1995... 98 Abbildung 48: Objektanzahl im LRZ-Archiv (Zweitkopie nicht berücksichtigt)... 99 Abbildung 49: Datenvolumen im LRZ-Archiv (Zweitkopie nicht berücksichtigt)... 99 Abbildung 50: Workflow im Google Projekt... 100 Abbildung 51: Archivierte Daten in TByte... 101 Abbildung 52: Links: Entwicklung Datenvolumen und Anzahl Festplatten Rechts: Entwicklung der Anzahl an Filerköpfen... 102 Abbildung 53: Primärsysteme, Replikation und Backup... 102 Abbildung 54: Hochverfügbares NAS-System für VMware... 103 Abbildung 55: Durchschnittliche Anzahl simultan zugreifender Kennungen... 104 Abbildung 56: Nutzung der MWN Storage Cloud für TUM Projekte... 104 Abbildung 57: Daten- und Archivraum DAR0... 105 Abbildung 58: Brandabschnitte im Rechnerwürfel... 106 Abbildung 59: Räumliche Ausdehnung des Münchner Wissenschaftsnetzes (nicht maßstabsgerecht). 108 Abbildung 60: MWN Unterbezirke und Ausdehnung... 109 Abbildung 61: Standorte und Verbindungen im MWN (Teil 1)... 110 Abbildung 62: Standorte und Verbindungen im MWN (Teil 2)... 111 Abbildung 63: Struktur des Kernnetzes... 112 Abbildung 64: Grundlegende Struktur der DWDM-Infrastruktur zwischen Martinsried und Garching... 114 Abbildung 65: Entwicklung bei der Anzahl der Switchports... 115 Abbildung 66: Struktur des LRZ-Netzes... 116 Abbildung 67: Statistik für alle DNS-Server (Autoritativ)... 124 Abbildung 68: Statistik für alle DNS-Resolver... 124 Abbildung 69: Funktionsweise der DNS Amplification Attack... 126 Abbildung 70: DHCP-Infrastrkutur auf den DNS-Servern... 127 Abbildung 71: RADIUS-Struktur im MWN... 128 Abbildung 72: Durchsatz innerhalb von 7 Tagen am SLB 1... 130 Abbildung 73: Struktur des Querverbindungsnetzes... 132 Abbildung 74: Topologie des Münchner Wissenschaftsnetzes Ende 2014... 134 Abbildung 75: Eduroam-WLAN-Standorte der Stadtwerke München... 136 Abbildung 76: Device-Report mit Interface-Alias... 137 Abbildung 77: Entwicklung der Nutzung des WiN-Anschlusses des MWN seit 2004... 138

Jahresbericht 2014 des Leibniz-Rechenzentrums ix Abbildung 78: Anbindung des MWN ans Internet... 139 Abbildung 79: Anzahl der jährlich installierten Accesspoints... 140 Abbildung 80: Anzahl aktiver WLAN-Verbindungen am 5.11.2014 (5-Minuten-Mittel)... 141 Abbildung 81: Entwicklung der Belegung über das Jahr 2014 (Tagesmittel)... 141 Abbildung 82: Nutzung des WLAN aufgeteilt nach SSIDs... 143 Abbildung 83: Eduroam Nutzung durch MWN-Nutzer und Gäste... 143 Abbildung 84: Dr. Dietmar Unger, Leiter IT bei den SWM und Prof. Dr. Helmut Reiser, LRZ, nehmen das eduroam im M-WLAN in Betrieb... 144 Abbildung 85: Datenverkehr in Terabytes über die VPN-Server im Referenzmonat November... 147 Abbildung 86: Anzahl der maximal gleichzeitig an den VPN-Servern angemeldeten Nutzer... 147 Abbildung 87: Monatliches Datenvolumen der VPN-Server in Gigabyte im Jahr 2014... 148 Abbildung 88: Wasseranschlüsse für die Racks des SuperMUC Phase 2... 159 Abbildung 89: Entwicklung des Dienstreiseaufkommens 2000-2014... 161

x Inhaltsverzeichnis Tabellenverzeichnis Tabelle 1: Durchschnittliche eingehende und ausgehende Datenübertragungsrate der letzten 12 Monate... 49 Tabelle 2: Angenommene und abgewiesene E-Mails... 53 Tabelle 3: Nutzung des Relaydienstes... 53 Tabelle 4: Nutzung des Mailhostings... 54 Tabelle 5: Nutzung der POP/IMAP-Server... 54 Tabelle 6: Nutzung des Weiterleitungs-Service... 55 Tabelle 7: Nutzung von E-Mail-Verteilerlisten... 55 Tabelle 8: Nutzung des Exchange-Dienstes in 2014... 56 Tabelle 9: Clients im MWN-ADS... 58 Tabelle 10: Vergabe von Kennungen für LRZ-Plattformen... 60 Tabelle 11: Vergabe von Kennungen an Studierende... 61 Tabelle 12: vom Team Bibliotheksdienste verwaltete Systeme... 68 Tabelle 13: SuperMUC-Installationsphasen... 76 Tabelle 14: Verteilung der Rechenzeit nach Fachgebiet... 81 Tabelle 15: Anzahl Nutzer und Projekte... 84 Tabelle 16: Auslastung und Rechenzeitabgabe in den Jahren 2013 und 2014... 84 Tabelle 17: Verteilung der Rechenzeit nach Institutionen in den Jahren 2013 und 2014... 85 Tabelle 18: Statistik für 2014... 96 Tabelle 19: Anzahl der im MWN eingesetzten Switches... 115 Tabelle 20: Wesentliche Netzänderungen 2014... 117 Tabelle 21: Die Ende 2014 an das MWN angeschlossenen Wohnheime... 120 Tabelle 22: Übersicht über die wichtigsten Domains im MWN... 125 Tabelle 23: Nutzung der Server Load Balancer (SLB)... 130 Tabelle 24: Anzahl der IPv6-Endgeräte 2010-2014... 131 Tabelle 25: WDM-Verbindungen... 131 Tabelle 26: Prozentuale Verteilung des Datenverkehrs am WiN Zugang... 139 Tabelle 27: Datenverkehr in Terabytes über die VPN-Server im Referenzmonat November... 147 Tabelle 28: Kurse zu PC-Software 2014... 149 Tabelle 29: Kurse zum Hochleistungsrechnen 2014... 150 Tabelle 30: Führungen durch das LRZ und Vorführungen am V2C... 150 Tabelle 31: Weitere Veranstaltungen in den Räumen des LRZ... 150 Tabelle 32: Die umsatzstärksten Softwarepakete... 156 Tabelle 33: Tabellarische Personal-Übersicht... 161 Tabelle 34: E-Mail und Exchange... 162 Tabelle 35: Poster und Schriften... 162 Tabelle 36: Benutzerverwaltung und Shibboleth... 162 Tabelle 37: Höchstleistungsrechner SuperMUC... 163 Tabelle 38: Hochleistungs-Linux-Systeme (ohne SuperMUC)... 164 Tabelle 39: Hochleistungs-Graphik-System... 166

Jahresbericht 2014 des Leibniz-Rechenzentrums xi Tabelle 40: Bruttokapazitäten Online-Speicher (NAS + SAN)... 167 Tabelle 41: Kapazitäten der Nearline-Speicher... 168 Tabelle 42: Das MWN in Zahlen... 169 Tabelle 43: Netzkomponenten im MWN: Router... 170 Tabelle 44: Netzkomponenten im MWN: Switches... 171 Tabelle 45: Netzkomponenten im MWN: WLAN-Komponenten... 172 Tabelle 46: Netzkomponenten: Server... 173

xii Inhaltsverzeichnis

Jahresbericht 2014 des Leibniz-Rechenzentrums 1 Vorwort 2014 war für das Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften ein Jahr der Neuerungen und der Konsolidierung zugleich. Mit den Staatlichen Museen und Archiven wurden neue Kunden im Münchner Wissenschaftsnetz gewonnen, andererseits wurden viele existierende Dienste weiter ausgebaut und effektiviert. Spektakuläre Ergebnisse konnten im dritten Betriebsjahr des SuperMUC erzielt werden: Die Berechnung des Stammbaums des Lebens der Käfer schaffte es auf das Titelblatt des renommierten Journals Science im November, für die Erdmantelsimulation SeisSol gab es Preise (PRACE Award 2014, Georg Michael Memorial Award, Gordon Bell Finalist), und mehr als zehn unterschiedliche Anwendungen konnten die volle Parallelität des Rechners mit ca. 150.000 Rechenkernen nutzen! Die wichtigsten Ereignisse des Jahres finden Sie in Kapitel 1 zusammengefasst. Das LRZ partizipiert weiter an der rasanten Entwicklung der IT-Technik und treibt diese selbst in zahlreichen Eigenentwicklungen voran. Besonders zu nennen sind hier alle Anstrengungen, die gesamte Rechnerinfrastruktur extrem energieeffizient zu betreiben, wobei modernste Kühlungsinfrastruktur und Rechnertechnik mit neu entwickelten Methoden und Werkzeugen kombiniert werden. Alle Anstrengungen des LRZ sind nur möglich durch den hochmotivierten Einsatz aller Mitarbeiterinnen und Mitarbeiter des LRZ, denen ich für ihr Engagement ausdrücklich danke. Belohnt werden wir alle durch das ungebrochene Publikumsinteresse an der Arbeit des LRZ, von der Presse bis hin zu dem stets überfüllten Tag der offenen Tür. Auch international ist das LRZ anerkannt, das liegt nicht zuletzt an der großzügigen finanziellen Förderung der Arbeit des LRZ durch alle Förderer, speziell durch die Bayerische Staatsregierung und das Bayerische Staatsministerium für Bildung und Kultus, Wissenschaft und Kunst, dem wir zu großem Dank verpflichtet sind. Mein besonderer Dank gilt unserer Mutterorganisation, der Bayerischen Akademie der Wissenschaften, den Mitgliedern der Kommission für Informatik und des Lenkungsausschusses, die das LRZ stets fachkundig gestützt haben. Persönlich danke ich vor allem den Mitgliedern des Direktoriums, den Kollegen Hans- Joachim Bungartz, Heinz-Gerd Hegering und Dieter Kranzlmüller sowie meinem Stellvertreter Victor Apostolescu. Die wichtigsten Partner des LRZ sind seine Kunden in der Wissenschaft, mit denen uns ein vertrauensvolles Verhältnis verbindet. Ich danke für die konstruktive Zusammenarbeit in 2014 und freue mich auf neue Vorhaben in 2015. Univ-Prof. Dr. Arndt Bode Vorsitzender des Direktoriums des Leibniz-Rechenzentrums

2 Highlights - Die wichtigsten Ereignisse am LRZ 2014 1 Highlights - Die wichtigsten Ereignisse am LRZ 2014 1.1 Einführung des neuen LRZ-Logos und Corporate Designs Am Beginn des neuen Jahres führte das LRZ sein neues Logo und Corporate Design ein, das im Laufe des Jahres überall das bisherige Logo ersetzte und dem LRZ nun durchgängig vom Briefkopf bis zur Internet-Präsenz ein zeitgemäßes Image verleiht. 1.2 Eduroam im WLAN der SWM Abbildung 1: Das neue Logo des LRZ Die Stadt München betreibt seit 2013 in Kooperation mit den Stadtwerken München ein offenes City-WLAN (M-WLAN). Anfang 2014 wurde in einer engen Kooperation zwischen den Stadtwerken, dem LRZ und dem DFN Verein eduroam auf den städtischen Access Points freigeschaltet und in Betrieb genommen. Die Stadt München und ihre Stadtwerke München (SWM) unterstützen damit die Initiative eduroam off campus. Innerhalb des eduroam-netzes authentisieren sich die Nutzer mit der Kennung ihrer heimatlichen Einrichtung. Das heißt in allen Organisationen, überall in Europa und dem Rest der Welt, die eduroam unterstützen, ist der Zugang absolut identisch. Für einheimische und auswärtige Wissenschaftler und Studierende ist die Nutzung denkbar einfach: Einmal im heimischen Netz eingerichtet wählt sich das eigene Gerät, Laptop, Tablet-PC, Smartphone, automatisch im auswärtigen Netz ein, sobald ihm irgendwo der Zugang zum eduroam-netz angeboten wird. Mit der Unterstüzung von eduroam off campus möchte die Stadt München die Studierenden und Wissenschaftler unterstützen und die Campus-Bereiche der Universitäten und Hochschulen in die Innenstadt hinein ausdehnen. Gestartet wurde mit den Access Points am Marienplatz, dem Odeonsplatz, dem Sendlinger Tor sowie dem Stachus. Mitte des Jahres wurden über diese Access Points bereits mehr als 50.000 eduroam Nutzer in zwei Monaten registriert. Derzeit werden zehn weitere Standorte mit M-WLAN und damit eduroam erschlossen. Das LRZ pflegt eine Karte (http://www.lrz.de/services/netz/mobil/mobil_ap/map/, s.a. Abschnitt 11.11.3) mit den Zugangspunkten zum WLAN des MWN, auf der nun auch verzeichnet ist, wo die Stadtwerke München den eduroam-zugang bieten, wie z.b. am Marienplatz.

Jahresbericht 2014 des Leibniz-Rechenzentrums 3 Abbildung 2: eduroam-wlan-standorte am Marienplatz, die von den Stadtwerken München betrieben werden 1.3 Anbindung der Staatlichen Museen und Archive an das MWN Die staatlichen Museen Bayerns arbeiten seit mehreren Jahren daran, ihre IT-Infrastruktur zu vereinheitlichen, zu modernisieren und spezifische Dienste zu zentralisieren. Die Voraussetzung dafür ist eine angemessene Netzanbindung, die durch eine Mitnutzung des MWN und anderen Diensten des LRZ erfolgen soll. 2014 wurden das Neue Museum in Nürnberg, das Bayerische Armeemuseum in Ingolstadt und das Deutsche Theatermuseum in München an das MWN angebunden. 1.4 SuperMUC Status and Results Workshop, User Forum und Berichtsband Während der ersten zwei Betriebsjahre konnten mit SuperMUC, dem Höchstleistungsrechner am LRZ, bereits sehr beeindruckende Ergebnisse erzielt werden. Mehr als einhundert Projekte reichten Berichte für den SuperMUC Berichtsband ein, der im Juni zur International Supercomputing Conference ISC 14 in Leipzig veröffentlicht wurde. Das LRZ informierte seine Benutzer im Rahmen eines Status and Results Workshops auch über die Pläne für SuperMUC Phase 2, durch die die Rechenleistung von SuperMUC nochmals verdoppelt wird. Außerdem wurden die neue Insel Super- MIC mit Intel Xeon Phi Beschleunigerkarten sowie das neue Remote-Visualisierungscluster vorgestellt.

4 Highlights - Die wichtigsten Ereignisse am LRZ 2014 1.5 PRACE ISC Award: 1,4 Petaflops mit SeisSol auf SuperMUC Bei der Eröffnung der International Supercomputing Conference (ISC 14) in Leipzig wurde die Arbeit Sustained Petascale Performance of Seismic Simulations with SeisSol on SuperMUC mit dem PRACE ISC Award der Partnership for Advanced Computing in Europe (PRACE) ausgezeichnet. Den Autoren der TU und LMU München gelang es erstmals, unterstützt durch die Experten des LRZ, über einen längeren Zeitraum eine Rechenleistung von 1,4 Petaflops auf dem SuperMUC zu erzielen. Diese Arbeit wurde außerdem für den Gordon Bell-Preis vorgeschlagen. Ferner erhielt Alexander Breuer aus der Arbeitsgruppe von Prof. Bader den George Michael Memorial Award für die Arbeiten an SeisSol. 1.6 Science Veröffentlichung über genetische Algorithmen Wissenschaftlern des internationalen 1KITE-Projektes (1.000 Insect Transcriptome Evolution) ist es mit einer bisher unerreichten Datenmenge von 1.478 Genen, der Entwicklung völlig neuer Analyseverfahren und der Verwendung von Höchstleistungsrechnern wie dem SuperMUC gelungen, den Stammbaum der Insekten aufzuklären. Mit der Veröffentlichung dieser Arbeit auf der Titelseite der Fachzeitschrift Science (November 2014) werden die Grundlagen für ein besseres Verständnis der Evolution dieser Tiergruppe gelegt. Dieses Wissen ist deshalb von so großer Bedeutung, weil unsere terrestrischen Lebensräume sowohl in kultureller als auch in kommerzieller Hinsicht entscheidend von Insekten geprägt werden. Die Ergebnisse werden dazu beitragen, ganz neue und auch effizientere Wege bei der Nutzung biologischer Ressourcen, in der Landwirtschaft oder in der Schädlingsbekämpfung zu beschreiten (http://www.sciencemag.org/content/346/6210/763). 1.7 Zweiter Extreme Scaling Workshop Im Juni 2014 fand der zweite Extreme Scaling Workshop am LRZ statt, in dem ausgewählte Benutzergruppen die Skalierung ihrer Applikationen bis zur vollen Systemgröße des SuperMUC testen konnten. Hierbei erreichten drei Applikationen eine Skalierung bis zu achtzehn Inseln (147.456 Cores), fünf Applikationen konnten bis sechzehn Inseln skaliert werden und zwei bis zwölf bzw. acht Inseln. Die Ergebnisse des Workshops wurden in einem speziellen Teil der Herbstausgabe des GCS Magazins "InSiDe" dargestellt. 1.8 Vorbereitungen für die Phase 2 des SuperMUC Der 2013 auf Wasserkühlung ertüchtigte Höchstleistungsrechner-Bereich im Obergeschoss des Rechnergebäudes wurde für die Phase 2 des SuperMUC vorbereitet. Seit dem Jahresende 2014 wird dort die neue Hardware installiert. Auch die Elektroversorgung wurde verändert, um der neuen Hardware eine getrennte Versorgungsumgebung bieten zu können. 1.9 Einsparungen beim Energieverbrauch von HPC Systemen Aus einer Forschungskooperation zwischen LRZ und IBM hervorgegangen, arbeitet der SuperMUC als erstes System weltweit im Produktiveinsatz mit einer Energie-bewussten Systemmanagement-Software. Diese analysiert die Anwendungen einzelner Benutzer und passt die Leistung der Prozessoren über die Taktfrequenz so an, dass der Energieverbrauch ohne merkliche Abstriche der Anwendungsperformance verringert wird. In Zukunft sollen alle HPC-Systeme des LRZ mit energie-bewussten Managementsystemen betrieben werden, wozu auch gehört, dass Rechen-Knoten vollautomatisch je nach Bedarf ab- und wieder angeschaltet werden; für das Linux Cluster am LRZ konnte eine Implementierung des letzteren Konzeptes im Laufe des Jahres 2014 in Betrieb genommen werden. 1.10 Überwachungssoftware Persyst Innerhalb des vom BMBF geförderten Projektes "Flexibles Framework zur Energie- und Performanceanalyse hochparalleler Applikationen im Rechenzentrum konnte die skalierbare Überwachungssoftware Persyst zur systematischen Effizienzanalyse von Applikationen fertiggestellt werden. Hierbei werden auch die Energieverbräuche der Applikationen erfasst, und es ist möglich, die vom Prozessor und Memory benötigten Energien von den restlichen Energieströmen in das IT-Equipment zu trennen. Damit steht nun dem LRZ eine Infrastruktur zur Überwachung der beiden wichtigsten Betriebsparameter Applikationsperformance und Energieeffizienz zur Verfügung.

Jahresbericht 2014 des Leibniz-Rechenzentrums 5 1.11 Power Data Aggregation Monitor (PowerDAM) PowerDAM ist ein am LRZ entwickeltes Softwarewerkzeug, um wichtige Sensorwerte von Rechenzentrumsinfrastrukturkomponenten und IT-Systemen einzusammeln, in einer zentralen Datenbank abzulegen und auszuwerten. Das Tool ermöglicht somit einerseits die Bestimmung und Anzeige der aktuellen Energieeffizienz eines Rechenzentrums. Andererseits erlaubt PowerDAM eine weitere Optimierung der Energieeffizienz wichtiger Komponenten in der Elektro- und Kühlinfrastruktur anhand von zeitlichen Verlaufsdarstellungen der abgespeicherten Messwerte und deren Korrelation mit Parametern wie beispielsweise Außentemperatur und -feuchte sowie IT-Leistungsaufnahme bzw. zu kühlende Wärmelast. 1.12 Webfrontend für Remote Visualisierung Über ein vom LRZ erstelltes Webfrontend ist Nutzern ab sofort ein unkomplizierter Zugriff auf den LRZ- Remote Visualisierungsdienst möglich: https://rvs.lrz.de/ 1.13 Erneuerung der VMware- und Linux-Cluster-Infrastruktur Die VMware-Virtualisierungsinfrastruktur des LRZ wurde 2014 grundlegend erneuert: mit insgesamt 94 neuen Blade-Systemen und insgesamt 1.880 Kernen, 24 TB RAM und 500 TB Hintergrundspeicher verfügt das LRZ über eine sehr leistungsfähige Plattform. Durch eine neue, direkte Anbindung an das LRZ-Backbone mit 320 Gbit/s können selbst anspruchsvollste Anwendungen ausgeführt werden. Die Migration erfolgte im November 2014 unterbrechungsfrei im laufenden Betrieb. 2014 stellte das LRZ einen Großgeräte-Antrag auf Ersetzung technologisch veralteter Segmente des Linux- Clusters, mit dem auch eine Erhöhung der Energieeffizienz durch Warmwasserkühlung sowie der Sekundärnutzung der Abwärme durch Bereitstellung von Kühlinfrastruktur auf Basis von Adsorptionskühlung erreicht werden soll. Der erste Teil des Antrages (landesfinanziertes Großgerät nach Art. 143c GG) wurde bereits genehmigt und mit der Installation auf Basis von gleicher Technologie wie bei SuperMUC Phase 2 wurde schon begonnen. 1.14 Erhöhung der Redundanz im Münchner Wissenschaftsnetz In den letzten Jahren wurden Standorte mit vielen Nutzern redundant, d.h. mit mehreren Leitungen ans MWN angeschlossen, um damit die Sicherheit gegenüber Komponenten- oder Faserausfällen zu erhöhen. In Jahr 2014 konnte die redundante Anbindung der Hochschule München in Betrieb genommen werden. Damit sind Ende 2014 die LMU und die TU München in der Innenstadt, die Hochschule München sowie die Standorte Großhadern, der Campus Garching sowie der Campus Weihenstephan redundant angebunden. 1.15 Starkes Wachstum bei Exchange am LRZ Beim Exchange-Dienst war auch in 2014 wieder ein starkes Wachstum zu verzeichnen. Im Zeitraum November 2013 bis November 2014 stieg die Nutzerzahl um ca. 10.000 auf 40.000 (+33 %) und der durch die Postfächer belegte Speicherplatz um ca. 4,5 auf knapp 11 TByte (+75 %). Abbildung 3 zeigt die Entwicklung seit Mitte 2011. 2014 führte das LRZ die Migration von Exchange 2010 auf die aktuelle Version Exchange 2013 durch, bei der alle Postfächer in die neue Umgebung verschoben werden mussten Die Hochschule München wurde 2014 an den Exchange-Produktionsbetrieb des LRZ angebunden. Dazu wurden zuvor einige zusätzlich benötigte Eigenschaften implementiert wie spezielle Sichtbarkeitsregeln für Adressbücher.

6 Highlights - Die wichtigsten Ereignisse am LRZ 2014 50000 45000 40000 35000 30000 25000 20000 15000 10000 5000 0 Exchange-Nutzung 2011 bis 2014 15 14 13 12 11 10 9 8 7 6 5 4 3 2 1 0 Anzahl Postfächer Speicherplatz [TByte] Abbildung 3: Anstieg der Exchange-Nutzung im MWN 1.16 Desktop-Management TUM-PC Im Jahr 2014 stieg die Anzahl der vom LRZ betreuten Microsoft Windows-Systeme auf rund 1.200 an, davon werden rund 240 Systeme in mehreren Pools für externe Kunden kostenpflichtig betreut. Im MWN- ADS sind zum Ende des Jahres 2014 über 9.500 Systeme direkt angebunden. Die Anzahl der Kennungen im MWN-ADS beträgt rund 132.000. In Kooperation mit der TU München wurde das Projekt TUM-PC in die Produktion überführt. Ziel des Projektes ist es, den Teiladministratoren der TUM die Möglichkeit zu geben, ohne großen Aufwand Windows- Rechner zu installieren und die installierten Softwarepakete automatisch zentral pflegen zu lassen. Hierbei sorgt das LRZ für die Bereitstellung des notwendigen Softwareverteilungssystems und die Pflege der Softwarepakete. Zum Jahresende waren rund 1.000 Rechner der TUM in das System eingebunden, die von über 64 Einrichtungen an der TUM genutzt werden. Abbildung 4: Anstieg der Anzahl verwalteter TUM-PCs in 2014 1.17 Security Incident and Event Management System Für das LRZ-CSIRT, also das Computer Security Incident Response Team, das sich am LRZ um IT-Sicherheitsvorfälle kümmert, wurde in diesem Jahr ein neues, web-basiertes Security Incident Management System, das im Rahmen einer studentischen Abschlussarbeit konzipiert und implementiert wurde, in Be-