27.09.2018 Michael Wockenfuß, Energieeffizienz im Rechenzentrum von morgen Beispiele aus der Praxis
Inhalt Vorstellung M. Wockenfuß und das Team Datacenter Services Rechenzentrum Grasweg Der PUE des Rechenzentrum Grasweg Energieffizienz durch eine Lüfterdrehzahlregelung Energieffizienz durch neue zentrale Kältetechnik Technischer Stand 2018 Wo bei der IT-Hardware Energiepotentiale liegen Unsere Zusammenarbeit mit der IFB 2
Michael Wockenfuß, Teamleiter Datacenter Services 47 Jahre 10 Jahre bei der Teamleiter Datacenter Services verantwortliche Elektrofachkraft (VEFK) Ausbilder für Elektroniker/-in für Gebäude- und Infrastruktursysteme Industriemeister E-Technik & Technischer Betriebswirt IHK QSC Rechenzentren in Hamburg QSC Rechenzentrumsflächen in Frankfurt dezentral installierte Hardware, wie z. B. USV oder Videokomponenten Fachqualifikationen im Team: Betriebselektroniker Kommunikationselektroniker IT-Systemkaufmann 3
Zuständigkeiten des Teams Datacenter Services X86-HARDWARE Steuerung der kalten HW wie z. B. Auswahl, Beschaffung, den Einbau und vollständige Bereitstellung für die weiteren Applikationsbereiche ENERGIEVERSORGUNG UND VERTEILUNG von der MSHV-Einspeisung über die Trafos, den NSHVen, USVen, Dieselaggregate bis hin zur gleichmäßigen Auslastung aller Phasen innerhalb Rechenzentrumsflächen KLIMATISIERUNG von der zentralen Kältetechnik bis zu den drehzahlgeregelten Umluftkühlgeräten der Rechenzentrumsflächen BRANDSCHUTZ Brandmeldeanlagen Automatische Löschanlagen, in der Regel mit N² (Stickstoff) SICHERHEITSTECHNIK Zutrittskontrolle, Zutrittssysteme, Videoanlage, Einbruchmeldeanlage 4
Vorstellung des Rechenzentrums QSC Grasweg Anbau Planung und Bau 2004/5 Inbetriebnahme 2006 ohne Zertifizierungen Unterirdisch über 2 Etagen, in 6m und 12 m Tiefe 9 Rechenzentren/Brandabschnitte 2865m² netto Rechenzentrumsfläche maximale Bereitstellung von 1000 Watt je m² 4500m² brutto Fläche Reine Umluftkühlung, minimale Frischluftzuführung ca. 20 GWh Jahresverbrauch entspricht 55.000 kwh täglich Bezug von Mischstrom (Kohle, Atomkraft, ) 5
Technischer Stand 2011 - PUE 1,7-1,8 Zentrale Kältetechnik, handelsübliche Verdichtertechnik mit hohen Stromverbräuchen technische Lösungen für geregelte Temperaturen, wie zum Beispiel geregelte Lüfterdrehzahlen sind am Markt erst ca. 2010/11 eingeführt worden keine Kaltgangeinhausungen Keine zielgerichtete Luftführung in den Racks, Stichwort Racksockel, Blenden Netzwerkhardware führte die warme Luft generell in den zukünftigen Kaltgang keine flächendeckende Erfassung der Energieverbräuche im Bereich Infrastruktur 6
Der PUE, power-usage-effictiveness PUE 2.0 Standard Rechenzentrum PUE 2018 ohne Adiabatik 38 PUE 1.1 sehr effizient 10 100 100 100 100 In der Praxis werden Werte mit 1,2 als sehr effizient beurteilt. Das bedeutet, 20 Prozent der eingesetzten Energie wird ineffizient bzw. für die Infrastruktur genutzt. PUE 1.5 PUE 2.5 PUE 3.0 effizient uneffizient sehr uneffizient 7
Energieffizienz durch eine Lüfterdrehzahlregelung Alter Zustand: 4 ULKs im Redundanzbetrieb n+1 fest bei 75% Drehzahl keine Kaltgangeinhausung unkoordinierte HW-Einbauten bis zu 32 C Saugtemperatur für Server an den höchsten Höheneinheiten monatlicher Verbrauch, ca. 15 MWh (nur die ULKs) Neuer IST-Zustand: 4 ULKs weiterhin im Redundanzbetrieb Drehzahlregelung, Kaltgangeinhausung Keine motorisch angetriebenen Türen Maximal 26 C Saugtemperatur für Server an den höchsten Höheneinheiten 9 MWh Monatsverbrauch nur durch die Einhausung 5 MWh Monatsverbrauch endgültig Einsparung jährlich: 63t CO² 8
lüfterdrehzahlgeregelte Kaltgangeinhausung Entscheidungsdiagramm/Leistungsverlauf von ULKs mit Redundanzbetrieb 9
Energieffizienz durch neue zentrale Kältetechnik Stand 2012: Stromwerte von bis zu 780A einer Phase an einer Kaltwassermaschine bei 30 C Außentemperatur mit zugeschalteter adiabatischer Kühlung. Daraus resultierend ergab sich für die Gesamtkälte ein Stromverbrauch von bis zu 2100A Stand 2018: Stromwerte der neuen Kältemaschinen bei 30 C Außentemperatur inklusive einer Schallschutzherausforderung für die Gesamtkälte ergibt sich ein neuer Gesamtstromverbrauch von bis zu 800A je Phase. Hieraus ergibt sich eine Einsparung von bis zu 1,8GWh, welches 948,6 Tonnen CO² entspricht! 10
Technischer Stand 2018 RZ Grasweg Konsequente Kaltgangeinhausung Konsequente Lüfterumkehrfunktion bei Netzwerkhardware Effizienzmassnahmen im Bereich der zentralen Kälteerzeugung Austausch alter USV-Systeme Austausch alter Storagesysteme Weitere erreichte Ziele: TÜV-IT TSI Level 3 erweitert ISO 27001 VDS-Brandschutzprüfung ISO 9001 Bezug von 100% zertifizierten Okö-Strom 11
Wo bei der IT-Hardware Energiepotentiale liegen! Die eigesetzte Leistung möglichst reduzieren durch: Den Einsatz neuer und moderner IT-Hardware, insbesondere im Server sowie im Speicher/Storagebereich CPUs mit Niedrigenergieverbrauch, dauerhafte Einsparung je CPU um ca. 10 Watt Bewusst effiziente Lüfter auswählen, aus wirtschaftliche Gründen werden heutzutage noch immer Standardlüfter eingebaut bewusst Netzteile mit extrem hohen Wirkungsgrad auswählen Im Rahmen der Virtualisierung mehrere virtuelle Maschinen auf die Bestandshardware aufteilen 12
Unsere Zusammenarbeit mit der IFB Abgeschlossene Projekte: USV Austausch Einhausung der RZ-Flächen (Projekt Eisbär ) Drehzahlregelung der ULKs Austausch zentraler Klimatechnik (Projekt GRüN ) Anstehende Projekte zur Energieeffizienz: Ablösung von 13 Jahren alten Bestands-USVen Austausch eines zentralen Kaltwassersatzes Austausch von Umluftkühlgeräten (Retrofit) Umstellung Beleuchtung auf LED 13
Vielen Dank! Michael Wockenfuß Teamleiter Datacenter Services T +49 40 27136-8426 M +49 1520 91 99 277 michael.wockenfuss@qsc.de www.qsc.de 14
Mathias-Brüggen-Str. 55 50829 Köln