Konzeptstudie zur Energie- und Ressourcenezienz im Betrieb von Rechenzentren

Größe: px
Ab Seite anzeigen:

Download "Konzeptstudie zur Energie- und Ressourcenezienz im Betrieb von Rechenzentren"

Transkript

1 Technische Universität Berlin Konzeptstudie zur Energie- und Ressourcenezienz im Betrieb von Rechenzentren Studie zur Erfassung und Bewertung von innovativen Konzepten im Bereich der Anlagen-, Gebäude- und Systemtechnik bei Rechenzentren Technische Universität Berlin Innovationszentrum Energie (IZE) Endbericht Februar - Dezember 2008

2

3 Inhaltsverzeichnis 1 Kurzdarstellung 1 2 Projektvorstellung Motivation und Zielstellung Arbeitsprogramm Beteiligte Institutionen der TU-Berlin Innovationszentrum Energie Fachgebiet Energieverfahrenstechnik und Umwandlungstechniken regenerativer Energien Fachgebiet für Energiesysteme Fachgebiet für Maschinen- und Anlagentechnik Anforderungen und Rahmenbedingungen Denition von Rechenzentren über den Fähigkeitsansatz Kategorisierung von Rechenzentren Kennwerte zum Vergleich von Rechenzentren Power Usage Eectiveness (PUE) Energy Usage Eectiveness (EUE) SPEC Benchmarking Hemnisse bei der Anwendung von Kennwerten Systemgrenzen Stromversorgung von Rechenzentren Aufbau der elektrischen Energieversorgung Unterbrechungsfreie Stromversorgung (USV) Redundanz versus Auslastung Ausschlusskriterien für die praktische Umsetzung Sicherheit Gebäude Technik Standort

4 II Inhaltsverzeichnis 4 Gebäude- und Klimatechnik von Rechenzentren Gebäudetechnik von Rechenzentren Architektonische und gebäudetechnische Einussfaktoren Innovative architaktonische und gebäudetechnische Lösungsansätze Klima- und Kältetechnik Wärmetransport aus einem Rechenzentrum Luft- und Temperaturverteilung im Serverraum Wärmeaufnahme im Serverraum durch Umluftklimaschränke Wärmeaufnahme durch Kältemaschinen Innovative Techniken der Kälteerzeugung Wasser in Kälteanlagen mit mechanischen Verdichtern Wasser in Kälteanlagen mit thermischen Verdichtern Kraft-Wärme-Kälte Kopplung (KWKK) Freie Kühlung Abwärmenutzung Trends, Potentiale, Optionen der deutschen Rechenzentrumsbranche Der Fragebogen Energie und Ressourcenezienz im Betrieb von Rechenzentren Auswertung des Fragebogens IT-Struktur und Gröÿe der Rechenzentren Struktur der Stromversorgung und Bezugspreise Freie Kühlung Temperatur im Serverraum Beurteilung der Energieezienz: Energy Usage Eectiveness (EUE) Schlussfolgerungen aus dem Fragebogen Anzahl und Gröÿenstruktur der Rechenzentren in Deutschland Strombedarf der Rechenzentren in Deutschland (1998 bis 2008) Methodische Ansätze zur Strombedarfsmodellierung von Rechenzentren Methodik der Daten zur Strombedarfsmodellierung deutscher Rechenzentren Strombedarf der IT: Server, Netzwerk und Speicher Allokation des Serverbestands auf Rechenzentren und der Energy Usage Eectiveness Monte Carlo Analyse Strombedarf der Rechenzentren in Deutschland Schlussfolgerungen der Strombedarfsanalyse

5 Inhaltsverzeichnis III 6 Analysen und Szenarien der Fallstudien Rechenzentrum RZ Aufbau elektrische Energieversorgung RZ Klimatisierung RZ Kategorisierung RZ Schnell realisierbare Einsparpotentiale RZ Innovatives Kühlkonzept RZ Rechenzentrum RZ Aufbau elektrische Energieversorgung RZ Klimatisierung RZ Kategorisierung RZ Energetische Performance RZ Gesamtenergieezienz RZ Schnell realisierbare Einsparpotentiale RZ Innovatives Kühlkonzept RZ Innovatives Kühlkonzept RZ2 - Einbindung Nasskühlturm Rechenzentrum RZ Aufbau elektrische Energieversorgung RZ Klimatisierung RZ Kategorisierung RZ Schnell realisierbare Einsparpotentiale RZ Umfassendes Energiekonzept RZ Maÿnahmen zur Erhöhung der Energieezienz und Handlungsempfehlungen Optimierungen im organisatorischen Bereich Einfach umsetzbare technische Einsparmaÿnahmen Handlungsempfehlungen und Vorausetzungen zur Umsetzung Projektergebnisse Zusammenfassung der Ergebnisse Regionaler Kompetenzgewinn Netzwerkbildende Aktivitäten für die Region Verwertungspotential A Fragebogen zur Energie- und Ressoucenezienz im Betrieb von Rechenzentren 143 Literaturreferenzen 153

6 Abbildungsverzeichnis 1.1 Verteilung des Serverbestands in Deutschland und Berlin-Brandenburg nach Branchen (Eigene Berechnungen auf der Basis von [TechConsult, 2008a], [IFM, 2008], [Destatis, 2007]) Struktur des IZE Absorptionskälteanlage Der PUE eines Rechenzentrums im Jahresverlauf 2007 (Quelle: eigene Erhebungen) Systemgrenzen Rechenzentrum Elektrische Energieversorgung, Beispiel Wirkungsgradkennlinien in Abhängigkeit von der Auslastung für verschiedene USV-Techniken, Daten aus [LBNL, 2008] USV Auslastung in Abhängigkeit des Redundanzkonzeptes für N, N+1 und 2N, bei 75% IT Auslastung Unterschiedliche Anforderungen an die Klimatisierung, Quelle: ILK Dresden Temperaturniveaus der Klimatechnik von Rechenzentren Kaltgang- vs. Warmgangeinhausung, Quelle: Schro Einhausung mit Luftvorhängen, Quelle: Einuss der Kaltwassertemperatur auf den Anteil der Nutzkälte (sensible Kälte) bei Präzisionsklimageräten Kompressionskälteanlage Turbokaltwassersatz in der VW-Manufaktur in Dresden, Quelle: ILK Dresden Absorptionskälteanlage Kaltwassersatz mit integriertem Freikühlregister, Quelle: Econditioning GmbH Top 500 Supercomputer (Anwendungssegmente) Aufteilung der befragten Rechenzentren nach Branchen und Beschäftigtengröÿenklassen

7 Abbildungsverzeichnis V 5.3 Häugkeitsdichte, absolute Häugkeit und Boxplot der Anzahl Server in Rechenzentren Häugkeitsdichte, absolute Häugkeit und Boxplots der IT-Flächen in m Häugkeitsdichte und absolute Häugkeit der spezischen Leistungsaufnahme von Servern Häugkeitsdichte und absolute Häugkeit der IT-Leistungsdichte Boxplot der Jahresleistungsspitzen Geschätzte Strombezugspreise 2007 der Rechenzentren ohne MwSt Freie Kühlung Freie Kühlung in Abhängigkeit der Auÿentemperaturen Mittlere Serverraumtemperatur Einhausung Abwärmenutzung Energy Usage Eectiveness von 17 Rechenzentren Aufgliederung des weltweiten Serverbestands in 2006 nach ausgewählten Ländern und Regionen (Quellen: [Koomey, 2007b], [Schäppi et al., 2007b], [IDC, 2008]) Entwicklung des Serverbestands in Deutschland (Index 1998=1) (Quelle: [IDC, 2008]) Prozentuale Verteilung von Servern und Unternehmen in Deutschland 2007 nach Mitarbeitergröÿenklassen (Quellen: *: [IFM, 2008], [Destatis, 2007] **: [TechConsult, 2008a]) Serverbestand 2007 nach Servergröÿen Simulierte Serverbestandsentwicklung und tatsächliche Entwicklung nach ( [IDC, 2008], [TechConsult, 2008a]) : a) Volume, b) Mid- Range und c) High-End Server, d) Simulierte Überlebensfunktionen von Volume, Mid-Range und High-End Servern Entwicklung der spezischen Leistungsaufnahme von Volume, Mid-range und High-end Servern Schematische Darstellung Monte-Carlo Analyse Der Strombedarf für Rechenzentren Tornado-Diagramm Strombedarf von Rechenzentren Elektrische Energieversorgung RZ1, schematische Darstellung Klimasystem RZ1 Primärkreislauf, schematische Darstellung Zentrale Luftklimatisierung RZ1, schematische Darstellung Kühlung Rechnerraum über Doppelboden RZ1, schematische Darstellung Redundanzen der Stromversorgung RZ

8 VI Abbildungsverzeichnis 6.6 Redundanzen der Klimatisierung RZ Anteil des Rechenzentrums und der Nebennutzung am elektrischen Gesamtenergiebedarf des Gebäudes RZ Anteil des Energiebedarfs IT, Klimatisierung, Stromversorgung und Licht von RZ1, in Prozent vom Gesamtenergiebedarf des Rechenzentrums Geordnete Jahresdauerlinien spezischer Auÿenluftbedingungen zur Ermittlung der potentiellen Nutzungszeit von direkter Freien Kühlung, nach [DIN, 2003] Energieeinsparung in MWh/a bei direkter Freier Kühlung (positive Werte) in Abhängigkeit der Zulufttemperatur für verschiedene Kühllasten, auf Basis der Gebäudetechnikezienz von RZ Lastgang der bezogenen Wirkleistung der USV-Anlage (kw el ) im Jahr 2007 (Quelle: Eigene Darstellung auf Grundlage von Lastgangdaten RZ2) Aufbau Klimatisierungssystem RZ2, schematische Darstellung Pumpenkennlinie RZ Lastgang der Kompressionskälteanlage in kw el im Jahr 2007, Eigene Berechnung auf Grundlage von Lastgangdaten Redundanzkonzeption elektrische Energieversorgung RZ Redundanzkonzeption Klimatisierung RZ Prozentualer Anteil der einzelnen Systeme am Gesamtenergiebedarf ( kw h el ) im Jahr Ausrichtung der Kälteanlage, schematische Zeichnung Schematische Darstellung der Berechnung der Sonneneinstrahlung auf die Normale einer Seitenäche indirekten Freien Kühlung, schematische Darstellung Anteil der Freikühl-Kälteleistung an der Gesamtkälteleistung RZ Elektrischer Energiebedarf der Kompressionskälteanlage für RZ2 bei einer Kälteleistung von 230 kw h th in Abhängigkeit von der Auÿentemperatur Energieeinsparpotential des Freikühlmoduls RZ Energieeinsparpotential des Freikühlmoduls RZ2 über ein Jahr Energieeinsparpotential RZ2 durch Nutzung des Nasskühlturm im Verlauf eines Jahres Redundanzen der Stromversorgung RZ3 a, RZ3 b-1 und RZ3 b Aufteilung des Gesamtenergiebedarfes RZ Aufteilung der Gesamtwärmeabfuhr RZ Kühllastverlauf Ist-Zustand RZ3 (August, heiter) Aufteilung des Energiebedarfs der Infrastruktur RZ Temperaturprol im RZ3 Ist-Zustand

9 Abbildungsverzeichnis VII 6.32 Temperaturprol im RZ3 nach Optimierung der Luftführung Aufteilung der Gesamtwärmeabfuhr RZ3, Anhebung Kaltwassersatztemperaturen Neue Aufteilung des Energiebedarfs der Infrastruktur RZ3 nach Anhebung der Kaltwassertemperaturen um 1 Kelvin und Abschaltung überüssiger Umluftklimaschränke Einsparmöglichkeiten der beiden Schritte zur Ezienzsteigerung RZ

10 Tabellenverzeichnis 3.1 Klassizierung von Rechenzentrumsgröÿe nach Anzahl der Server PUE und EUE Werte von Rechenzentren in Deutschland, den Niederlanden und den USA Verteilung von Servern nach Raumtypen in Deutschland 2007, *) Quotient aus Gesamtanzahl Server je Raumtyp und der mittleren Klassenbreite der Server-Gröÿenklassen bzw. der Klassenuntergrenze für den Raumtyp Groÿrechenzentren. (Quellen: [TechConsult, 2008b], eigene Erhebung) Eingangsparameter Monte-Carlo Analyse Einsparung des Energiebedarfs der Kälteanlage von RZ1 bei höheren maximalen Auÿenlufttemperaturen zur indirekten Freien Kühlung Einsparung des Energiebedarfs der Kälteanlage von RZ1 bei höheren maximalen Auÿenlufttemperaturen zur indirekten Freien Kühlung, [ASHRAE- TC9.9, 2004], [VDI-2054, 1994], [IBM, 2006] Bedingungen der Temperatur und Luftfeuchte für die direkte Freie Kühlungmax. Raumlufttemperatur 26 C nach [Altenburger, 2004] Potentielle Energieeinsparung durch direkte Freie Kühlung bei RZ1 in kwh pro Jahr und damit vermeidbare CO 2 -Emissionen Installierte Geräte zur Rechnerraumklimatisierung RZ

11 Autorenverzeichnis Technische Universität Berlin, Institut für Energietechnik Fachgebiet Energieverfahrenstechnik und Umwandlungstechniken regenerativer Energien Behrendt, Frank, Prof. Dr. rer. nat. Schaefer, Marc, Dipl.-Ing. Belusa, Till, Dipl.-Ing. Fachgebiet Maschinen- und Energieanlagentechnik Ziegler, Felix, Prof. Dr.-Ing. Lanser, Wolfgang, Dipl.-Ing. Fachgebiet für Energiesysteme Erdmann, Georg, Prof. rer. pol. Dittmar, Lars, Dipl.-Wirtsch.-Ing. Kleschin, Simon, Dipl.-Ing. mit einem Beitrag von Kieseler, Stefan, cand. Ing. Satz und Layout Wellmann, Johannes, Dipl.-Ing.

12

13 Kurzdarstellung 1 Kapitel Rechenzentren, dass heiÿt: zentralisierte Einrichtungen zur Datenverarbeitung, -speicherung und -verbreitung sind aus modernen Informationsgesellschaften nicht mehr wegzudenken. Während in der Vergangenheit das Augenmerk primär auf einer Steigerung der Leistungsfähigkeit von Rechenzentren lag, ist mit der aktuellen Diskussion um die Klimaproblematik und vor allem mit den steigenden Energiepreisen eine Neubewertung der Prioritäten innerhalb der Rechenzentrumsbranche zu beobachten. Nicht mehr nur die pure Leistung der Server und Prozessoren steht im Mittelpunkt, sondern Energieezienz und Klimafreundlichkeit gewinnen stark an Bedeutung. In vielen Teilen eines Rechenzentrums bestehen Einsparmöglichkeiten, und es wird deutlich, dass diese in den einzelnen Bereichen nach Angaben von Herstellern und Verbänden mit bis zu 50% beträchtlich sind. Es gibt bisher jedoch wenig zuverlässige Daten in Bezug auf die Chancen und Risiken bei der praktischen Umsetzung dieser Maÿnahmen im Betrieb von Rechenzentren. Die vorliegende Konzeptstudie des IZE zur Energie- und Ressourcenezienz im Betrieb von Rechenzentren ist bisher einzigartig in der deutschen Forschungslandschaft. Die hier erarbeiteten Ergebnisse bilden die Basis für die weitere Betrachtung des Themas Energieezienz in Rechenzentren - in der Wissenschaft sowie in der Praxis. (Energie-) technische Erhebung Im Rahmen dieser Studie wurde eine detaillierte (energie-)technische Erhebung unter 31 Rechenzentren, die insgesamt eine IT-Fläche von mehr als m 2 aufweisen und über Server beherbergen, durchgeführt. Auf Grundlage dieser Datenerhebungen konnte aufgezeigt werden, dass Rechenzentren in Deutschland ezienter sind als derzeit allgemein angenommen wird. Unter anderem wurde ermittelt, dass die gemittelte Power Usage Eectiveness (PUE) der untersuchten Rechenzentren mit 1,7 deutlich unter dem Wert liegt, der häug als industrieweiter Mittelwert ausgewiesen wird (PUE=2).

14 2 Kapitel 1 Kurzdarstellung Weiterhin ergaben die Analysen, dass bisherige Studien die Anzahl der Rechenzentren und damit auch deren Strombedarf in Deutschland teils erheblich überschätzten. Nach den Analysen der vorliegenden Studie gab es im Jahr 2007 in Deutschland ca Serverräume mit 3-10 Servern und ca Rechenzentren mit mehr als 10 Servern. Zählt man auch einzelne Serverräume zu Rechenzentren, so ergibt sich eine Gesamtanzahl von ca Rechenzentren in Deutschland. Dieses Ergebnis steht im Gegensatz zu der viel kolportierten jedoch empirisch wenig fundierten Zahl von Rechenzentren in Deutschland. Das Wachstum der Energienachfrage dieses Sektors bleibt jedoch enorm. Mit durchschnittlichen jährlichen Wachstumsraten von 17% hat sich der Strombedarf für den Betrieb der Rechenzentren im Zeitraum von 1998 bis 2008 auf 8 TWh knapp verfünacht. Fallstudien Neben einer branchenweiten Analyse wurden zusätzlich detaillierte Fallstudien zu den Einsparpotenzialen anhand der Betriebsdaten von 3 Rechenzentren durchgeführt. Hier konnte durch detaillierte Analysen und Simulationen gezeigt werden wie bei einem Rechenzentrum... aus dem Bereich kommunale IT-Dienstleistung: die Nachrüstung von indirekter Freier Kühlung ca. 5% des jährlichen Gesamtenergiebedarfes des Rechenzentrums einsparen kann. oder durch den Einsatz eines Nasskühlturmes bis zu 7% des jährlichen Gesamtenergiebedarfes des Rechenzentrums eingespart werden kann. eine zusätzliche Verschattung von Fensterfronten die maximale Kühllast um fast 9 kw senken und somit die Betriebssicherheit an heiÿen Sommertagen entscheidend verbessert kann. aus dem Housing-Bereich: die maximale Kühllast zur Sommerzeit durch eine einfache Installation von Verschattungselementen an Fensterfronten ebenfalls stark reduziert werden kann. Da diese groÿächig zur Südseite ausgerichtet sind vermindert sich die maximale Kühllast im konkreten Fall sogar um 20 kw bei innenliegenden - und knapp 30 kw bei auÿenseitig angebrachten Verschattungselementen. durch Doppelbodenabdichtung und Kaltgang-Warmgang-Separierung die vorhandenen Hot-Spots eliminiert werden und sich bei gleichzeitiger Anpassung

15 3 der Umluftklimaschränke und leichter Erhöhung der Kaltwassersatztemperaturen der Gesamtenergiebedarf des Rechenzentrums um 13% reduziert lässt, was für den Betreiber jährliche Einsparungen von über EUR bedeutet. und einem Hochleistungsrechenzentrum die direkte Freie Kühlung bis zu 10% des Gesamtenergieverbrauches im Jahr einsparen kann. Die Studie des IZE erfasst zum ersten Mal die vollständige Prozesskette der Kühlung von Rechenzentren, angefangen von der Abwärme der Server bis zur Wärmeabgabe an die Umgebung. Dabei werden bei den Berechnungen des Ezienzsteigerungspotentials nicht nur die einzelnen Komponenten eines Klimatisierungssystems - wie Kälteanlagen, Freikühler, Kälteverteilung, Umluftklimageräte, Befeuchter etc. - sondern auch die Klimadaten des Standortes, die Verluste von Transformatoren und USV-Anlagen berücksichtigt, und vor allem deren wechselseitige Abhängigkeiten. Durch die enge Zusammenarbeit von Wissenschaft und Anwendern ist es gelungen in der Studie wichtige Hinweise auf die Chancen und Risiken bei der praktischen Umsetzung von konkreten Energieezienzmaÿnahmen im Betrieb bestehender Rechenzentren herauszuarbeiten. Aber auch für die Umsetzung zukunftsweisender Konzepte wie die Kraft-Wärme-Kälte- Kopplung, hier insbesondere die Kühlung von Rechenzentren über Fernwärme, bestehen oftmals schon sehr gute Voraussetzungen. Verwertungspotenzial Ein bedeutender Anteil (ca. 7%) des deutschen Serverbestandes steht in Berlin-Brandenburg. Dieser wird erwartungsgemäÿ auch durch die öentliche Verwaltung geprägt (ca. 26%, siehe Abbildung 1.1) 1. Damit hat die Region Berlin-Brandenburg mit ihrem groÿen Bereich der öentlichen Verwaltung die besten Voraussetzungen eine entscheidende Rolle für die zukünftige Position von Deutschland als Green IT-Pionier (Dritter Nationalen IT-Gipfel, ) zu übernehmen. So kann das durch die Studie gewonnene Know-How direkt in der Region Berlin-Brandenburg umgesetzt werden. 1 Ausgehend von den Daten von TechConsult 2008 bzgl. der installierten Server nach Branchen und Beschäftigtengröÿenklassen in Deutschland, wurde mittels Statistiken zur Anzahl der Unternehmen in der Region Berlin Brandenburg, dierenziert nach Branchen und Beschäftigtengröÿenklassen, die Anzahl Server für die Region berechnet.

16 4 Kapitel 1 Kurzdarstellung Abb. 1.1: Verteilung des Serverbestands in Deutschland und Berlin-Brandenburg nach Branchen (Eigene Berechnungen auf der Basis von [TechConsult, 2008a], [IFM, 2008], [Destatis, 2007]) Die vorliegenden Ergebnisse sollen somit bei einer eventuellen Masterplan-Entwicklung auch der Entscheidungsndung auf regionalpolitischer Ebene zur Schwerpunktsetzung im Kompetenzfeld Energie Anwendung nden. Im Rahmen des Projektes wurde seitens regionaler Betreiber von Rechenzentren vermehrtes Interesse für eine künftige Kühlung mit Fernwärme in Rechenzentren bekundet. Hier bieten sich sehr gute Möglichkeiten für den Technologietransfer aus den Forschungsergebnissen des IZE-Clusters Nutzung von Niedertemperaturwärme (Leitung: Prof. Dr.-Ing Felix Ziegler). Eine wichtige netzwerkbildende Aktivität für die Region liegt in der Zusammenarbeit mit Berliner KMUs. Für die konkrete Umsetzung von Ezienzmaÿnahmen in Rechenzentren wurden Berliner Unternehmen identiziert. Insbesondere im Bereich innovativer Messtechnik für das Monitoring der Energieezienz in Rechenzentren konnten hier bereits bestehende Kompetenzen ausgemacht werden.

17 Projektvorstellung 2 Kapitel 2.1 Motivation und Zielstellung Heute sind Problemfelder wie Bevölkerungswachstum, Ressourcenausbeutung und Umweltverschmutzung in ihrer Fristigkeit zwar noch umstritten. Die Auswirkungen des Ressourcenverbrauchs auf unsere Lebensgrundlagen sind aber allgemein akzeptiert. Bei aller Unsicherheit über exakte Werte steht der grundlegende Sachverhalt auÿer Frage. In Zukunft werden wir unsere Technologien auf einen ezienteren Umgang mit verfügbaren Ressourcen einstellen müssen. Nachhaltiges Handeln und Wirtschaften erfordert einen verantwortungsbewussten Umgang mit nichtregenerativen natürlichen Ressourcen. Rationelle Energieverwendung und eine Erhöhung der Ressourcenproduktivität durch verbesserte Wirkungsgrade sind die essentiellen Maÿnahmen zur Ressourcenschonung. Die umfassende Verbesserung der Energie- und Ressourcenezienz im Betrieb von Rechenzentren stellt eine wirksame Maÿnahme zur Erhöhung des Systemwirkungsgrades Rechenzentrum und damit zur Verringerung des Primärenergiebedarfes bei gleicher Leistung und somit zur Senkung der Betriebskosten dar. Die von der TU Berlin entwickelte Technologie zur Kühlung mittels Abwärme aus Blockheizkraftwerken oder Fernwärme stöÿt in vielen Bereichen auf steigendes Interesse. Die Übertragung der Technologie auf die Anwendungsgebiete in Rechenzentren birgt groÿe Potentiale, da die Laufzeiten der häug ohnehin vorhandenen Dieselmotoren (Notstromversorgung) enorm gesteigert werden können. Dem hohen Einsparpotenzial steht jedoch die traditionell fehlende Risikobereitschaft auf Grund hoher Verfügbarkeitsanforderungen der IT-Branche 1 hinsichtlich alternativer und 1 Informationstechnologien (IT)

18 6 Kapitel 2 Projektvorstellung innovativer Technologien und der starke Kostendruck gegenüber, der eine Förderung einer risikobehafteten Technologieentwicklung aus den Branchen selbst häug verhindert. Mit dieser Studie sollen die erkannten Potentiale den Entscheidungsträgern bei Herstellern und Betreibern zur Kenntnis gebracht werden, um den Einsatz von ressourcenschonenden Technologien zu beschleunigen. Im Verbund der Netzwerkpartner sollte das Verständnis für die technischen Rahmenbedingungen von Ezienzmaÿnahmen im Betrieb von Rechenzentrum wachsen. Die Möglichkeiten, das Potenzial und die Machbarkeit entsprechender Technologien wird genauso herausgestellt wie ihre Grenzen. Es konnte ein vertieftes Verständnis erarbeitet werden, was die Anwendungsgebiete Kühlung, Klimatisierung, Abwärmenutzung und Gebäudetechnik im speziellen ausmacht und welche Marktmechanismen bei der Weiterentwicklung und Vermarktung der angestrebten Technologien zu erwarten sind. Die Ergebnisse der Studie dienen im Sinn einer eventuellen Masterplan-Entwicklung somit auch der Entscheidungsndung auf regionalpolitischer Ebene zur Schwerpunktsetzung im Kompetenzfeld Energie. 2.2 Arbeitsprogramm Das Forschungsvorhaben wurde in mehrere Abschnitte aufgeteilt. Während des ersten Abschnitts wurden detaillierte Analysen in allen Teilbereichen zur Erfassung der Einussgröÿen und möglicher Ansatzpunkte für die Technologien in den Bereichen Kühlung, Klimatisierung, Abwärmenutzung und Gebäudetechnik in Bezug auf den Einsatz in Rechenzentren durchgeführt. Zeitgleich wurden drei Beispiel-Rechenzentren aus der Praxis gesucht, um die Konzepte bzw. Szenarien möglichst anwendungsnah anhand realer Daten zu gestalten. Der zweite Abschnitt diente der Entwicklung (grober) Umsetzungskonzepte für die im ersten Abschnitt bestimmten Technologien in den einzelnen Bereichen von Rechenzentren. Die entwickelten Konzepte wurden im dritten Abschnitt verfeinert und zu Szenarien ausgearbeitet. Diese Szenarien wurden detailliert bewertet. In der verbleibenden vierten Phase erfolgte die Spezikation von Anforderungen an die Technologie sowie die Dokumentation der Ergebnisse in einem gemeinsamen Abschlussbericht. Die Szenarien wurden anhand der drei Beispiel-Rechenzentren zur praktischen Umsetzung aufbereitet. Die Ergebnisse des Vorhabens werden in einem gemeinsamen Abschlusskolloquium am Ende der Projektlaufzeit öentlich präsentiert sowie in Form des Abschlussberichts veröentlicht.

19 2.3 Beteiligte Institutionen der TU-Berlin Beteiligte Institutionen der TU-Berlin Das Forschungsvorhaben wurde vom Innovationszentrum Energie (IZE) an der TU Berlin mit den Fachgebieten Energieverfahrenstechnik und Umwandlungstechniken regenerativer Energien, Maschinen- und Energieanlagentechnik und dem Fachgebiet Energiesysteme bearbeitet Innovationszentrum Energie Die nachhaltige Versorgung mit Energie ist eine der gröÿten Herausforderungen, der sich Akteure in allen sozialen Bereichen schon heute und verstärkt in der Zukunft stellen müssen. Die TU Berlin hat dieser Problematik eine besondere Bedeutung zugeschrieben und das Thema Energie zum Zukunftsfeld der Forschung bestimmt. In Kooperation mit einem Beirat aus der Industrie wurden in den letzten zwei Jahren Schwerpunkte für die Forschung identiziert und ein organisatorischer Rahmen etabliert. Am IZE werden die Aktivitäten von über 50 Fachgebieten der TU Berlin, verteilt über alle sieben Fakultäten im Bereich Energie zentral gebündelt und zusammengeführt. Ziel ist es dauerhaft Netzwerke und Kooperationen zu etablieren, die das komplexe Themenfeld Energie nicht nur universitätsintern, sondern auch im Verbund der Hauptstadtregion Berlin-Brandenburg erforschen. In den Forschungsschwerpunkten des IZE kooperieren mehrere Fachgebiete mit Partnern aus Wissenschaft und Industrie, um ganzheitlich und systemisch die Themengebiete zu erarbeiten. Die Aktivitäten des IZE sind: Vernetzung der vorhandenen Expertise im Bereich Energie, Etablierung einer zentralen Plattform für externe und interne Kontakte, Identizierung von komplexen interdisziplinären Forschungsclustern, Verstärkte Zusammenarbeit mit Industriepartnern, Nachwuchsförderung, Stärkung und Integration der Energieforschung in der Hauptstadt-Region Berlin/ Brandenburg.

20 8 Kapitel 2 Projektvorstellung Abb. 2.1: Struktur des IZE Mit einer Struktur bestehend aus sechs Teilbereichen soll das Expertenwissen gebündelt werden. In ihrer Zusammenarbeit kann so die Wertschöpfungskette im Bereich der Energiewandlung und -nutzung umfassend abgebildet werden. Die Teilbereiche Wandlungs-, Nutzungs- und Verteilungsezienz bearbeiten hierbei die Prozesse der Bereitstellung fossiler und erneuerbarer Primärenergieträger, deren Wandlung, die Verteilung elektrischer Energie und schlieÿlich die Nutzung von Strom, Wärme und Kälte beim Endverbraucher in integrierten Systemen. So genannte Enabling Technologies wie u. a. die Verfahrenstechnik, Bio-, Informations- und Kommunikationstechnologie oder die Produktionstechnik ermöglichen die Umsetzung in den klassischen Disziplinen der Energietechnik. Ergänzt werden die Aktivitäten durch die wirtschaftliche und gesellschaftliche Systemforschung, um von vornherein ökonomische und ökologische Aspekte sowie Fragen der gesellschaftlichen Akzeptanz bei der Umsetzung neuer technischer Lösungen zu berücksichtigen. Abgerundet werden die Aktivitäten der Teilbereiche durch die Mathematik, die an der TU Berlin durch das DFG-Forschungszentrum MA- THEON prominent vertreten ist. Insbesondere im Bereich der Modellbildung sowie der numerischen Simulation und Optimierung sind Lösungen aus diesem Bereich gefragt. In den Forschungsschwerpunkten (Clustern) des IZE arbeiten die oben genannten Teilbereiche interdisziplinär zusammen. In einem Cluster nden sich jeweils eine gröÿere Anzahl verschiedener Fachgebiete zusammen, um komplexe Fragestellungen der Energieversorgung in enger Kooperation mit der Industrie zu erarbeiten. Die aktuellen Forschungsschwerpunkte sind:

21 2.3 Beteiligte Institutionen der TU-Berlin 9 Nutzung von Niedertemperaturwärme: In diesem Cluster werden Niedertemperaturquellen wie z. B. Geo- und Solarthermie sowie Industrie- und Motorabwärme genutzt, um nutzeradäquat Wärme, Kälte oder mechanische Energie zur Verfügung zu stellen. Insbesondere auf dem Gebiet der solaren Kühlung und der geothermischen Kraftwerke bestehen bereits zahlreiche Aktivitäten. Energieeziente Gebäude und Städte: Hier werden Maÿnahmen zur nachhaltigen Gestaltung von Gebäuden entwickelt und entlang der gesamten Lebenszykluskette bewertet. Inhaltliche Schwerpunkte sind zurzeit die Gebäudebestandsmodellierung zur Entwicklung eines Energiekatasters für die Optimierung von Entscheidungsprozessen, die energetische Modernisierung von Gebäuden, die Entwicklung neuer adaptiver Baustoe und -konstruktionen im Bereich der Energiespeicherung und Wärmeleitung bei niedrigem Temperaturniveau sowie die gebäudespezische intelligente Kommunikation. Dünnschicht- und Nanotechnologie für Photovoltaik: Durch eine strategische Partnerschaft der TU Berlin und dem Hahn-Meitner-Institut der Helmholtz- Gemeinschaft sowie mit führenden Unternehmen der Solarbranche bendet sich ein Kompetenzzentrum für Dünnschicht- und Nanotechnologie bereits in der Gründungsphase. Hauptaufgaben sind die Entwicklung innovativer Beschichtungsverfahren und Prozesse entlang der Wertschöpfungskette der Dünnschichtsolarmodule. Im Rahmen der Aktivitäten des IZE wird vor allem in diesem Bereich die exzellente Ausbildung des wissenschaftlichen Nachwuchses gefördert. Eziente Gasturbinen: Dieser Cluster zielt auf die Weiterentwicklung ezienter und umweltverträglicher stationärer wie mobiler Gasturbinen ab. Durch Steigerung des Wirkungsgrades sollen die CO2- und die Schadstoemissionen weiter gesenkt werden. Hierzu werden einerseits neue Hochleistungswerkstoe und Kühltechnologien untersucht, andererseits aber auch neue Kreisprozesse erprobt. Netze und funktionale Energiespeicherung: In diesem Cluster werden die Herausforderungen und Chancen durch zeitlich uktuierende Einspeiser wie z. B. Windenergie in die Stromnetze untersucht. Auch eine intelligente Regelung dezentraler Energieversorgung und innovative Energiemarktkonzepte werden in diesem Forschungsschwerpunkt erforscht. Weitere Informationen und eine Auistung aller beteiligten Fachgebiete nden Sie unter

22 10 Kapitel 2 Projektvorstellung Kontakt: Prof. Dr. Frank Behrendt, Sprecher des IZE, Dipl.- Ing. Ines Braune, Leiterin der Geschäftsstelle des IZE, TU Berlin, Fasanenstraÿe 89, Berlin Fachgebiet Energieverfahrenstechnik und Umwandlungstechniken regenerativer Energien Das Fachgebiet beschäftigt sich mit der Aufbereitung fossiler oder biogener Primärenergieträger zu Vorstufen nutzbarer Sekundärenergieträger. Der derzeitige Schwerpunkt des Fachgebiets liegt bei Untersuchungen der thermischen Umsetzung fester Brennstoe sowie der Charakterisierung, Reinigung und Aufbereitung der dabei entstehenden Produktgase. Hinzu kommen Untersuchungen zur katalytischen Konversion von Methan zu höheren Kohlenwasserstoen. Abgerundet werden diese experimentellen und numerischen Aktivitäten durch Arbeiten zu ökonomischen und ökologischen Aspekten aus verschiedenen Bereichen der Energieverfahrenstechnik. In der technischen Anwendung fester Brennstoe nden sich Reaktoren bzw. Feuerungen mit festem oder bewegtem Brennstobett wie auch Wirbelschichten. Ergänzend zu den technischen Aspekten der Energieverfahrenstechnik muss das gesamte Umfeld hierzu in die Betrachtung einbezogen werden. Neben der Wirtschaftlichkeit der Projekte müssen durch die Forderung der Nachhaltigkeit auch immer die ökologischen und sozialen Auswirkungen betrachtet werden. Ein neu am Fachgebiet eingerichteter Forschungsbereich widmet sich seit kurzem der Nachhaltigkeitsbetrachtung in der Energieversorgung. Kontakt: Technische Universität Berlin (TU Berlin), Institut für Energietechnik (IfE), Energieverfahrenstechnik und Umwandlungstechniken regenerativer Energien, Prof. Dr. Frank Behrendt, Sekretariat RDH 9, Fasanenstraÿe 89, Berlin, Tel: ,

23 Energiesysteme 2.3 Beteiligte Institutionen der TU-Berlin 11 Kompetenz Fachgebiet für Energiesysteme In den letzten Jahren entwickelte unsere Gruppe eine Datenbank zu den Energiemärkten. Unter anderem enthält sie Zeitreihen zu allen im Netz verfügbaren Daten Fachgebiet Energiesysteme über Angebots- und Nachfrage-Kurven an internationalen Strombörsen, stündliche Institut für Energiete Das Fachgebiet bzw. tägliche Energiesysteme Energiepreisnotierungen (EnSys) von nimmt Elektrizität, interdisziplinäre Aufgaben dukte, Kohle innerhalb und CO 2, des Ergebnisse Instituts der für Regel- Energietechnik und Ausgleichsenergiemärkte, Spei- Erdgas, Erdöl, Erdölpro- Fakultät III Prozess TUBerlin ten cherstände von Wasserkraftwerken und Erdgasspeichern, Temperatur- und Windprognosen, geplante gehört und realisierte EnSys zueinsätze den führenden von Kraftwerken Ex- uvm. ergie Kontakt war. Deutschlandweit perten für die Entwicklung der Energiemärkte und erforscht In Kooperation mit der Industrie verfügen wir außerdem über einen umfangreichen Prof. Dr. Georg Erdm Frage- und Bestand Problemstellungen an! h and Minuten-Lastgängen im Querschnittsbereich für einzelne Stromkunden von (Haushalte, temesekr. TA 8 Industriekunden), aus denen wir statistische Verteilungen für zeitliche Merkmale Einsteinufer 25 Energietechnik, der individuellen Wirtschaft, Elektrizitätsnachfrage Umwelt und Gesellschaft. ableiten können. Die Berlin Arbeitsschwerpunkte von EnSys liegen in der Analyse komplexer Wechselwirkungen energietechnischer Energiemarktforschungen, und institutioneller die Innovationen sich insbesondere aufmit Energiemärkte den komplexen bzw. Wechselwir- Energiesysteme. Diese laufend aktualisierte Datenquelle liefert uns die empirische Basis für unsere Tel: Die dabei kungen eingesetzten zwischen Innovationen wissenschaftlichen und Marktstrukturen Methodenbeschäftigen. reichen von Die systemanalytischenund ökonometrischen Modellen Modellen bis hin bis zu Konzepten hin zu Konzepten der ökonomischen der ökonomischen Theorie, beispiels- Theorie, bei- dabei eingesetzten wissenschaftlichen Methoden reichen von Systemanalyse- und ökonoweise Industrieökonomik, evolutorische Ökonomik oder Public Choice. spielsweise Industrieökonomik, evolutorische Ökonomik oder Public Choice. Im Mittelpunkt der Forschung von EnSys stehen weiterhin folgende Arbeitsfelder: Die meisten unserer Forschungsarbeiten lassen sich einem der Bereiche Wasserstoff und Brennstoffzellen, Energiespeicherung, Risiko-Management und Energieinnovationen zuordnen, doch haben wir auch auf anderen Feldern der Energiewirtschaft und Energiemärkte gearbeitet. Weiterentwicklung u. Einsatz vorhandener Energieprognose- u. Planungsmodelle Öl-, Gas-, Kohle-, Strom- und Fernwärmemärkte Technische und institutionelle Randbedingungen von Energiemärkten Technikfolgenabschätzung hinsichtlich innovativer Energieversorgungssysteme unter Berücksichtigung multipler Ziele Systemtechnische Methoden zur Gestaltung der Energieversorgung Energierelevante Merkmale der Endverbrauchermärkte (Wärmemärkte, Märkte für Energieezienzgeräte inkl. Contracting, Treibstomärkte)

24 12 Kapitel 2 Projektvorstellung Kontakt: Technische Universität Berlin (TU Berlin), Institut für Energietechnik, Fachgebiet Energiesysteme, Prof. Dr. rer. pol. Georg Erdmann, Sekretariat TA33, Einsteinufer 25, Berlin, Tel: +49 (0) , Fachgebiet für Maschinen- und Anlagentechnik Das Fachgebiet Maschinen- und Energieanlagentechnik (ETA) arbeitet auf zwei groÿen Anwendungsfeldern: der klassischen Kältetechnik einerseits, in der die etwas seltenere Sorptionskältetechnik vertreten wird, und dem groÿen Bereich rationeller Energieverwendung andererseits, der insbesondere den Einsatz von Energiespeichern und regenerativer Energie beinhaltet. Auf experimentellen Grundlagen der Wärme- und Stoübertragung bauen die anlagentechnischen Arbeiten auf: Entwicklung von kompakten Wärmeübertragern und von Kälte-Kreisläufen sowie deren Anwendung in Pilotprojekten, um die Umsetzung zu initiieren. So wurde beispielsweise für einen Partner eine solar angetriebene Kälteanlage mit ca. 10 kw Kälteleistung entwickelt (siehe Abbildung 2.2). Abb. 2.2: Absorptionskälteanlage Sie durchläuft derzeit einerseits Feldtests, wird aber andererseits auch mit Antrieb aus Abwärme von Blockheizkraftwerken betrieben und wird innerhalb eines EU-Projektes zur Kühlung eines Serverraums und mehrerer PC-Pools installiert. Der Antrieb wird primärenergetisch sehr ezient mit Fernwärme erfolgen.

25 2.3 Beteiligte Institutionen der TU-Berlin 13 Kontakt: Technische Universität Berlin (TU Berlin), Institut für Energietechnik, Fachgebiet Maschinen- und Energieanlagentechnik, Sekretariat KT2, Prof. Dr.-Ing. Felix Ziegler, Berlin, Tel ,

26 3 Kapitel Anforderungen und Rahmenbedingungen Bis heute gibt es keine allgemein anerkannte Denition von Rechenzentren (vgl. [Cremer et al., 2003]). Im Rahmen der Studie wurde in [Kleschin, 2008] eine neue Denition mittels des Fähigkeitenansatzes erarbeitet. Diese Herangehensweise stellt spezizierte Anforderungen für eine allgemeingültige Fassung des Begris Rechenzentrum und löst damit die in der bisherigen Diskussion vielfältigen oft nur partiell aussagekräftigen Beschreibungen ab. Die bisherigen Denitionsansätze reichen von rein qualitativen Denitionen [Cremer et al., 2003], [Fichter, 2007] bis hin zu Klassizierungsansätzen mit sowohl qualitativen als auch quantitativen Merkmalen [Tschudi et al., 2004], [Turner et al., 2006], [EPA, 2007]. Während z. B. [Cremer et al., 2003] Rechenzentren (Data Centres) im engeren Sinne als Server-Farmen denieren, welche Daten und Dienstleistung für Web-Anwendungen speichern und verarbeiten, deniert [EPA, 2007] jedweden Raum der Daten verarbeitenden Servern gewidmet ist als Rechenzentrum, so auch Serverschränke. [Fichter, 2007] hingegen bezeichnet nur solche Einrichtungen als Rechenzentren, die zumindest aus einem eigenständigem Raum, der sowohl zentrale Rechentechnik inklusive der notwendigen Infrastruktur beherbergt als auch über eine eigenständige sowie sichere Stromversorgung und Klimatisierung verfügt. Wiederum ein anderer Ansatz lässt sich in [Turner et al., 2006] nden. [Turner et al., 2006] klassizieren Rechenzentren nach Verfügbarkeitsklassen, d.h. den so genannten US-amerikanischen Tier-Standards. Schlieÿlich denieren [Tschudi et al., 2004] ein Rechenzentrum als facility that contains concentrated equipment to perform one or more of the following functions: Store, manage, process, and exchange digital data and information [Tschudi et al., 2004].

27 3.1 Definition von Rechenzentren über den Fähigkeitsansatz Definition von Rechenzentren über den Fähigkeitsansatz Mit dem Fähigkeitenansatz nach [Kleschin, 2008] wird erstmals eine allgemeingültige, aber dennoch strenge Denition von Rechenzentren vorgestellt, die für die weitere Betrachtung in dieser Studie als Basis dient. Der Sinn und Zweck des Rechenzentrumbetriebs ist die Verarbeitung von Daten. Mit welcher Technik, also wodurch die Datenverarbeitung erbracht wird, ist bei der Betrachtung über den Fähigkeitenansatz nebensächlich. Entscheidend ist, dass das Rechenzentrum die Fähigkeit besitzt die notwendige Verarbeitungsleistung unter den geforderten Bedingungen zu erbringen. Ein Rechenzentrum wird deniert über die Fähigkeit, Daten sicher, in groÿen Mengen, dauerhaft und zentral zu verarbeiten. Dabei muss das Rechenzentrum diese Fähigkeiten nur besitzen, auch wenn einzelne Eigenschaften nicht genutzt werden (z. B. der Betrieb über einen langen Zeitraum). Im Folgenden werden die notwendigen Fähigkeiten konkretisiert: 1. Verarbeitung von Daten - meint z. B. die Erfassung, Übertragung, Berechnung oder Speicherung logisch gruppierter Informationseinheiten. 2. Eine sichere Art und Weise der Datenverarbeitung wird versorgungstechnisch mit der Mindestsicherheit zum kontrollierten, von Datenverlust freien Herunterfahren der Rechner im Schadensfall der Versorgungseinheiten beschrieben. 3. Die groÿen Mengen an verarbeiteten Daten werden in Relation zu den aktuellen technischen Möglichkeiten der Datenverarbeitung gemessen und stellen somit über die Zeit eine dynamische Gröÿe dar. 4. Der dauerhaft über einen langen Zeitraum zu gewährleistende Betrieb in einem Rechenzentrum setzt Maÿnahmen voraus, um Einüsse mit kritischer Auswirkung auf den Rechenzentrumsbetrieb, wie zum Beispiel Wärme, Feuchtigkeit oder Staub, langfristig zu kontrollieren. 5. An einem zentralen Ort müssen die Rechenzentrumsgeräte aber nicht ausschlieÿlich stehen. Die IT einer Nutzereinheit muss lediglich von einem denierten Ort aus bedienbar seien (z. B. Rechner in einer anderen Stadt, wenn diese miteinander verbunden und von mindestens einem Punkt informationstechnisch beeinussbar sind).

28 16 Kapitel 3 Anforderungen und Rahmenbedingungen Mit Hilfe dieser Denition und den nachfolgenden Kategorisierungen von Rechenzentren ist es in Zukunft möglich die öentliche Kommunikation zum Thema Green IT bzw. Energieezienz in Rechenzentren einheitlicher zu gestalten und Missverständnissen vorzubeugen. 3.2 Kategorisierung von Rechenzentren Gröÿe des Rechenzentrums: Für die konkrete Anwendung der oben gegebenen Denition ist es zweckmäÿig, Rechenzentren nach ihrer Gröÿe zu klassizieren. Als wesentliches Kriterium dient hier die Anzahl der Server. Damit können folgende 6 Raumtypen bzw. Rechenzentrumsgröÿenklassen unterschieden werden (vgl. Tabelle 3.1): Rechenzentrumsgröÿenklasse Anzahl Server Serverschrank <2 Serverraum 3-10 Kleines Rechenzentrum Rechenzentrum Mittleres Rechenzentrum Groÿrechenzentrum > 800 Tab. 3.1: Klassizierung von Rechenzentrumsgröÿe nach Anzahl der Server Diese Klassizierung bildet die Grundlage für die Bestimmung der Anzahl und Gröÿenstruktur von Rechenzentren in Deutschland im Kapitel 5.4. Um die verschiedenen Anforderungen in den unterschiedlichen Kategorien von Rechenzentren zu berücksichtigen, ist es auÿerdem notwendig Rechenzentren hinsichtlich der Betriebssicherheit, dem Betriebszweck und dem Betreiber zu unterscheiden. Es sollten nur Rechenzentren mit vergleichbaren Rahmenbedingungen gegenübergestellt werden. Betriebssicherheit: Allen Rechenzentren liegt ein Mindestmaÿ an Betriebssicherheit zu Grunde. Ausdrücken lässt sich der Sicherheitsgrad, für Einzelkomponenten über die Redundanz: x(n + z) + y und für das ganze Rechenzentrum mittels der Tier Standards nach [Turner et al., 2008]. Der höchste Standard Tier 4 ergibt eine Verfügbarkeit von 99,99% im Jahr, entsprechend eines vierstündigen Ausfallereignisses in fünf Jahren. Faktoren, die die Betriebssicherheit in Rechenzentren beeinussen, sind die technischen Anlagen der IT (z. B. der Server), die Gebäudetechnik sowie Maÿnahmen zur Abwendung physischer Gewalt (z. B. durch Sabotage). Im Hinblick auf die Gebäudetechnik (Stromversorgung und Klimatisierung, siehe Systemgrenzen Kapitel 3.4) wird der maÿgebliche Einuss der Konzeption von Netzanschlüssen,

29 3.2 Kategorisierung von Rechenzentren 17 Notstromaggregaten, Unterbrechungsfreier Stromversorgungssystemen (USV), Kälteanlagen, Rückkühler, Umluftklimaschränken auf den Sicherheitsstandard deutlich. Eine mehrfach redundante Auslegung von Komponenten kann neben erhöhten Investitionsaufwendungen auch zu energetischen Verlusten aufgrund von zusätzlich betriebenen und/oder schlechter ausgelasteten Anlagen führen. Damit ist in der Regel auch ein Anstieg der Betriebskosten verbunden. Die Betriebssicherheit beeinusst somit die Ezienz. Betriebszweck: Die IT als Grundlage von Speicher-, Berechnungs- und Kommunikationsprozessen nimmt je nach Einsatzzweck unterschiedliche Ausprägungen an. Einerseits kann das Rechenzentrum vom Blick der Technik aus dierenziert werden, unter anderem in Bezug auf den elektrischen Leistungsbedarf pro m 2 Grundäche. Zum Beispiel weist ein wissenschaftliches Hochleistungsrechenzentrum eine vielfache höhere elektrische Leistungsdichte auf als ein Rechenzentrum für Telekommunikationsdienste. Tritt hingegen die Anwendung in den Vordergrund der Betrachtung, so ergeben sich vielseitige Ansätze zur Dierenzierung. Die digitale Gesellschaft fordert groÿe Mengen an Rechenbedarf zum Beispiel in den Bereichen Wissenschaft, Wirtschaft und Verwaltung. Aus der Sicht des Energiebedarfes sind die Auswirkungen auf die Auslastung der IT besonders relevant. Der Unterschied wird bei dem Vergleich zwischen einem rein wissenschaftlichen Rechenzentrum und einem Rechenzentrum im Bereich e-commerce 1 deutlich. Während ersteres die Rechenrauslastung oft frei bestimmen und planen kann, ist die im Onlinehandel eingesetzte IT stark von der externen, eher schwankenden Nachfrage abhängig. Betreiber: Der Eigenbetrieb von Informations- und Gebäudetechnik ermöglicht die gröÿte technische Unabhängigkeit, fordert aber auch die meisten Ressourcen und schränkt die kurzfristige Flexibilität in der Regel ein. In diesem Fall wird das gesamte Rechenzentrum mit der kompletten Gebäudeinfrastruktur, Hardware und Software mit unternehmenseigenen Ressourcen betrieben. Mit dem Hosting wird ein Mietmodell für IT-Leistung angeboten. Anwender können dadurch im Sinne des Outsourcing das notwendige eigene Know-how für Informationsund Versorgungstechnik sowie Personalkosten und Investitionen reduzieren. Ein Housing- oder gleichbedeutend auch Hoteling- bzw. Colocation-Anbieter oeriert den Stellplatz mit der notwendigen Versorgungsleistung von Strom, Kälte und Datenleitung sowie dem Schutz vor unbefugten Dritten jedoch nicht die IT-Leistung, so dass der Kunde die eigenen IT-Systeme aufstellen und verwalten kann. 1 Elektronischer Handel im Rahmen der Internetwirtschaft

30 18 Kapitel 3 Anforderungen und Rahmenbedingungen 3.3 Kennwerte zum Vergleich von Rechenzentren Mit einer Vielzahl von Kennwerten wird in der aktuellen Diskussion um Green IT versucht Teilbereiche bzw. Komponenten von Rechenzentren oder gleich ganze Rechenzentren mit einander zu vergleichen. Ziel ist es die Ezienz im Betrieb eines Rechenzentrums anhand einer Zahl auszudrücken. Zur energetischen Analyse sind bereits verschiedenste Ansätze publiziert worden. Klassische Benchmark Programme für verschiedene IT- Komponenten wie Prozessoren oder Serveranwendungen bietet beispielsweise [Henning, 2006]. Im steigenden Energiebedarf von Rechenzentren lag die Motivation die aktuell diskutierten Kennzahlen zur Abbildung der Energieezienz der Versorgungsinfrastruktur zu entwickeln [GreenGrid, 2007], [GreenGrid, 2008a]. In Ansätzen vorhanden und perspektivisch gewünscht sind Kenngröÿen, welche die IT-Leistungsfähigkeit einbeziehen [SPEC, 2007]. Im Folgenden wird die geläugste Kenngröÿe (PUE) mit den Vor- und Nachteilen in der praktischen Anwendung kurz dargestellt. Als Alternative dazu wird der EUE als sinnvolle Kenngröÿe eingeführt sowie der SPECpower ssj2008 als Informations- und Gebäudetechnik verbindende Kennwert vorgestellt Power Usage Effectiveness (PUE) Als Zusammenschluss führender Akteure der IT-Branche erarbeitet die Green Grid Association [GreenGrid, 2007], [GreenGrid, 2008a] Kennwerte für die Gebäudetechnik sowie Handlungsempfehlungen zur Steigerung der Energieezienz im Rechenzentrumsbetrieb. Der wohl am weitesten verbreitete und am häugsten publizierte Kennwert ist der Power Usage Eectiveness-Wert (PUE). Er wird gebildet aus der Leistungsaufnahme des gesamten Rechenzentrums (P RZ ) und der IT-Leistungsaufnahme (P IT ). P UE = P RZ P IT (3.1) P RZ : Gesamtrechenzentrumsleistung (Total Facility Power) als gemessene Leistung am Stromzähler des Energieversorgungsunternehmens (EVU). Es darf dabei nur die Energieversorgung des Rechenzentrums mit Unterbrechungsfreier Stromversorgung, Klimatisierung und Licht erfasst werden, nicht jedoch die Energieversorgung von Nebennutzern wie z. B. Büros. P IT : IT-Leistung (IT Equipment Power) entspricht dem Leistungsbedarf der Daten verarbeitenden und speichernden Geräte sowie der Netzwerkausrüstung.

31 3.3 Kennwerte zum Vergleich von Rechenzentren 19 Die elektrische Leistungsinanspruchnahme der Verbraucher eines Rechenzentrums ist nicht konstant und somit ist auch der PUE keine konstante Gröÿe. Selbst bei konstanter Leistung der IT-Geräte ist die Leistungsaufnahme der Gebäudeinfrastruktur Schwankungen unterworfen. Als Beispiel sei hier auf den Zusammenhang zwischen Klimatisierung und Auÿenlufttemperatur verwiesen. Abb. 3.1: Der PUE eines Rechenzentrums im Jahresverlauf 2007 (Quelle: eigene Erhebungen) Die Abbildung 3.1 verdeutlicht die Schwankungen des PUE, der im Minimum bei 1,31 liegt, einen Jahresmittelwert von 1,55 aufweist und mit 1,78 sein Maximum erreicht, alle Werte beruhen auf Messungen im Betrieb eines realen Rechenzentrums. Darüber hinaus weichen in der Praxis die Berechnungsmethoden des PUE teilweise erheblich voneinander ab, was unter anderem an der unscharfen Denition bzw. Abgrenzung dieses Kennwertes liegt. Heute häug verwendeten Varianten des PUE sind: 1. PUE als Momentanwert (P U E(t)) basiert auf einer punktuellen Messung zu einem beliebigen Zeitpunkt t1. P UE(t 1 ) = P RZ(t 1 ) P IT (t 1 ) (3.2) 2. PUE im Spitzenlastfall (P UE P, RZ, max ) ermittelt sich auf Basis kontinuierlicher Messungen aus dem Leistungsmaximum des Rechenzentrums für ein bestimmtes Zeitintervall beispielsweise Sommer, Winter oder das ganze Jahr. P UE P, RZ, max = P RZ, max (3.3) P IT (P, RZ, max)

32 20 Kapitel 3 Anforderungen und Rahmenbedingungen 3. PUE als Mittelwert (P UE mittel ) ist das Integral über die Zeit (i. d. R. ein Jahr) und entspricht somit dem Verhältnis der Energieaufnahmen im Betrachtungszeitraum. Der PUE muss in diesem Fall konsequenterweise als EUE (Energy Usage Eectiveness) bezeichnet werden. P UE mittel = E RZ E IT = EUE (3.4) 4. PUE aus Installationswerten (P UE inst ), gängige Praxis ist es den PUE aus den Angaben auf den Typenschildern der Technik zu bestimmen, obwohl der Denition nach eindeutig die...gemessene Leistung... gefordert wird. P UE inst = P RZ,inst P IT,inst = PGT,i + P IT,inst P IT,inst (3.5) 5. DCiE - Data Center Infrastructure Eciency: Der Kehrwert des PUE wird mit DCiE bezeichnet, ehemals DCE [GreenGrid, 2008a], so dass dieser Werte kleiner eins annimmt. Die Mängel des PUE gelten somit auch für den DCiE. DCiE = 1 P UE = P IT P RZ (3.6) Die Verwendung von Kennwerten auf Basis von reinen Leistungswerten (kw) ohne eine zeitliche Betrachtung weiÿt groÿe Nachteile für den Vergleich von Energieezienzen im Betrieb von Rechenzentren auf. In Abschnitt wird daher ein Kennwert auf Basis Energiemengen (kwh) für weitere Betrachtungen eingeführt Energy Usage Effectiveness (EUE) In einer Studie des Energy Research Centre of the Netherlands (ECN) 2 zu Energieeinsparungen im Rechenzentrumsbereich [Sijpheer, 2008] wurde der Kennwert EUE eingeführt. Der EUE beschreibt das Verhältnis des Energiebedarfs des gesamten Rechenzentrums zum Energiebedarf der IT, für den Zeitraum von einem Jahr. Damit werden alle saisonalen Klimabedingungen als Einussgröÿe erfasst. Im Vergleich zu anderen Kennwerten bildet der EUE die Ezienz im Bereich der Gebäude- und Klimatechnik damit bisher am besten ab. EUE = E RZ,a E IT,a (3.7) 2 ECN ist das gröÿte im Energiebereich tätige Forschungsinstitut der Niederlande.

33 3.3 Kennwerte zum Vergleich von Rechenzentren 21 Im Unterschied zur Betrachtung der installierten oder gemessenen Leistungen (siehe PUE) ist die Betrachtung des Energiebedarfs zur Ezienzanalyse in Rechenzentren aus folgenden Gründen vorteilhaft: Die reine Leistungsbetrachtung bildet beispielsweise Ezienzmaÿnahmen wie Freie Kühlung nicht ab. Es besteht eine eindeutige Korrelation von Energiebedarf zu Betriebskosten und CO 2 -Ausstoÿ bei fossilen Energieträgern. Publizierte PUE-Werte sind vielfach als Verhältnis gemessener Energieaufnahmen oder über Mittelwerte von Leistungswerten ermittelt worden, so dass im Resultat auch ein Energieverhältnis betrachtet wird - diese sind jedoch selten vergleichbar auf Grund unterschiedlicher Betrachtungszeiträume. Der EUE ist einfach zu bestimmen, sofern ein ausschlieÿlicher Rechenzentrumsbetrieb vorliegt. Vorerst wird der EUE unter Angabe des Bezugszeitraums MM.JJ-MM.JJ (MM=Monat, JJ=Jahr), mit den Bilanzgrenzen entsprechend des PUE als sinnvoller Kennwert angesehen. EUE (MM.JJ MM.JJ) = E RZ (MM.JJ MM.JJ) E IT (MM.JJ MM.JJ) (3.8) Ermittlung des EUE: Allgemein wird der EUE aus dem Energiebedarf des Rechenzentrums und dem Energiebedarf der IT gebildet. Bei reinem Rechenzentrumsbetrieb ohne Mischnutzung entspricht der Energiebedarf des Rechenzentrums in der Regel dem Energiebezug vom Stromversorgungsunternehmen, es sei denn, weitere Energieträger wie Gas oder Fernwärme werden eingesetzt 3. Der Energiebedarf der IT kann beispielsweise unter Zuhilfenahme der Ausgangsleistung der Unterbrechungsfreien Stromversorgung über die Zeit ermittelt werden. Sollte eine Mischnutzung im Rechenzentrumsgebäude vorliegen, so sind die Verluste bzw. Energieaufnahmen der einzelnen Versorgungsanlagen auf die Nutzer zuzuordnen. 3 Nur eines der hier befragten Rechenzentren verwendet neben Strom noch andere Energieträger (vgl. Kapitel 5.2.4).

34 22 Kapitel 3 Anforderungen und Rahmenbedingungen SPEC Benchmarking Seit mehreren Jahrzehnten ist die Standard Performance Evaluation Corporation - SPEC mit der Entwicklung von standardisierten Leistungsbenchmarks für Computersysteme befasst und hat entsprechende Standards gesetzt. Darauf basierend, ist der Kennwert SPECpower ssj2008 [SPEC, 2007] als Kombination von Rechenleistung und Energiebedarf der IT erarbeitet worden. Die Ezienz der umgebenden Versorgungseinheiten von Strom und Kälte wird jedoch nicht berücksichtigt. Der Kennwert wird durch Messung des elektrischen Leistungsbedarfs der IT bei der Bearbeitung von denierten Java Applikationen, unter variierenden Auslastungszuständen ermittelt. Als Ergebnis geht in gewichteter Form die IT-Leistung pro Antriebsleistung mit der Einheit overall ssj ops / watt hervor Hemnisse bei der Anwendung von Kennwerten Der Vergleich von Rechenzentren auf Basis von kompakten Informationen in Form von Kennwerten ist wünschenswert, bedarf jedoch einschränkender bzw. erläuternder Vorbemerkungen. Die notwendige Voraussetzung ist hier mindestens die Übereinstimmung bezüglich: Gleicher Systemgrenzen bei der Bilanzierung der einzelnen Gebäudetechniken und eventueller Nebennutzungen. Gleichem Umfang der erfassten Energieträger (Strom, Fernwärme, Gas...). Gleicher Art und Qualität der erhobenen Daten. Vergleichbarer Anzahl und Detailgrad der kommunizierbaren Informationen. Vergleichbarer Struktur des Rechenzentrums: verschiedene Nutzungsarten (Eigennutzung, Housing...) und betriebliche Rahmenbedingungen, Art des Anforderungsprols im Bereich IT (Kommunikation, Hochleistungsrechnung...). Gleicher Konzeption der Sicherheitsklasse (Tier, Redundanzkonzepte...). bezüglich externen Faktoren: vergleichbarer Klimabedingungen des Standortes (Temperatur, Sonneneinstrahlung und Luftfeuchte) und

35 3.4 Systemgrenzen 23 ähnlicher Einüsse der (direkten) Standortumgebung. Der prinzipielle Vergleich von Rechenzentren in der bis dato erfolgten Weise, ist oft nur bedingt möglich, da eine oder mehrere der angeführten Bedingungen nicht erfüllt sind (vgl. Kategorisierung, Kapitel 3.2). 3.4 Systemgrenzen Die vorliegende Studie untersucht die Ezienz von Rechenzentren in Bezug auf die Gebäudeinfrastruktur für IT-Räume. Es werden die Potenziale in den Bereichen unterbrechungsfreie Stromversorgung (USV), Abwärmenutzung, Klimatisierung, Kältetechnik und Luftführung betrachtet. Die im Betrieb von Rechenzentren eingesetzte IT (Elektrotechnik bzw. Hardware) sowie die verwendeten Arbeitsprozesse bzw. Applikationen gehen, wo notwendig, in Form von Randbedingungen für die Gebäudeinfrastruktur ein. Abb. 3.2: Systemgrenzen Rechenzentrum Abbildung 3.2 zeigt das hier betrachtete System Rechenzentrum mit seinen Komponenten Stromversorgung, USV-Anlage, IT-Infrastruktur, Klimatisierung, Kaltwassersatz und Kälteanlage. Die Pfeile kennzeichnen Energieströme zwischen den Systemkomponenten und zur Umgebung. Die Eingangsgröÿe in das System ist ausschlieÿlich elektrische

36 24 Kapitel 3 Anforderungen und Rahmenbedingungen Energie, Ausgangsgröÿe dagegen nur thermische Energie. Die Stromversorgung unterteilt sich in die direkte Stromversorgung von Systemkomponenten und die unterbrechungsfreie Stromversorgung der IT-Infrastruktur. 3.5 Stromversorgung von Rechenzentren Aufbau der elektrischen Energieversorgung Der mögliche Aufbau der Energieversorgung eines Rechenzentrums wird in Abbildung 3.3 als funktionales Schema dargestellt. B SUV IT EVU TF USV kritische GT GEN TF Kälteanlage Rückkühler EVU: Energieversorgungsunternehmen USV: Unterbrechungsfreie Stromversorgung Pumpen Ventilatoren GEN: TF: Generator Transformator SUV: IT: Stromunterverteilung Informationstechnik unkritische GT B: Batterie GT: Gebäudetechnik Sonstiges Abb. 3.3: Elektrische Energieversorgung, Beispiel Im Regelfall erfolgt die Stromversorgung über den Energieversorger (EVU), nur bei Netzausfall über Notstromgeneratoren. Kritischen Lasten stellen die Geräte der IT sowie die zur Klimatisierung notwendigen Anlagen dar. Die Stromversorgung der IT darf nie unkontrolliert unterbrochen werden. Mittels Batterie gestützter unterbrechungsfreier Stromversorgungsanlage kann der Betrieb für mehrere Minuten aufrecht erhalten werden, um entweder den Generator zu starten oder die IT kontrolliert herunter zu fahren. Unterbrechungen von wenigen Minuten hingegen toleriert die Klimatechnik, so dass diese nicht über die USV, sondern wenn möglich im Schadensfall über den Generator versorgt wird. Weitere unkritische Abnehmer können über einen separaten Versorgungspfad ebenfalls ohne Unterbrechungsfreie Stromversorgung betrieben werden.

37 3.5 Stromversorgung von Rechenzentren Unterbrechungsfreie Stromversorgung (USV) Die USV beeinusst die Energieezienz auf zwei Ebenen, erstens durch direkte Versorgungsverluste der Strombereitstellung und zweitens als Wärmelast für die Klimatisierung aufgrund ihrer Verlustleistung. Der USV Wirkungsgrad sollte somit möglichst groÿ sein. Der Wirkungsgrad hängt von der Umwandlungstechnik und der Auslastung ab, die wiederum vom Redundanzkonzept geprägt sein kann. Für verschiedene USV Techniken (Doppelwandlung, Deltawandlung, Schwungscheibe und Dynamische USV) ist der Wirkungsgradverlauf in Abhängigkeit der Auslastung, basierend auf [LBNL, 2008] Daten in Abbildung 3.4 dargestellt. Es wird deutlich, dass dieser für kleinere Auslastungen exponentiell abnimmt. Das Konzept der USV wirkt sich besonders bei Anlagen aus, die permanent im Betrieb sind, nicht bei Konzepten wie Stand-by oder Isoliert Redundant, bei denen die USV erst nach einem Ausfallereignis zugeschaltet wird. Diese Varianten werden kaum für Rechenzentren eingesetzt, so dass sie hier nicht Gegenstand weiterer Untersuchungen sind. 98,0% 96,0% 94,0% Doppelwandlung Dynamisch Deltawandlung Schwungscheibe Wirkungsgrad USV in Prozent 92,0% 90,0% 88,0% 86,0% 84,0% 82,0% 80,0% 78,0% 76,0% 74,0% 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% Auslastung USV in Prozent Abb. 3.4: Wirkungsgradkennlinien in Abhängigkeit von der Auslastung für verschiedene USV-Techniken, Daten aus [LBNL, 2008] Redundanz versus Auslastung Das Redundanzkonzept für das System einer USV wird oft angegeben als: x(n + z) - Konzept Derzeit sind 3 unterschiedliche Ausführungen im Betrieb von Rechenzentren üblich:

38 26 Kapitel 3 Anforderungen und Rahmenbedingungen N Konzept (x=1; z=0): eine USV Anlage, die genau die Nennleistung der installierten IT abdeckt stellt ein sogenanntes N Konzept dar. (vgl. RZ1, Kapitel 6.1). Es können auch mehrere kleine USV zusammen geschaltet werden. Dieses wäre dann eine so genannte modulare Bauweise, die sich für Rechenzentren mit perspektivisch steigendem IT Leistungsbedarf empfehlen. N+1 Konzept (x=1; z=1): Beispielsweise wird mit drei USV Anlagen, die jeweils die Hälfte der IT Nennleistung abdecken, ein N+1 Konzept umgesetzt. Zwei Anlagen sind zur Deckung von 100% IT Leistung notwendig, bei Reparaturen an einer Anlage ist die volle Versorgung der IT über die USV gewährleistet. 2 N Konzept (x=2; z=0): Das 2 N Konzept in seiner ursprünglichen Form, als einfache Verdopplung der USV, so dass jetzt zwei Anlagen mit jeweils 100% der IT Last entsprechenden Versorgungsleistung zum Einsatz kommen. Fällt eine Anlage aus, steht eine zweite vollwertige und ausreichend groÿ dimensionierte Ersatzanlage zur Verfügung. Die Auswirkung des Redundanzprinzips wird am Beispiel eines N, N+1 und 2 N Konzepts verdeutlicht (siehe Abbildung 3.5). Dabei gilt: P IT inst ist die Nennleistung in kw, P USV inst stellt die installierte USV Leistung dar, bei mehreren USV Anlagen, haben alle die gleiche Leistung (P USV i ) in kw. Des Weiteren soll die Informationstechnik zu 75% ausgelastet sein (P IT = 0, 75 P IT inst ). Abb. 3.5: USV Auslastung in Abhängigkeit des Redundanzkonzeptes für N, N+1 und 2N, bei 75% IT Auslastung Aus Abbildung 3.5 wird deutlich, dass ein Mehr an Sicherheit mit einer Verringerung der USV-Auslastung und damit nach Abbildung 3.4 auch eine Minderung des Wirkungsgrades nach sich zieht; die geringe Auslastung von nur 37% der unterbrechungsfreien Stromversorgung beim 2 N-Konzept hat einen überproportionalen Anstieg der USV-Verlustleistung von 5-7% zur Folge.

39 3.6 Ausschlusskriterien für die praktische Umsetzung Ausschlusskriterien für die praktische Umsetzung Alle Konzepte zur Verbesserung der Energieezienz im Betrieb von Rechenzentren müssen neben der eigentlichen Ezienz eine Vielzahl von Kriterien erfüllen, um eine praktische Umsetzung und damit die Erschlieÿung eines relevanten Marktes für innovative Technologien zu ermöglichen. Im Folgenden sollen einige für Rechenzentren wichtige Grundvoraussetzungen, die im Falle der Nichterfüllung als Ausschlusskriterien wirken, aufgezählt werden. Innovative Techniken, die die Einhaltung dieser Kriterien gefährden, sind in der Regel für die Praxis nicht tauglich Sicherheit Die Versorgungssicherheit mit betriebswichtigen Mitteln ist zu gewährleisten, darunter verstehen sich die Klimatisierung und Stromversorgung in ausreichender Leistung und Spannungsqualität sowie i. d. R. die Konnektivität zum Datentransport. Zur Gewährleistung der Verfügbarkeit sind technische Absicherungen im Rahmen von Betriebssicherheitskonzepten umzusetzen, die sich in redundanten Auslegungen betriebswichtiger Komponenten, wie den für die Versorgung zuständigen Anlagen, äuÿert. Innere Gefahren durch Brände sind immer vorhanden, weshalb eine eektive Rauch- und Brandfrüherkennung mit entsprechend IT verträglicher Brandbekämpfungstechnik (z. B. Gaslöschanlage) für den sicheren Betrieb notwendig sind. Die äuÿere Gefahrenabwehr sichert das Rechenzentrum gegen Gewalteinwirkung von auÿen, z. B. durch Sabotageakte oder Terrorangrie. Konzepte verschiedener Sicherheitsbereiche mit Funktionscharakteristiken, die nur Personen mit individueller Authentizierung für den jeweiligen Bereich ihrer Funktion (Informationstechnik, Gebäudetechnik...) zulassen, stellen ein Baustein einer eektiven Gefahrenabwehr dar Gebäude Der Gebäudeaufbau kann den Rechenzentrumsbetrieb einschränken. So müssen beispielsweise die Geschosshöhen genügend Platz für den meist üblichen Doppelboden, Rackaufbau und evtl. auch die Abluftkanäle bieten. Die statische Auslegung des Bodens muss beachtet werden. Groÿe Raumluftkühlgeräte und Racksystemen können erhebliche Gewichtslasten darstellen. Das Verhältnis der Nutzächen für IT und Versorgungstechnik, wie Klima und Strom bzw. Notstrom, variiert je nach Sicherheitsstandard des Rechenzentrums, so dass Gröÿenverhältnisse von 1:1 keine Seltenheit mehr darstellen.

40 28 Kapitel 3 Anforderungen und Rahmenbedingungen Technik Im Bereich der Klimatisierung ist die Abfuhr der immer gröÿer werdenden Wärmeabgaben aufgrund des gestiegenen elektrischen Leistungsbedarfes der IT sicher zu stellen. Dabei sind zwei Aspekte von besonderer Bedeutung, die Maximalleistung und die Leistungsdichte. Die Klimaanlage muss für die Maximalleistung bei hohen Auÿentemperaturen ausgelegt sein sowie in der Wärmeabfuhr eektiv arbeiten, um Hotspots aufgrund hoher Leistungsdichten in den Racks zu vermeiden. Die Wärmeabgabe an die Umwelt erfolgt in der Regel mit Rückkühlern, die als Flüssigkeits-/Luft-Wärmeübertrager ausgeführt sind. Bei steigenden Wärmemengen nimmt der Platzbedarf dieser Komponenten eine nicht zu vernachlässigende Gröÿe ein. Alternativkonzepte, wie Nasskühltürme sind je nach baulicher Lage des Rechenzentrums immissionsschutzrechtlich teilweise gar nicht möglich. Die Stromversorgung und im steigenden Maÿe die Stromverteilung stellen für die Rechenzentrumsplanung, aufgrund der steigenden Leistungsaufnahmen der IT, Ausschlusskriterien dar. So muss der örtliche Energieversorger bzw. Netzbetreiber für groÿe Rechenzentren Leistungen im Megawattbereich vorhalten, womit Versorgungsleitungen durchaus an ihre Kapazitätsgrenzen stoÿen. Für einen eventuellen Rechenzentrumsausbau stellt dies schon heute ein Ausschlusskriterium dar. Aber auch die Stromverteilung im Rechenzentrum wird durch verschiedene Faktoren limitiert. Moderne Racksysteme können Technik mit einem elektrischen Leistungsbedarf von über 30 kw [Appro-International, 2008] beherbergen. Da die meisten Stromleitungen in Form von Kabeln häug im Doppelboden verlegt werden, kann es hier zu Problemen in der Kaltluftzufuhr kommen, wenn eine eziente Luftführung behindert wird. Die Anzahl der zu verlegenden Stromleitungen ist daher begrenzt Standort Nicht jeder Ort ist für den Bau von Rechenzentren geeignet. Neben der ausreichenden Fläche muss die gleichzeitige Versorgung des Rechenzentrums mit Strom und Datenleitungen gewährleistet werden. Die benötigte Fläche und Stromversorgung für den Rechenzentrumsbetrieb hängt vom Redundanzkonzept sowie den spezischen Klimaeinüssen am jeweiligen Standort des Rechenzentrums ab. Zum Beispiel kann die Umsetzung innovativer Konzepte zur Kühlung, wie die Nutzung jahreszeit unabhängiger Freier Kühlung über eine Flächenkühlung (vgl. Kapitel 4.6) schnell an einem zu groÿen Flächenbedarf scheitern.

41 Gebäude- und Klimatechnik von Rechenzentren 4 Kapitel 4.1 Gebäudetechnik von Rechenzentren Rechenzentren stellen sehr hohe und spezielle Anforderungen an die Gebäudetechnik, die nicht vergleichbar mit den Anforderungen anderer Nutzungsarten sind. Im Rahmen dieser Studie werden Möglichkeiten der Gebäudetechnik aufgezeigt und bewertet, die unmittelbaren Einuss auf die Energieezienz im Betrieb von Rechenzentren haben können. Allgemein stellen Gebäude mit ihren Möglichkeiten zur Senkung des Energiebedarfs eine besondere Herausforderung dar, da es sich bei ihnen im Vergleich zur Lebensdauer von IT-Geräten um sehr langlebige Produkte handelt. Ein Schwerpunkt der aktuellen Arbeiten zur Energieezienz im Gebäudebereich beschäftigt sich mit der Reduzierung des Kühlenergiebedarfes von Nichtwohngebäuden. Die Bereiche Gebäudetechnik, sowie Kühlung und Klimatisierung haben bei der Planung, dem Bau und dem Betrieb von Rechenzentren einen hohen Stellenwert, da sich dieses Gebiet unter anderem durch verbesserte Wärmedämmung und wachsende interne Wärmequellen als besonders signikant herauskristallisiert hat. Rechenzentren können als Extremfälle der Gebäudetechnik angesehen werden, da in der Regel die internen Wärmequellen derart dominierend sind, dass auch in der Winterzeit kein Heizbedarf besteht. Grundsätzlich sind dabei allerdings Gebäude zu unterscheiden, die fast ausschlieÿlich Rechenzentren beherbergen und andererseits Bauten mit ausgeprägter Mischnutzung. Bei letzteren gibt es häug gröÿere Synergiepotentiale (z.b. durch Wärmerückgewinnung), erstere sind aufgrund der homogenen Nutzungsart einfacher zu planen. Bei der Bestimmung der Grundäche gilt für Rechenzentren die Faustregel, dass in etwa die Hälfte der Grundäche für die Versorgung einkalkuliert werden muss. Die-

42 30 Kapitel 4 Gebäude- und Klimatechnik von Rechenzentren ser enorme und sogar tendenziell wachsende Anteil ist darauf zurückzuführen, dass die Leistungs- bzw. Packungsdichte von IT-Equipment schneller wächst, als bei den benötigten peripheren Techniken. Bei kleinen Rechenzentren wird der Anteil der zu nutzenden Fläche noch deutlich geringer. Dies macht die Wichtigkeit einer ezienten Planung der Gebäudetechnik von Rechenzentren deutlich Architektonische und gebäudetechnische Einflussfaktoren Das gröÿte Einsparpotenzial eines Rechenzentrums liegt im Stromverbrauch. Wichtige Einüsse stellen hier architektonische, gebäudetechnische und bautechnische Maÿnahmen dar, die in der Regel bei Um-, Erweiterungs- oder Neubauten von Rechenzentren realisiert werden können. Schwachstellen bei existierenden Rechenzentren (Bestandsbauten) können zum Beispiel vorhandene Glasfassaden oder Fensterfronten sein, die zusätzlich zum internen auch einen hohen externen Wärmeeintrag durch solare Einstrahlung mit sich bringen. Verbesserungen diesbezüglich sind oftmals verbunden mit einem Eingri in die Fassade bzw. Architektur des Gebäudes oder gar der Umgebung. Daher ist es manchmal für den Rechenzentrumsbetreiber schwierig, entsprechende Massnahmen umzusetzen, wenn dieser nicht Eigentümer des Gebäudes oder Grundstückes ist. Allerdings existieren auch eziente Möglichkeiten, Verschattungselemente innenliegend einzubinden. Diese sind ebenso zahlreich wie im Auÿenbereich und mittlerweile auch schon sehr eektiv (vgl ). Dennoch sind zur Verringerung des Kühlenergiebedarfes auÿen liegende Blenden oder Läden - wenn möglich - vorzuziehen, weil die Wärme erst gar nicht in das Gebäude eindringen kann. Bei der Planung eines Rechenzentrums-Neubaus ist prinzipiell darauf zu achten, dass es keinen zusätzlichen und vermeidbaren Wärmeeintrag in die Serverräume gibt. Ob Glasfassaden bzw. Fensterfront per se negativ für die Gesamtenergiebilanz eines Rechenzentrums sind, kann nicht allgemein beantwortet werden. Sicherlich ist immer auf eine gute Verschattung zu achten, da Strahlungseinüsse eine zusätzlich Last darstellen; allerdings kann der kühlende Einuss von Wärmetransmission durch Auÿenbauteile über einen ganzen Jahreszeitraum überwiegen. Die Transmission wird vorwiegend von dem Temperaturunterschied zwischen dem IT-Raum und der Umgebung beeinusst. Diese hängen neben den saisonalen Unterschieden wesentlich von den Temperaturen im Serverraum ab, die letztendlich der Betreiber durch seine Maÿnahmen festlegt. Die derzeit gängige mittlere Raumtemperatur von Rechenzentren liegt bei ca. 22 C (vgl ), jedoch werden seitens einschlägiger Verbände wie BITKOM und ASHRAE Empfehlungen gegeben, die mittlere Raumtemperatur auf 26 C zu erhöhen. Dadurch kommt es ver-

43 4.1 Gebäudetechnik von Rechenzentren 31 stärkt zu einem Wärmedurchgang durch Auÿenbauteile ohne Einsatz von Hilfsenergien - dem Idealfall von freier Kühlung. Weiterhin bestimmt der Wärmedurchgangskoezient wesentlich die Gröÿe von ein- und austretender Wärmetransmission, und dieser ist in der Regel bei Fenstern wesentlich höher als bei Auÿenwänden, nimmt aber seit Jahren auch aufgrund von gesetzlichen Anforderungen stetig ab. In dem Entwurf der Energieeinsparverordnung für 2009 ( [BMWi, 2009]) werden erneut für Um- und Neubauten strikte Verschärfungen der energetischen Mindestanforderungen (auch Wärmedämmwerte) für Nichtwohngebäude gefordert. Fraglich ist derzeit noch, in wie weit Rechenzentren von der EnEV überhaupt betroen sind. Eine allgemein gültige Antwort wird es voraussichtlich dazu nicht geben, da individuell zu bestimmen gilt, ob die Abwärme der Server als Prozesswärme deniert wird - dann greift die EnEV nicht - oder ob die Serverräume gemäÿ DIN V Bestandteil einer Gebäudezone sind und dementsprechend in die Bewertung der Gesamtezienz der Gebäude eingehen und dadurch von den Anforderungen der Energieeinsparverordnung betroen sind Innovative architaktonische und gebäudetechnische Lösungsansätze Folgende alternative Lösungsansätze können die Klimatechnik in Rechenzentren unterstützen, indem sie die Kühllast verringern und sommerliche Lastspitzen der Kompressoren der Kälteanlagen eingrenzen. Den Ansätzen ist gemein, dass sie Wärmeübertragung auf groÿe Flächen realisieren, und damit die höhere Temperaturen des Kühlmediums zulassen, und/oder dass sie den Speichereekt massiver Bauteile nutzen, um Spitzenlasten der Klimatisierung zu glätten oder den Energieeinsatz zeitlich zu verschieben. Alle Lösungsansätze können aber nur als Ergänzungen zu weiterer Klimatechnik fungieren, da ihre spezischen (ächenbezogenen) Kühlleistungen im Vergleich zur Leistungsdichte von Serverräumen zu gering sind, um diese gänzlich kompensieren zu können. Für neu zu errichtende Rechenzentren in Gebäuden mit ausgeprägter Mischnutzung sind diese gebäudetechnischen Ansätze vor allem hinsichtlich der Abwärmenutzung eine ideale Ergänzung. Mit niedrigeren Heizwassertemperaturen erreichen Wärmepumpe bessere Leistungszahlen und die Abwärme der Server kann somit unter geringerem Aufwand zu Nutzwärme aufgewertet werden. 1 Informationen aus persönlichen Gesprächen mit DENA, Bauaufsichtsbehörde und BMU

44 32 Kapitel 4 Gebäude- und Klimatechnik von Rechenzentren Betonkernaktivierung: Die thermische Aktivierung (gezieltes Speichern von Wärme bzw. Kälte im Bauteil) ist ein Verfahren, bei dem die Bauwerksmasse der Betondecke bzw. der Betonwand als Wärme- oder Kältespeicher genutzt wird. Hierbei werden meist Kunststorohre zwischen die Bewehrung gelegt, in denen jeweils kaltes oder warmes Wasser zirkuliert und somit die Decken und Wände temperiert. Die temperierten Bauteile geben dann als Flächenheizung (bzw. Kühlung) über ihre groÿe Oberäche Wärme an die Räume ab bzw. nehmen sie von der Raumluft auf. Anwendungsbereiche sind üblicherweise groÿe Räume leichterer Bauweise mit geringen Kühllasten oder aber der unterstützende Betrieb dient zur Deckung einer Grundlast. Als üblicher Nutzen im Gebäudebereich wird eine Stabilisierung des Temperaturniveaus während eines Tages betrachtet. Durch die Speicherfähigkeit kann im Laufe des Tages der Temperaturanstieg gedämpft werden, die aufgenommene Wärme wird in den Nachtstunden wieder abgegeben. Der Nutzen ist also insbesondere groÿ, wenn es tageszeitenabhängige Lasten gibt. In letzter Zeit gibt es Tendenzen, dass in betriebseigenen Serverräumen manche Server während den Nachtstunden, in denen sie wenig oder gar nicht genutzt werden in den Bereitschafts-Modus fahren oder gar ausgeschaltet werden (vgl. [NRW, 2008]). Hier könnte ein Ansatzpunkt für die Betonkernaktivierung liegen, da Kälteleistungsspitzen während der Tageszeit verringert werden könnten. Integration von Latentwärmespeichern: Latentwärmespeichermaterialien (auch bekannt unter dem Begri PCM: phase change materials) können zur Kompensation von Schwankungen der Kühllasten ebenso dienen wie massive Bauteile. Durch Umwandlung des Aggregatzustandes eines Mediums speichern sie Energie in einem relativ eng begrenzten Temperaturintervall mit einer vergleichsweise hohen Energiedichte. Die Einsatzgebiete von Latentwärmespeichern können je nach Einsatzmedium und dessen jeweiliger Schmelztemperatur auf die unterschiedlichen Anforderungen der Gebäudetechnik angepasst und erweitert werden. Der bekannteste und verbreitetste Latentwärmespeicher - weil auch mit Abstand der günstigste - ist der Eisspeicher [Mehling, 2002]. Latentwärmespeicher sind üblicherweise im Einsatz, um die elektrischen Lastspitzen einer Kälteanlage während der Sommertage zu reduzieren (dadurch kann der Leistungspreis des Strombezuges verringert werden) und einen Teil der Kälteproduktion kann auf den günstigeren Nachtstromtarif zu verlagern [Grandegger, 2008]. Weiterhin können sie dazu beitragen, die maximal zur Verfügung stehende Kälteleistung zu erhöhen oder die Sicherheit der Verfügbarkeit der Kälteleistung zu verbessern. Die maximale Kälteleistung wird erhöht wenn der Eisspeicher bei gleichzeitigem Betrieb der Kälteanlage entladen wird. Eine höhere Verfügbarkeit ist gegeben, da zumindest über

45 4.2 Klima- und Kältetechnik 33 einen gewissen Zeitrahmen bei Ausfall einer Kälteanlage die gespeicherte Kühlleistung aus dem Latentspeicher abgerufen werden kann. Latentwärmespeicher können ähnlich der Betonkernaktivierung Puerungsfunktionen bei tageszeitenabhängigen Temperaturschwankungen haben, was speziell für Rechenzentren ohne weiteres umsetzbar wäre 2. Eine Alternative ist der Einsatz eines Eisspeichers in Rechenzentren, die einen günstigen Niederstromtarif während der Nachtzeit haben und über Freikühler (vgl. Kapitel 4.6) verfügen. Hier könnte der Eisspeicher während der Nachstunden mit kostengünstiger Kompressionskälte beladen werden, während die Server durch den Freikühlereinsatz temperiert werden. Während der Tageszeit wird der Eisspeicher wieder entladen. Hierdurch wird der Elektrizitätsbedarf in kostengünstigere Zeiträume verschoben. Eine höhere Energieezienz ist dadurch nicht zwingenderweise gegeben. Verbesserungsmöglichkeiten ergeben sich durch Verwendung von Phasenwechselmaterialien, deren Schmelzpunkt bei Temperaturen um 10 C oder höher liegt. In Frage kommen hier Gashydrate, Parane, sowie Salzhydrate und deren Mischungen. Die Kosten dieser Materialien sind allerdings derzeit für den wirtschaftlichen Einsatz noch zu hoch. 4.2 Klima- und Kältetechnik In der Klima- und Kältetechnik kann man zwischen Voll-Klimatisierung, Raumkühlung und Kälteerzeugung (typischerweise unter 0 C) unterscheiden. Vollklimatisierung bedeutet dabei die Einstellung von Lufttemperatur und Luftfeuchte sowie die Verteilung der Luft, während Raumkühlung nur die Abkühlung der Raumluft beinhaltet. Beide Techniken spielen bei Rechenzentren eine Rolle, wobei die Luftkühlung in dieser Studie aufgrund ihres hohen benötigten Energieeinsatzes meist im Vordergrund steht. Die Klimatisierung von Rechenzentren unterscheidet sich ganz erheblich von den üblichen Anwendungen der Klimatechnik. Die Anforderungen an die Einhaltung der Behaglichkeitskriterien spielen eine untergeordnete Rolle und das zu erreichende Temperaturniveau des zu klimatisierenden Raumes ist im Vergleich sehr hoch und daher eher unkritisch für die Kältetechnik. Damit geradezu prädestiniert für die Wärmerückgewinnung bzw. Abwärmenutzung. Eine Herausforderung stellt dagegen die hohe Wärmestromdichte dar, die aus den Serverräumen abgeführt werden muss. Diese liegt im Vergleich zur Raumklimatisierung von 2 Ein RZ-Betreiber könnte einen dynamischen Temperaturverlauf in seinem Rechenzentrum zulassen (z.b. nächtliche Temperaturabsenkung), und damit einen Teil der Kühllast in Zeiten verschieben, zu denen diese ezienter erbracht werden kann.

46 34 Kapitel 4 Gebäude- und Klimatechnik von Rechenzentren Wohn- oder Bürogebäuden um ein Vielfaches höher, denn die interne hohe Wärmelast durch das IT-Equipments ist in der Regel deutlich gröÿer als die Wärmelasten durch saisonale Umwelteinüsse. Trotz unterstützender Einussmöglichkeiten seitens der Gebäudetechnik ist daher eine leistungsstarke Klimatechnik unersetzlich. Somit stellt sich für die Klimatechnik die Aufgabe, hohe - aber nahezu jahres- und tageszeitenunabhängig Wärmeströme aus den Serverräumen zu transportieren. Dies spiegelt sich auch im Teillastverhältnis wieder (siehe Abbildung 4.1), was die Häugkeitsverteilung der Auslastung der Klimatechnik über einen Jahreszeitraum darstellt. Das Teillastverhältnis der der Klimatechnik ist gleichmäÿig auf sehr hohem Niveau, da die Auslastung der Prozessoren wenig Einuss auf die Abwärme des IT-Equipments hat. Weitaus gröÿeren Einuss auf die Auslastung der Klimageräte hat das Redundanzkonzept der Klimatisierung, welches sich aus den Verfügbarkeitsanforderungen des Betreibers ergibt. Abb. 4.1: Unterschiedliche Anforderungen an die Klimatisierung, Quelle: ILK Dresden Aus der hohen und gleichmäÿigen Auslastung der Klimatechnik ergibt sich ein erhöhter wirtschaftlicher Druck für deren Energieezienz, der sich aber noch nicht in der Auswahl besonders ezienter und insbesondere nicht innovativer und neuartiger Technik wiederspiegelt. Aus Besorgnis um mögliche Einbuÿen in der Verfügbarkeit des Rechenzentrums wird - noch - fast ausschlieÿlich auf konventionelle Klimatechnik zurückgegrien.

47 4.3 Wärmetransport aus einem Rechenzentrum Wärmetransport aus einem Rechenzentrum Die folgende Abbildung 4.2 veranschaulicht für ein typisches Rechenzentrum das Aufkommen der Abwärme und den Weg der Abwärme vom Austritt aus dem Server bis zur Abgabe der Wärme an die Umgebung. Server CRAC Wärmeträger Kälteanlage Kondensator 40 C Umgebung Temperaturniveau IN 18 C IT-Last OUT 28 C Luft- Zirkulation 24 C 16 C P_el 16 C 10 C P_el Temperaturhub der Kälteanlage P_el 5 C Wärmesenke 25 C Verdampfer Wärmetransport (beispielhaft) in einem typischen Rechenzentrum Abb. 4.2: Temperaturniveaus der Klimatechnik von Rechenzentren Die angegeben Temperaturen orientieren sich hier an typischen Auslegungswerten der Hersteller der einzelnen Komponenten. Die Luft, welche die Abwärme der Server aufgenommen hat verliert ihr hohes - für die Wärmeabfuhr vorteilhaftes - Temperaturniveau durch Verlustmechanismen in mehreren Stufen. Dies können zum Einen vermeidbare Vermischungen von Warm- und Kaltluftströmen im Serverraum sein, sowie unvermeidbare (wenn auch reduzierbare) antreibende Temperaturdierenzen für den Wärmeübergang an ein weiteres Wärmeträgermedium. Dies ist in der Regel ein Kaltwasserkreislauf, der die Abwärme von den Umluftklimaschränken (CRAC) aufnimmt und bei niedrigerer Temperatur an den Verdampfer der Kälteanlage abgibt. Anschlieÿend muss unter Einsatz mechanischer Energie mit einem Verdichter die Temperatur der Abwärme wieder soweit angehoben werden, dass sie an die Umgebung abgegeben werden kann. Gleichzeitig steigt die Gröÿe des Wärmestroms über die einzelnen Stufen des Transportes an, da zum einen elektrische Hilfsenergie (Lüfter und Pumpen) für den Transport der

48 36 Kapitel 4 Gebäude- und Klimatechnik von Rechenzentren Trägermedien und den Wärmeübergang zwischen den Trägermedien erforderlich ist, die selbst wieder in den Abwärmestrom dissipiert wird. Zum anderen erfolgt ebenfalls ein Wärmeeintrag durch die Wärmedämmung über den Transportweg in die Kaltwasserleitungen. Daher ist die Kälteleistung, die von der Kälteanlage benötigt und erbracht wird, nicht mit der IT-Abwärme gleichzusetzen, sondern meist wesentlich gröÿer. Somit ist die Klimatechnik eines Rechenzentrums ein gutes Beispiel dafür, wie wichtig für die Ezienz des Gesamtsystems es ist, dass die einzelnen Stufen des Wärmetransportes gut aufeinander abgestimmt sind. Energieeziente Einzelkomponenten sind zwar wichtige Bausteine der gesamten Prozesskette, aber längst noch kein Garant für eine gute Gesamtezienz im Rechenzentrum Luft- und Temperaturverteilung im Serverraum Üblich ist die Anordnung der Racks in einer Weise, dass abwechselnd warme und kalte Gänge entstehen (siehe Abbildung 4.3). Die kalten Gänge werden von unten über den Doppelboden mit kalter Zuluft versorgt, die Server saugen diese Kaltluft auf beiden Seiten des Ganges an und geben sie auf ihrer Rückseite wieder als Warmluft ab. Die erwärme Luft steigt im Warmgang nach oben in den oenen Raum oder wird von einem Absaugsystem aufgenommen. Bei diesem Konzept der oenen Anordnung der Racks sind Verwirbelungen zwischen warmen und kalten Bereichen nicht zu vermeiden. Eine der wirkungsvollsten und schon am längsten propagierten Möglichkeiten, die Wärmeabfuhr aus dem Rechenzentrum ezient zu gestalten ist die konsequente Trennung von warmen und kalten Luftströmen, wie sie bei Kaltgang- bzw. Warmgangeinhausung erfolgt. Prinzipiell haben beide Möglichkeiten der vollständigen Trennung der Luftströme sowohl Vor- als auch Nachteile, was die Ezienz und den Komfort für das Wartungspersonal der Server betrit. Welches System vorzuziehen ist, liegt an den individuellen Gegebenheiten des Rechenzentrums und kann nicht verallgemeinert werden. Zu beachten ist die konsequente Umsetzung dieser Maÿnahme. Es müssen sowohl unbestückte Bereiche in den Racks mit Blenden wie auch Durchführungen im Doppelboden verschlossen werden, um Luftvermischungen wirkungsvoll zu unterbinden. Gerade die Maÿnahmen der Abdichtung innerhalb der Racks lassen sich für Rechenzentren aus der Kategorie Housing (Kapitel 3.2) nur sehr schwer realisieren. Schlieÿlich haben die Eigentümer der Racks eigene Entscheidungsgewalt über die Bestückung ihrer Racks und nicht selten werden komplette klimatisierte Bereiche vermietet, in denen die Mieter nach eigenem Ermessen ihr Equipment anordnen können. Dennoch gibt es auch

49 4.3 Wärmetransport aus einem Rechenzentrum 37 Abb. 4.3: Kaltgang- vs. Warmgangeinhausung, Quelle: Schro sehr exibel einsetzbare Lösungen, wie die Anbringung von Luftvorhängen, die auch von Betreibern selbst mit vertretbarem Aufwand kostengünstig installiert werden können. Die energetischen Vorteile der thermischen Trennung der Luftströme lassen sich vielfältig nutzen. Mit vermiedener Vermischung von Zu- und Abluft im Serverraum können: die Ezienz des wärmeabführenden Systems durch Anhebung des Temperaturniveaus gesteigert, die Ezienz der Umluftklimaschränke gesteigert, der unerwünschte Anteil der Luftentfeuchtung (latente Wärme) verringert, Hot Spots durch niedrigere Temperatur bei der Luftzufuhr eliminiert werden, oder Racks mit höherer Packungsdichte sicher gekühlt werden. Einige dieser positiven Eekte gehen Hand in Hand (z.b. Verringerung der latenten Wärme und Ezienz der Kältebereitstellung), andere sind eher alternativer Natur (z.b. Nutzen Hot Spot Vermeidung vs. Ezienzsteigerung der Kältebereitstellung). Es liegt daher im Ermessen des Betreibers, ob die Steigerung von Energieezienz, Betriebssicherheit oder der Kapazität des Rechenzentrums im Vordergrund stehen soll, und welcher Nutzen mit dem energetisch gewonnenen Vorteil der konsequenten Trennung von Warmund Kaltluft umgesetzt werden soll.

50 38 Kapitel 4 Gebäude- und Klimatechnik von Rechenzentren Abb. 4.4: Einhausung mit Luftvorhängen, Quelle: Wärmeaufnahme im Serverraum durch Umluftklimaschränke Zunächst ist noch einmal zu betonen, dass jedes Gerät, welches sich im Serverraum zur Aufnahme der Abwärme bendet und durch Elektrizität angetrieben wird, selbst eine Wärmequelle darstellt, deren eigene Wärmelast ebenfalls abgeführt werden muss. Eine in der Praxis gängige Kategorisierung der Klimaschränke unterscheidet zwischen Komfortund Präzisionsklimageräten. Die Komfortklimageräte sorgen vor allem für die Einhaltung der Behaglichkeitskriterien in Wohn- und Bürogebäuden. Sie Heizen oder Kühlen die zu klimatisierenden Räume, beim Kühlbetrieb erfolgt die Entfeuchtung der Luft allerdings ungeregelt [Schmidt, 2007]. Die Luftvolumenströme sind im Vergleich zu Präzisionsklimageräten kleiner, damit die Geräuschemissionen und Luftgeschwindigkeiten im Raum die betroenen Personen nicht beeinträchtigen. Dies beeinusst den luftseitigen Wärmeübergang der Wärmeaufnahme, was tiefere Temperaturen des Kältemittels im Verdampfer bzw. der Temperaturen des Kaltwassersatzes bedingt. Dadurch ergibt sich in der Praxis eine beachtlicher Anteil an Entfeuchtung (latenter Last) von ca. 30 bis 50% der Gesamtkältelast, der bei der Klimatisierung von Wohn- und Büroräumen oft auch gewollt ist. In einem Rechenzentrum sind vorrangig nur hohe sensible Wärmelasten abzuführen. Eine Entfeuchtung der Luft ohne gleichzeitigen Feuchteeintrag (z.b. über Auÿenluft, oder sich im Raum bendliches

51 4.3 Wärmetransport aus einem Rechenzentrum 39 Personal) führt unweigerlich zu sehr trockener Luft und dem damit verbundenen Risiko der elektrostatischen Auadung. Entfeuchtung belastet somit nicht nur zusätzlich die Kälteanlage, sondern führt durch die notwendig gewordene Rückbefeuchtung zu einem weiteren vermeidbaren Energieeinsatz. Daher sind Präzisionsklimageräte vorzuziehen. Diese besitzen einen weiteren Freiheitsgrad, da sie bei gleichzeitiger Temperierung die Luft be- oder auch entfeuchten können. Die regelungstechnische Hysterese dieser Geräte liegt im engen Temperaturbereich +/-1 Kelvin bei einer Varianz der Luftfeuchte von maximal +/- 5%. Damit können sie die Anforderungen von hochsensiblen technischen Infrastrukturen erfüllen. Die Luftaustrittsgeschwindigkeit wie auch der Geräuschpegel sind im Vergleich zu Präzisionsklimageräten sehr hoch. Laut [BITKOM, 2008] wurden Präzisionsklimageräte speziell für den Einsatz in Rechenzentren entwickelt. Dennoch ist auch bei Präzisionsklimageräten ein latenter Anteil an Kältelast zu erwarten, wenn die Luft auf Wärmeübertragerächen trit, deren Temperatur niedriger als die Taupunkttemperatur der abzukühlenden Luft ist. Bei gängigen Temperaturen des Kaltwassersatzes und der Luft im Serverraum ist der unerwünschte Entfeuchtungsanteil von Präzisionsklimageräten kleiner als 20% der Gesamtleistung. Einen vereinfachten Zusammenhang des sensiblen Lastanteils (Nutzlastanteil) in Abhängigkeit der Kaltwasservorlauftemperatur gibt Abbildung 4.5 wieder. Die Datenpunkte stammen aus den technischen Datenblättern mehrerer Hersteller. Eintrittszustand der Luft ist jeweils 24 C bei einer relativen Feuchte von 50%. Dies entspricht einer Taupunkttemperatur der Luft von 12,9 C. Deutlich zu erkennen sind einerseits der sinkende Einuss unerwünschter Entfeuchtung bei höheren Wassertemperaturen, wie auch die groÿen Unterschiede der Geräte bei gleichen Temperaturpaarungen. Im Sinne der Energieezienz ist es daher nicht ausreichend, nur auf die Vorteile der Präzisionsklimatechnik zu setzen, sondern ein Betriebszustand des Kaltwassersatzes mit möglichst hohen Vorlauftemperaturen ist ebenfalls anzustreben. Eine weitere Kategorisierung der Umluftklimaschränke unterscheidet nach der Art des Wärmeentzugs - zwischen direkter und indirekter Kühlung. Bei der direkten Kühlung sitzt der Verdampfer im Klimaschrank. Durch den Verdampfungsprozess wird die IT- Abwärme direkt aus der Luft aufgenommen. Diese Geräte sind auch unter dem Begri Direktverdampfer bekannt. Bei der indirekten Kühlung kühlt die Luft an einer weiteren als Kälteträger geeignete Flüssigkeit ab (meist Wasser), die dann ihrerseits auÿerhalb des Serverraumes von einer Kälteanlage abgekühlt wird. Diese häug eingesetzten Systeme werden auch als Kaltwassersätze bezeichnet.

52 40 Kapitel 4 Gebäude- und Klimatechnik von Rechenzentren Abb. 4.5: Einuss der Kaltwassertemperatur auf den Anteil der Nutzkälte (sensible Kälte) bei Präzisionsklimageräten Grundsätzlich ist die direkte Kühlung thermodynamisch und wirtschaftlich günstiger, da Kaltwassersätze eine zusätzliche Pumpe als Antrieb für den Flüssigkeitskreis benötigen und durch den zwischengeschalteten Kälteträger eine zusätzliche antreibende Temperaturdierenz für den Wärmeübergang die Temperatur der Verdampfung verringert. Bei niedrigeren Verdampfungstemperaturen, also gröÿerem Temperaturhub der Kälteanlage verringert sich deren Leistungs- und Arbeitszahl. Dennoch hat sich die indirekte Kühlung über Kaltwassersätze gerade im gröÿeren Leistungsbereich und vor allem bei gröÿeren Rechenzentren durchsetzen können. Dies liegt hauptsächlich daran, dass ihre Einsatzund Regelungsmöglichkeiten wesentlich exibler sind. So kann zum einen die klimatechnische Regelung (z.b. Einstellung der Regeltemperatur im Serverraum) über den Kälteträgerkreis und muss nicht über den Kältemittelkreis erfolgen. Zum anderen müssen bei Anlagen mit Direktverdampfung bei gröÿerer Entfernung zwischen Wärmequelle und -senke mögliche Restriktionen bezüglich des zulässigen Füllgewichts mit Kältemittel beachtet werden, Undichtigkeiten im mit Kältemittel gefüllten Rohrnetz sind schwerer zu identizieren und aufwendiger zu beheben und groÿe Niveauunterschiede mit entsprechendem geodätischen Druckdierenzen können zu betriebstechnischen Schwierigkeiten führen [Recknagel et al., 2001]. Neben dem Nachteil der unexibleren Regelungs-, Verteilungs- und Einbindungsmöglichkeit, den man sich durch die energetische Vorteilhaftigkeit erkauft sind die Nachteile der Direktverdampfer also vorwiegend durch die Problematiken der eingesetzten Kältemittel

53 4.3 Wärmetransport aus einem Rechenzentrum 41 oder individuelle Ursachen bedingt. Hier gibt es noch ein sehr groÿes Verbesserungspotential. Auch Zwischenformen von direkter und indirekter Kühlung sind möglich. So kann beispielsweise über Wärmerohre (Heatpipes) in einem Verdampfungsprozess die Abwärme der Server mit wesentlich geringerer Grädigkeit aus dem Raum abgeführt werden und dennoch zentral an eine Kälteanlage übergeben werden (Kondensation an einem Verdampfer). Hier bietet sich CO 2 als Kältemittel aufgrund seines hohen Druckniveaus und damit niedrigen Volumenströmen und Druckverlusten an. Aufgrund der aktuellen Dominanz der indirekten Kühlung werden in den weiteren Kapiteln dieser Studie vor allem Kaltwassersätze mit zentraler Kälteerzeugung im Fokus der Betrachtung stehen Wärmeaufnahme durch Kältemaschinen Momentan werden in Rechenzentren unabhängig von den oben genannten Kategorisierungen (direkt/indirekt) fast ausschlieÿlich Kältemaschinen mit mechanischer Verdichtung eingesetzt. Sie sind seit langem Stand der Technik, werden serienmäÿig für alle gängigen Anwendungen hergestellt und sind vergleichsweise günstig in der Anschaung. Antriebsquelle für den Kälteprozess und damit Herzstück einer jeden Kompressionskälteanlage, aber auch Hauptverursacher für den verhältnismäÿig groÿen Strombedarf sind die mit einem Elektromotor angetriebenen Verdichter (siehe Abbildung 4.6). Der Einsatz der verschiedenen Typen von Verdichtern orientiert sich an der Kälteleistung der Anlage. Gängig sind im kleineren Leistungsbereich Verdichter, die nach dem Verdrängungsprinzip arbeiten, wie z.b. Hub- oder Rollkolben und Scrollverdichter. Diese decken auch in paralleler Anordnung zusammen mit den meist ezienteren Schraubenverdichtern den mittleren Leistungsbereich ab. Bei sehr groÿen Leistungen der Kälteanlagen kommen auch Turboverdichter aus der Gruppe der Strömungsmaschinen zum Einsatz, die ein sehr gutes Teillastverhalten aufweisen können [König and Rüdiger, 2004]. Einen sehr guten Überblick über die Ezienz von Kälteanlagen bietet das Zertizierungsprogramm von Eurovent (www.eurovent-certication.com). Beinhaltet sind dort elektrisch angetriebene Kaltwassersätze, gleich mit welchem Typ von Kompressor und Kältemittel sie angetrieben bzw. betrieben werden. Die Wärmeabfuhr des Kondensators kann luft-, wassergekühlt oder auch verdampfungsunterstützt sein. Seit 2006 beurteilt Eurovent die Leistung von Kaltwassersätzen nach dem ESEER (European Seasonal Energy Eciency Ratio). Zusätzlich zur Voll- bzw. Nennlastlast wird auch der Betrieb der Geräte bei Teillastbedingungen berücksichtigt und die Ezienz entsprechend einer empirisch ermittelten Eintrittswahrscheinlichkeit gemittelt. Für die Standardanwendungen ist

54 42 Kapitel 4 Gebäude- und Klimatechnik von Rechenzentren Abb. 4.6: Kompressionskälteanlage der ESEER-Wert eine hervorragende Kennzahl für die durchschnittliche zu erwartende Leistungszahl der Kälteanlage (Arbeitszahl). In Rechenzentren gibt es allerdings gewöhnlich keine Teillastbedingungen der herkömmlichen Art, die eine Funktion der Auÿentemperatur darstellen (vgl. Abbildung 4.1). Daher ist die Aussagekraft des ESEER 3 für Rechenzentren schwächer als in anderen Anwendungen. Wird die Kälteanlage bei kälteren Auÿentemperaturen allerdings zusätzlich von Freikühlern unterstützt, ergibt sich eine Annäherung der Charakteristik des Kühllastverlaufes zu der von herkömmlicher Büro- und Wohnraumklimatisierung. Da der Einsatz von Freikühlern zur Klimatisierung von Rechenzentren in der mitteleuropäischen Klimazone Standard sein sollte, und auch die meisten der hier befragten Rechenzentren diese Option nutzen, kann der ESEER zumindest als Orientierungshilfe für die Rechenzentrumsklimatisierung verwendet werden. Im Grunde besteht hier aber noch Forschungsbedarf Eine anschauliche Beschreibung des ESEER ist zu nden unter: Stand: Dezember

55 4.4 Innovative Techniken der Kälteerzeugung Innovative Techniken der Kälteerzeugung Es gibt sehr viele alternative Konzepte der Kälteerzeugung, die gerade im Anwendungsfall der Klimatisierung von Rechenzentren zukunftsträchtig erscheinen. Fast allen ist gemein, dass sie einen gröÿeren Investitionsaufwand erfordern, der aber oft nur auf kleinere Stückzahlen der Produktion oder noch fehlende Serienreife zurückzuführen ist. Daher sollen einige dieser Techniken, die sich speziell für den Einsatz in Rechenzentren eignen, vorgestellt werden. In den letzten Jahren steht durch die Diskussion um den Treibhauseekt die Entwicklung von Prozessen mit natürlichen Kältemitteln im Fokus. Neben z.b. CO 2 kann dies auch Wasser sein. Wasser eignet sich aufgrund seiner Stowerte zwar nicht zur Bereitstellung von Kälte im niedrigen Temperaturbereich ( 0 C), ist aber für die Anwendung als Kältemittel zur Kühlung von Rechenzentren eine gute Alternative Wasser in Kälteanlagen mit mechanischen Verdichtern Eines der vielversprechenden Beispiele für die momentane Entwicklung von Kälteanlagen mit dem Kältemittel R718 (Wasser) sind die Turbokaltwassersätze, die unter anderem am ILK Dresden im Kälteleistungsbereich zwischen 400 kw und 1000 kw entwickelt wurden (siehe Abbildung 4.7). Diese klimatisieren bereits seit dem Jahr 2000 unter anderem die gläserne Manufaktur von Volkswagen in Dresden und konnten dort unter realen Einsatzbedingungen ihre technische Ausgereiftheit und Zuverlässigkeit beweisen [Albring, 2007]. Neben der unbestreitbaren Umweltverträglichkeit des Kältemittels konnten die Anlagen gerade bei Temperaturen, wie sie in Rechenzentren üblich sind besonders gute Leistungszahlen erreichen. Bei der Realisierung einer Serienfertigung könnten diese Kälteanlagen in Zukunft neben der energetischen auch eine wirtschaftlich sinnvolle Alternative sein Wasser in Kälteanlagen mit thermischen Verdichtern Eine weitere Option der Kälteerzeugung für Rechenzentren, die bislang nur sehr wenig eingesetzt wurde ist die Sorptionskältetechnik. Besonders Absorptionskälteanlagen sind im gröÿeren Leistungsbereich seit vielen Jahren technisch ausgereift. Sie werden aber aufgrund ihres vergleichsweise hohen Investitionsaufwandes und vor allem mangelnder

56 44 Kapitel 4 Gebäude- und Klimatechnik von Rechenzentren Abb. 4.7: Turbokaltwassersatz in der VW-Manufaktur in Dresden, Quelle: ILK Dresden Kenntnis über ihre Wirkungsweise bzw. Vor- und Nachteile zur Kompressionskältetechnik nur in begrenzten Anwendungsfeldern eingesetzt. Haupteinsatzbereich von Sorptionskältetechnik in Europa sind momentan Sonderanwendungen, wie die Kraft-Wärme- Kältekopplung (KWKK) im Verbund mit Blockheizkraftwerken oder Einsatzorte mit besonderen Anforderungen wie z.b. die Konzertsaal-, Krankenhaus- oder Schwimmhallenklimatisierung. Im fernen Osten werden die Anlagen dagegen in groÿen Stückzahlen zur zentralen Klimatisierung von Hochhäusern mit Erdgasantrieb verwendet. Absorptionskälteanlagen: Das Grundprinzip des Absorptionskälteprozesses ist hinsichtlich des Kältemittelkreislaufes ähnlich dem des Kompressionskälteprozesses. Auch hier wird Nutzkälte im Verdampfer auf niedrigem Druckniveau erzeugt und das verdampfte Kältemittel auf einem höherem Druckniveau im Kondensator wieder verüssigt. Der wesentliche Unterschied besteht darin, dass der Kältemitteldampf durch einen internen zweiten Kreislauf auf den Kondensatordruck gebracht wird (thermische Verdichtung). Hauptantriebsquelle ist somit Wärme auf höherem Temperaturniveau und nicht Elektrizität. Im Absorptionskälteprozess wird der im Verdampfer entstandene Kältemitteldampf im Absorber durch ein konzentriertes Lösungsmittel aufgenommen, wobei die entstehende Wärme durch Kühlwasser abgeführt werden muss. Die verdünnte Lösung wird mit einer elektrisch oder thermisch angetriebenen Lösungsmittelpumpe auf das höhere Druckniveau gefördert. Hierzu ist aufgrund des niedrigen spezischen Volumens der Flüssigkeit nur nahezu vernachlässigbar wenig Einsatz an mechanischer Energie (elektrisch ange-

57 4.4 Innovative Techniken der Kälteerzeugung 45 Abb. 4.8: Absorptionskälteanlage triebene Lösungspumpe) oder gar kein Einsatz an mechanischer Energie (thermisch angetriebene Lösungspumpe) notwendig. Durch die Zufuhr von Wärme (primärenergetisch vorteilhaft ist hierbei der Einsatz von Abwärme eines Blockheizkraftwerkes bzw. Fernwärme oder solar erzeugter Antriebswärme) wird der Kältemitteldampf im Generator oder Austreiber wieder aus der Lösung ausgetrieben. Im Weiteren entspricht der Kreislauf wieder dem der Kompressionskälteanlage. Anwendungen zur Raumklimatisierung werden meist über das Stopaar Wasser/LiBr realisiert. Für Anwendungen bei denen Kaltwasser unter 5 C erzeugt werden soll hat sich das Stopaar Ammoniak/Wasser durchgesetzt. Ein wesentlicher Nachteil von Ammoniakanlagen ist die Notwendigkeit zur Rektikation; dies erfordert zusätzlichen Heizaufwand und verschlechtert somit den Wirkungsgrad bei gleichzeitiger Erhöhung der Investitionskosten. Da zur Klimatisierung von Rechenzentren keine Verdampfungstemperaturen unter 0 C notwendig sind, sind also die ezienteren und in der Anschaung günstigeren Wasser/LiBr-Anlagen besser geeignet. Adsorptionskälteanlagen: Bei dem Adsorptionskälteprozess erfolgt eine Anlagerung (Adsorption) des verdampften Kältemittels an der Oberäche eines festen Stoes. Als Kältemittel in Adsorptionskälteanlagen kommt fast ausschlieÿlich Wasser zum Einsatz.

58 46 Kapitel 4 Gebäude- und Klimatechnik von Rechenzentren Adsorptionskälteanlagen substituieren analog zu den Adsorptionskälteanlagen den mechanischen durch thermischen Energieeinsatz und nden dort Anwendung wo Abwärme zu günstigen Konditionen zu beziehen ist. Allerdings erfolgt der Prozess diskontinuierlich, was eine eziente Wärmerückgewinnung des internen Prozesses erschwert. Daher haben die Adsorptionskälteanlagen meist einen etwas geringeren COP als vergleichbare Absorptionskälteanlagen. Die beiden am Markt erhältlichen Anlagen sind für etwas geringere Antriebstemperaturen ausgelegt und u.a. daher schwerer und gröÿer. Sorptionsgestützte Klimatisierung: Oene Sorptionskälteanlagen werden meist als Desiccative and Evaporative Cooling (DEC) Anlagen, manchmal auch als Desiccant Cooling Systems (DCS), oder im deutschen Sprachraum auch als Anlagen zur sorptionsgestützten Klimatisierung (SGK) bezeichnet. Es handelt es sich um direkte Luftkühlsysteme, bei denen die Luft unter Ausschluss einer geschlossenen Kältemaschine in einem oenen Kälteprozess entfeuchtet und gekühlt wird. Oene Adsorptionsanlagen verwenden die Zuluft direkt als Kälteträger. Daher können diese Systeme auch nur eingesetzt werden, wenn die klimatisierte Luft direkt in die Gebäude/Räume gelangen kann, z.b. über ein zentrales Lüftungssystem. Die physikalische Ad- oder Absorption des Wasserdampfes dient in diesem Prozess zur Trocknung der Luft. Gekühlt wird anschlieÿend mit einer direkten Verdunstungsbefeuchtung der getrockneten und über einen Wärmetauscher vorgekühlten Luft. Das heiÿt, dass die getrocknete Luft einen Befeuchter durchströmt, in den direkt Wasser eingesprüht wird, wodurch beim Verdunsten der Luft Wärme entzogen wird. Je niedriger die relative Feuchtigkeit der Umgebungsluft, desto höher ist das Potential für Verdunstungskühlung. Die thermische Antriebsenergie ist zur Regeneration des Sorptionsmittels, d.h. zur Desorption des ad- oder absorbierten Wassers, erforderlich. Grundsätzlich eignen sich aber alle beschriebenen Verfahren der Sorptionskältetechnik für die Bereitstellung von Klimakälte in Rechenzentren. Gegenwärtig gibt es bereits Rechenzentren in Deutschland, die von Ab- oder Adsorptionskälteanlagen gekühlt werden, die ihrerseits durch Abwärme von Blockheizkraftwerken oder auch durch solare Wärmegewinnung angetrieben werden. Prominentes Beispiel in das Umweltbundesamt in Dessau mit einer 70 kw Adsorptionskälteanlage, die je nach solarer Einstrahlung sowohl von Solarkollektoren als auch Fernwärme angetrieben werden kann [Albers, 2006]. Der solare Antrieb von Sorptionskälteanlagen ist Schwerpunkt der Forschung am Fraunhofer-Institut für Bauphysik in Kassel. Aktuell werden dort anhand von Simulationsstudien Konzepte und Regelungsstrategien zur solaren Kühlung von Büro- und Serverräumen untersucht und auf ihre Umsetzbarkeit und Wirtschaftlichkeit bewertet [Krause et al., 2008]. Besonders lange und gute Betriebserfahrungen existieren im Kommunalen Rechenzentrum

59 4.5 Kraft-Wärme-Kälte Kopplung (KWKK) 47 Niederrhein mit der Kombination eines Blockheizkraftwerkes und einer 300 kw Absorptionskälteanlage [Verheyen, 2000]. Dampfstrahlkälteanlagen: Ein weiteres Beispiel einer Kälteanlage mit Wasser als Kältemittel ist die Dampfstrahlkälteanlage. Bei der Dampfstrahlkältemaschine handelt es sich im Prinzip um eine Kompressionskältemaschine, die allerdings thermisch angetrieben wird. Der mechanische Verdichter wird hier durch einen Dampfstrahlverdichter ersetzt. Der Prozess wird in zwei Kreisläufen geführt, dem Treibmittelkreislauf und dem Kältemittelkreislauf. Fast immer sind Treibmittel (Treibdampf) und Kältemittel (Saugdampf) ein und dasselbe Medium: Wasser. Dampfstrahlkältemaschinen wurden bislang vorwiegend in der Verfahrenstechnik zur Produktkühlung genutzt, da diese Prozesse kontinuierlich verlaufen. In der Klimatechnik verhinderten bislang vor allem die starken Lastschwankungen eines Tagessverlaufes eine breitere Anwendung. Speziell bei Rechenzentren mit ihren typischerweise sehr gleichmäÿigen Abwärmeströmen könnte sich eine neue Nische für die Dampfstrahlkältemaschine ergeben [Feddeck, 2002]. 4.5 Kraft-Wärme-Kälte Kopplung (KWKK) In Blockheizkraftwerken (BHKW) fallen Strom und Wärme als Koppelprodukte an. Die meisten BHKW werden heute von Verbrennungsmotoren angetrieben, Gasturbinen, Brennstozellen oder Stirlingmotoren sind bislang noch Randerscheinungen. Die Motoren werden meist mit fossilen Brennstoen wie Erdgas oder leichtem Heizöl, zunehmend aber auch mit dem regenerativen Energieträger Biogas betrieben. Die im Motor erzeugte mechanische Energie wird in einem Generator zur Stromerzeugung genutzt. Dieser kann ins Netz eingespeist oder zur Deckung des eigenen Bedarfes genutzt werden. Kraft- Wärme-Kopplung (KWK) besteht, wenn dem Kühlwasserkreislauf und den Abgasen die Abwärme entzogen wird und diese weiter genutzt wird. Dadurch lassen sich die eingesetzten Energierohstoe sehr ezient nutzen. In den Sommermonaten besteht üblicherweise kein Heizbedarf zum Gebrauch der Abwärme. Ohne Nutzung der erzeugten Wärme sinkt nicht nur der Nutzungsgrad einer solchen Kraft-Wärme-Kopplungs-Anlage sondern es entfällt gleichzeitig der lukrative KWK-Bonus bei der Vergütung des eingespeisten Stromes. Um die Laufzeit und Wirtschaftlichkeit zu steigern, ist also eine dauerhafte Nutzung der Abwärme anzustreben. Abhilfe schat die Kraft-Wärme-Kälte-Kopplung (KWKK), die Erweiterung der Kraft- Wärme-Kopplung mit einer thermisch angetriebenen Kältemaschine. KWKK ermöglicht die gleichzeitige Produktion von Strom, Wärme und Kälte bei einer Verfügbarkeit, die der Betreiber durch sein eigenes Redundanzkonzept frei bestimmen kann.

60 48 Kapitel 4 Gebäude- und Klimatechnik von Rechenzentren Der Einsatz der KWKK in Rechenzentren bietet eine Reihe von Vorteilen. Der durch den Betrieb eines BHKW erzeugte Strom kann entweder in das Netz eingespeist oder für den Betrieb des IT Equipment genutzt werden. Die Verfügbarkeit der Stromversorgung kann der Betreiber durch sein Redundanzkonzept frei bestimmen. Oftmals existieren bei bestehenden Rechenzentren schon sehr gute Voraussetzungen für dieses Konzept, da meist Netzersatzanlagen (Verbrennungsmotoren) installiert sind, die sich mit einer verringerten Leistung ebenfalls im Dauerbetrieb betreiben lassen. Die ausgekoppelte Wärme wird zum Antrieb der Sorptionskältemaschinen genutzt und ersetzt die stromintensive Kälteversorgung mittels Kompressionskältemaschinen, welche auch weiterhin als redundante Anlagen bestehen bleiben können. Fast immer wird das Abgas über das Kühlwasser gekühlt bevor die beiden Wärmeströme zum Antrieb der Sorptionskälteanlage genutzt werden. Bei Vermeidung dieses thermodynamischen Fehlers (das hohe Temperaturniveau der Abgase bleibt ungenutzt) könnte die Kälteerzeugung noch deutlich gesteigert werden [Högenauer-Lego et al., 2000]. Optimal ist ein zusätzlicher Fernwärmeanschluss des Rechenzentrums, da so die Möglichkeit besteht im Winter bzw. im Freikühl-Betrieb für eine entsprechende Vergütung überschüssige Wärme in das Fernwärmenetz einzuspeisen. Auÿerdem steht so eine weitere Wärmequelle zum Antrieb der Kältemaschinen zur Verfügung, was die Betriebssicherheit noch zusätzlich erhöht. Die KWKK garantiert bei sorgsamer Planung eine hohe Ezienz des Energieeinsatzes und ermöglicht auf diese Weise eine umweltfreundliche und gleichzeitig wirtschaftliche Energieversorgung des Rechenzentrums. Da sich neben der Energie- und Kosteneinsparung auch mit dem guten ökologischen Image von KWKK punkten lässt, ist es durchaus wahrscheinlich, dass diese Systemtechnik künftig bei der Energieversorgung von Rechenzentren an Bedeutung gewinnen wird. 4.6 Freie Kühlung Ziel der Freien Kühlung ist das Abführen der Serverabwärme ohne zusätzlichen Energieeinsatz der Kälteanlage. Grundsätzlich ist dies natürlich besser als die Substitution von mechanischer mit thermicher Energie, allerdings ist Freie Kühlung auch nur dann realisierbar, wenn das Temperaturniveau der Umgebung (Wärmesenke) unterhalb der Temperatur der Abwärme (Wärmequelle) ist. Dies ist vor allem nachts und in den kälteren Monaten des Jahres der Fall. Durch die ganzjährlich gleichmäÿige Abwärmelast haben

61 4.6 Freie Kühlung 49 Rechenzentren ein besonders hohes Einsparpotential durch Freie Kühlung im Vergleich zu Gebäuden, die von einem hohen Anteil externer saisonabhängiger Lasten geprägt sind. Gängige Ausgestaltungsvarianten sind die direkte freie Kühlung mit Auÿenluft und die indirekte freie Kühlung mit einem Luft-Sole-Wärmetauscher. Bei der direkten Freien Kühlung wird kalte Auÿenluft direkt über Kanalsysteme in den Rechnerraum zur Kühlung der IT geführt. Das heiÿt, bei Zeiten geeigneter Auÿenluftbedingungen kann auf den Betrieb der Kälteanlage und der Kaltwasserversorgung verzichtet oder deren Kühlbedarfsanteil verringert werden. Dem steht der Energieaufwand für den Ventilator und die je nach Betriebsführung eventuell notwendige Befeuchtungsenergie bei trockener Auÿenluft gegenüber. Die Nutzungszeit der direkten Freien Kühlung ist im Vergleich zur indirekten Freien Kühlung relativ groÿ, da die Auÿenluft auch bei höheren Temperaturniveaus Kälteleistung zur Verfügung stellen kann, da die Temperaturgradienten in den Wärmeübertragern der sonst notwendigen Kältemittel- und Kaltwasserkreise entfallen. Ein Hemmnis stellt die Notwendigkeit der Auÿenluftlterung, mit einhergehend hohem Wartungsaufwand und Druckverlusten im Kanalsystem, dar. Weiterhin bedeuten hohe Wärmelasten groÿe Luftvolumenströme, die durch entsprechend groÿe Kanäle zu leiten sind. Hierbei sind die Investitionen und der Platzbedarf dieses Klimatisierungssystems ebenfalls zu berücksichtigen. Bei der indirekt freien Kühlung werden Luft-Sole-Wärmeübertrager in den Kaltwassersatz eingebunden (vgl. Kapitel 4.3.2). Die Wärmelast wird somit über das gleiche Wärmeträgermedium abgeführt, das im Falle der Kühlung mit Kälteanlagen deren Verdampfer versorgt. Die indirekte freie Kühlung ist die gängigste Variante, die bei Rechenzentren aufzunden ist. Es existiert aber auch die weniger bekannte Möglichkeit der freien Kühlung in Kältemittelkreisläufen, also ohne Zwischenschalten eines Solekreislaufes. Dabei fördert eine Umwälzpumpe das Kältemittel über einen Bypass direkt vom Verdampfer in den Kondensator. Thermodynamisch gesehen haben diese Systeme den Vorteil, dass durch den kältemittelseitigen Phasenübergang der Wärmeübergang besser und die Temperaturspreizung des Kältemittels kleiner als bei Solekreisläufen ist und somit bereits bei höheren Temperaturen das volle Freikühl-Potential ausgeschöpft werden kann. Nachteilig ist - je nach Anlage - dass die benötigte Kältemittelmenge groÿ ist, verzweigte Netze eher zu Leckagen neigen und auch der Rücktransport des Öls zum Verdichter sicherzustellen ist. Daher ist die praktische Umsetzung dieser Möglichkeit zur Freien Kühlung als schwieriger anzusehen. Es gibt zahllose Beiträge zur freien Kühlung, teils in wissenschaftlichen Nachschlagewerken, teils auch von den Vertreibern von Freikühlern, die den Eindruck vermitteln,

62 50 Kapitel 4 Gebäude- und Klimatechnik von Rechenzentren durch bloÿe Installation eines Freikühlers würden bis zu 50% der Energiekosten für die Klimatisierung eingespart werden. Da in Rechenzentren gröÿtenteils indirekten Freikühler eingesetzt werden, soll für diese aufgezeigt werden, was für einen ezienten Einsatz dieser Geräte notwendig ist, um Einsparungen in dieser Gröÿenordnung realisieren zu können. Wichtig ist die korrekte hydraulische Einbindung des Freikühlers. Wird der Freikühler parallel zur Kälteanlage angebunden, regelt ein Dreiwege-Ventil die alternative Abkühlung des Kaltwasserkreises entweder über die Kälteanlage oder über den Freikühler. Diese Anbindung ist einfach zu realisieren, hat aber den groÿen Nachteil, dass der Freikühler nur dann betrieben werden kann, wenn die Temperaturen ausreichend niedrig sind, um die gesamte Abwärmelast des Rechenzentrums abführen zu können. Dies ist wiederum bedingt durch die Dimensionierung des Freikühlers. Ein unterstützender Betrieb des Freikühlers zusätzlich zur Kälteanlage ist nicht möglich, wodurch nur ein geringer Anteil an Abwärme über das Freikühl-System abgeführt werden kann. Einsparungen der oben beschrieben Gröÿenordnung sind nicht möglich. Ein Beispiel für die bessere hydraulische Anbindung zeigt die folgende Abbildung 4.9 eines Kaltwassersatzes mit integriertem Freikühlregister: Abb. 4.9: Kaltwassersatz mit integriertem Freikühlregister, Quelle: Econditioning GmbH Im normalen Kühlbetrieb wird das Freikühlregister (4) vom Kaltwasser über das 3-Wege- Ventil (5) umgangen. Sinkt die Auÿentemperatur in Bereiche, die freie Kühlung erlauben - üblich sind Temperaturdierenzen von ca. 2K unter der Rücklauftemperatur des Kaltwasserkreises - so schlieÿt das 3-Wege-Ventil den Bypass und das Freikühlregister wird durchströmt. Die von den Ventilatoren (6) angesaugte Luft durchströmt zuerst das Frei-

63 4.6 Freie Kühlung 51 kühlregister und kühlt den Rücklauf des Kaltwasserkreises ab. Kann aufgrund zu hoher Auÿentemperaturen nicht die Solltemperatur des Kaltwasservorlaufes erreicht werden, so wird die restliche Kälteleistung im Verdampfer (3) erbracht. Die Abwärme der Kälteanlage wird über den Kondensator abgegeben. Da das Temperaturniveau hier wesentlich höher ist, kann der Luftvolumenstrom, der den Freikühler durchströmt genutzt werden. Zusätzliche Ventilatoren entfallen. Erhöhen sich die Temperaturen des Kaltwassersatzes, weil z.b. höhere Serverraumtemperaturen erlaubt werden, dann kann ein höherer Anteil der jährlichen Abwärme über den Freikühler abgeführt werden. Weiterhin ist in diesem Fall die zu kühlende Abwärmelast, vorwiegend da sich latente Last und Verteilungsverlusten verringern. Nur bei der in Abbildung 4.9 dargestellten hydraulischen Einbindung und hohen Temperaturpaarungen im Kaltwasserkreis lassen sich Einsparungen bis ca. 50% der Energiekosten für die Klimatisierung in der hiesigen Klimazone realisieren [Lanser, 2009]. Da in den meisten Veröentlichungen vorwiegend auf die energetisch eindrucksvollen Vorteile der freien Kühlung verwiesen wird, seien ergänzend noch Punkte erwähnt, die üblicherweise nicht Bestandteil der Betrachtung sind: Freie Kühlung substituiert die Kälteleistung der Kälteanlage bei niedrigen Auÿentemperaturen, also genau dann, wenn die Ezienz der Kälteanlagen am besten ist. Einsparpotentiale dürfen daher nicht (auch nicht überschlagsweise!) über die Leistungszahl des Herstellers im Nennbetriebspunkt kalkuliert werden. Wenn im Vertragswerk mit dem Energieversorger ein Niedrigtarifanteil existiert, so wird das wirtschaftliche Einsparpotential beträchtlich geringer ausfallen als das energetische, da die Einsparungen gröÿtenteils zu Zeiten des günstigeren Strombezugs anfallen. Freie Kühlung kann üblicherweise nicht dazu beitragen, das Klimatisierungssystem in den kritischen Momenten zu unterstützen. Die Belastungsgrenze bei hohen Auÿentemperaturen bleibt bestehen. Auch die Höchstleistung des Elektrizitätsbezuges (und damit der Leistungspreis) vermindern sich durch den Einsatz von freier Kühlung nicht. Die Möglichkeit, die freie Kühlung saisonunabhängiger zu betreiben würde sich ergeben, wenn die Temperatur der Wärmesenke nicht so starken Schwankungen unterliegt. Dafür bietet sich der Untergrund mit seiner hohen Wärmekapazität an. Die Nutzung des

64 52 Kapitel 4 Gebäude- und Klimatechnik von Rechenzentren Untergrundes als Wärmequelle ist bei Wärmepumpen mittels Erdsonden, Erdwärmekollektoren oder auch durch direkte thermische Nutzung des Grundwassers mittlerweile weit verbreitet. Um den Untergrund als Wärmesenke zu nutzen erscheinen insbesondere Erdsonden für die Kühlung von Rechenzentren interessant. Ab einer Tiefe unterhalb der Oberäche (Teufe) von 15 m ist die Temperatur des Erdreichs nahezu jahreszeitenunabhängig konstant. 15m unter der Erdoberäche herrschen durchschnittlich 8 bis 12 C, weiter in der Tiefe steigt die Temperatur um etwa 3 C pro 100m [Töpfner and Fritzner, 2005]. Für den Einsatz der freien Kühlung sind also insbesondere die Erdschichten ab 15 m bis maximal 100 m Tiefe 4 interessant. Allerdings sind die hier vorherrschenden Temperaturen sehr hoch für den Einsatz der freien Kühlung. Daher kann der oberächennahe Untergrund nur als Wärmesenke genutzt werden, wenn die Temperaturen des Wärme führenden Mediums hoch sind. Insbesondere bieten sich hier direkt gekühlte Racks an, da diese im Allgemeinen mit höheren Wassertemperaturen die Luft auf die erforderlichen Temperaturen abkühlen können. Weiterhin sind Wärmeeintrag und Wärmeentzug in das Erdreich - wie bei jedem anderen Wärmeübertrager auch - in ihrer Leistungsdichte begrenzt, primär bedingt von der Wärmeleitfähigkeit des Untergrundes. Anhaltswerte für die ausschlieÿliche und ganzjährliche Nutzung als Wärmesenke sind bisher nicht bekannt. Hier herrscht noch groÿer Forschungsbedarf. Anhaltspunkte können aber beispielsweise über die VDI Richtlinie 4640 gewonnen werden 5. Der VDI empehlt spezische Wärmetransportleistungen des Wärmeentzugs zwischen 20 und 100 W pro Meter Erdsondenlänge. Diese Werte nehmen bei längerer Jahresnutzungsdauer ab, da sich der Untergrund thermisch regenerieren muss. Daher wird zusätzlich als Richtwert für eine längere saisonale Nutzung auf eine maximale jährliche Entzugsarbeit von 100 bis 150 Wh/m hingewiesen. Weiterhin soll ein Mindestabstand von fünf bis sechs Metern zwischen den Sonden eingehalten werden. Werden diese Werte nicht beachtet ist mit einer dauerhaften Veränderung der Untergrundtemperatur und einer negativen gegenseitigen Beeinussung der Sonden zu rechnen. Unter der Annahme, dass diese Richtwerte des Wärmeentzugs auch in ihrer Gröÿenordnung für den Wärmeeintrag gelten, ergibt sich, wie kritisch die hohe Leistungsdichte von Rechenzentren für diese Art der direkten Kühlung ist. Beispielhaft sei für hierzulande 4 Ab 100m Tiefe sind in Deutschland bergrechtliche Genehmigungen erforderlich, weiterhin werden in gröÿeren Tiefen die Temperaturen zu hoch für den Einsatz von freier Kühlung. 5 Die Richtwerte gelten für Kompressionswärmepumpen bis 30 kw Heizleistung.

65 4.7 Abwärmenutzung 53 gängige Erdsonden mit 100 m Bohrtiefe der Flächenbedarf aufgezeigt, um Kühllasten, wie sie bei Rechenzentren auftreten, zu kühlen. Es zeigt sich, dass der Platzbedarf für die Sonden um ein Vielfaches gröÿer ist als die eigentliche IT-Fläche. Selbst bei guter thermischer Leitfähigkeit des Bodens benötigt ein Rechenzentrum mit einer Abwärmelast von 100 kw eine Mindestäche von 500 m 2 für das Erdsondenfeld. Bei einer angenommenen IT-Leistungsdichte von 500 W/m 2 ist dies in etwa das Doppelte der eigentlichen IT-Fläche. Dieser Überlegung ist bereits zugrunde gelegt, dass der Untergrund eine halbjährliche Regenerationszeit erhält. Dies kann in der kalten Jahreszeit durch zusätzliche Luft- Freikühler erfolgen und ist unbedingt zu berücksichtigen, um den stetigen Anstieg der Temperatur der Wärmesenke zu vermeiden. Da die Temperaturdierenzen zwischen Wärmequelle und -senke bei dieser Art von Freier Kühlung der Serverräume sehr gering ausgelegt sein muss, hat ein Ansteigen der Untergrundtemperatur unweigerlich ein Ansteigen der Lufttemperatur in den Racks in gleicher Gröÿenordnung zur Folge. Dennoch ist die Kombination der freien Kühlung mit Erdsonden und Umgebungsluft eine sehr vielversprechende Option zur energieezienten Kühlung. Optimal lässt sie sich mit der Wärmerückgewinnung zu Heizzwecken erweitern. Wird im Winter die Abwärme des Rechenzentrums über eine Wärmepumpe zu Nutzwärme aufgewertet, kann sich der die Sonden umgebende Untergrund wieder abkühlen. Wenn die Freikühler bei Betrieb der Wärmepumpe nicht genutzt werden, können sie einerseits die Betriebssicherheit des Rechenzentrums erhöhen, da sie als redundante Option der Wärmeabfuhr zur Verfügung stehen. Zusätzlich können sie die Regeneration des Untergrundes aktiv beschleunigen, wenn sie zur Abfuhr der gespeicherten Abwärme der Sommerperiode eingesetzt werden. Durch die somit saisonal ausgeglichene Nutzung kann die Entzugsleistung (von Kälte und Wärme) aus dem Erdboden erhöht und dadurch der Flächenbedarf reduziert werden. 4.7 Abwärmenutzung Noch besser als die Entsorgung der Abwärme ohne gröÿere Hilfsenergien (Freie Kühlung) ist es, diese weiter nutzbringend zu verwenden. Insbesondere die groÿen und konstanten Mengen an abgegebener Wärme machen Rechenzentren interessant für die Abwärmenutzung. Allerdings wird die mögliche Zweitnutzung von Abwärme aus Rechenzentren bisher durch das geringen Temperaturniveau beschränkt, mit dem sie gewöhnlich den Serverraum verlässt (siehe Kapitel 4.3).

66 54 Kapitel 4 Gebäude- und Klimatechnik von Rechenzentren Eine Möglichkeit dieses niedrige Temperaturniveau zu nutzen besteht darin, die Abwärme als Umgebungswärmequelle für Wärmepumpen zu verwenden, d.h. unter Energieeinsatz wird die Abwärme wieder zu Nutzwärme aufgewertet. Dies ist mittlerweile Standart bei Neubauten, nicht nur weil es politisch gefordert wird, sondern auch ökologisch wie auch ökonomisch sinnvoll ist. Diese Art der Abwärmenutzung ist mittlerweile keine Seltenheit mehr und wird gerne zu Werbezwecken der Öentlichkeit zugänglich gemacht. Oft stehen aber die Relationen von Wärmeabnehmer und Abwärmeproduzent in groÿem Missverhältnis zueinander, da selten ein entsprechend hoher Wärmebedarf in unmittelbarer Nähe von Rechenzentrum vorhanden ist, wie zur Abfuhr der Abwärme notwendig wäre. Falls doch eine Wärmeabnahme in gleicher Gröÿenordnung existiert, dann meist nur für einen sehr kurzen Zeitraum im Jahr. Die Lösung für dieses Dilemma kann eine Wärmeaabfuhr auf höherem Temperaturniveau sein, denn Interessenten und Abnehmer für Wärme mit einem hohen Exergiegehalt gibt es zur Genüge. Die direkte Wärmeabfuhr am Prozessor könnte neue Möglichkeiten in der Nutzung der Abwärme von Rechenzentren erönen. Die direkte Kühlung von Prozessoren wird derzeit als sehr innovativ angepriesen, ist aber schon lange bekannt und war nur vorübergehend in der Versenkung verschwunden. Mit dieser Technik können die heiÿesten Bauteile im Rack (sogenannte Hotspots) wie z.b. Prozessoren mit einem Fluid auf die gängige Betriebstemperatur von 85 C gekühlt werden. Wobei berücksichtigt werden sollte, dass das Fluid mit möglichst hoher Temperatur das Rack verlässt. Idealerweise lassen sich hierzu sogenannte Heatpipes verwenden. Durch den Phasenübergang von üssig zu gasförmig ist der Temperaturverlust bei dieser Technik wesentlich geringer. Neben anderen Kältemitteln bietet sich als natürliches Kältemittel insbesondere CO 2 hierfür an. Aber auch mit (üssigem) Wasser und üblicher Wärmeübertragertechnik kann die Wärme auf hohem Temperaturniveau abgeführt werden. Wärme auf hohem Temperaturnivea (>60 C) kann vielfältig genutzt werden. Denkbar ist die Einspeisung in kleinere dezentrale Fernwärmenetze, ganzjährige Freie Kühlung oder gar der nutzbringende Einsatz in weiteren Prozessen. Eine an der TU Berlin entwickelte Absorptionskälteanlage, die speziell für den solaren Antrieb entworfen wurde, kann bereits ab Antriebstemperaturen von 55 C Kälte aus Wärme produzieren, mit einer sonst bei höheren Temperaturen üblichen Ezienz von COP = 0,75. Allerdings ist die Leistungsdichte bei diesen Temperaturen noch sehr gering, was dem Einsatz in gröÿeren Rechenzentren derzeit noch im Wege steht. Wenn es also möglich ist, die Wärmeabfuhr aus den Racks auf verschiedene Temperaturniveaus aufzuteilen, dann kann die Sorptionskältetechnik dazu dienen, mit dem oberen Tempe-

67 4.7 Abwärmenutzung 55 raturniveau (CPU-Abwärme) die niedertemperaturige Abwärme (sonstige Komponenten) zu kühlen. Auch eine Umwandlung von Abwärme zurück in elektrischen Strom ist ab Temperaturen von 50 C aufwärts technisch denkbar. Möglich ist die Umwandlung mit Niedertemperaturkreisprozessen in ORC- oder Kalina-Anlagen. Bei einem Temperaturniveau von 50 C könnten so 100 kw Wärme zu maximal 7 kw Strom aufgewertet werden (siehe [Schaefer, 2007]). Dies ist zwar technisch möglich, der Umsetzung in gröÿerem Stil stehen allerdings neben dem geringer Wirkungsgrad auch die sehr hohen Anlagenkosten (bedingt u.a. durch groÿe Wärmeübertragerächen) entgegen, so dass die Verstromung von Niedertemperaturwärme nur bei expliziter Förderung wie z.b. in Biogas-BHKW mit ORC-Anlage und entsprechendem Innovationsbonus (siehe [Schaefer, 2007], S. 93.) in Betracht kommt.

68 5 Kapitel Trends, Potentiale, Optionen der deutschen Rechenzentrumsbranche Im letzten Jahrzehnt konnte ein Wandel von (Hochleistungs-) Rechenzentren, als ein Nischenphänomen der Spitzenforschung, hin zu einer nahezu alle Bereiche gesellschaftlichen Handelns durchdringenden Technologie beobachtet werden. Dieser Trend lässt sich u.a. dem jährlich veröentlichten weltweiten Ranking der Top 500 Supercomputer entnehmen: Während zu Beginn der 90er der Anteil der Hochleistungsrechenzentren im Bereich Forschung (Academic / Research) bei ca. 60% lag, sind es 2007 nur noch 40%. Im Gegenzug haben Hochleistungsrechenzentren im industriellen bzw. kommerziellen Bereich (Industry) 2007 einen Anteil von knapp 60%. Anfang der 90er waren es nur 30%, siehe Abbildung % 90% 80% 70% Anteil 60% 50% 40% 30% 20% 10% 0% Not Specified Vendor Government Industry Academic / Research Abb. 5.1: Liste der Top 500 Supercomputer nach Anwendungssegmenten (Quelle Daten:

69 57 Nicht nur im Hochleistungssegement der Rechenzentren wird ein stetiges Wachstum an nachgefragten IT-Dienstleistungen verzeichnet, sondern auch in anderen Bereichen. Unternehmen nahezu aller Branchen und Gröÿenklassen implementieren immer leistungsfähigere IT- Systeme, die im Rahmen globalisierter Geschäftsprozesse rund um die Uhr verfügbar sein müssen. Kleine und mittlere Unternehmen, sowohl im Dienstleistungsbereich als auch im produzierenden Gewerbe, verzeichnen einen stetig wachsenden Bedarf an IT-Dienstleistungen, die entweder in eigenen oder ausgelagerten (Outsourcing) Rechenzentren erbracht werden. Forschungseinrichtungen und Universitäten hatten von je her einen hohen Bedarf an Rechenkapazität und stehen unter ständigem Druck ihre Rechenleistung aufzurüsten, um international konkurrenzfähig zu bleiben. Schlieÿlich hält das sogenannte E-Government, d.h. ein Regieren und Verwalten mittels Informationsund Kommunikationstechnologien, mehr und mehr Einzug in unsere Gesellschaft. All diese Anwendungsbereiche von Informationstechnologien sind auf eine Infrastruktur von Rechenzentren angewiesen, die immer leistungsfähiger aber auch energieintensiver wird. Eine vielbeachtete Studie von der US-amerikanischen Umweltbehörde EPA kam zu dem Ergebnis, dass der Strombedarf von Rechenzentren in den USA sich innerhalb von sechs Jahren mehr als verdoppelt hat. Waren es im Jahr 2000 noch 28,2 TWh sind es im Jahr 2006 bereits 61,4 TWh, was einem Anteil von etwa 1,5% des Gesamtstrombedarfs der USA entspricht. Laut [Schäppi et al., 2007a] stieg auch der Stromverbrauch westeuropäischer (EU15 + Schweiz) Rechenzentren rapide, d.h. um 34% im Zeitraum von Mit steigenden Energiepreisen und der aktuellen Diskussion um die Klimaproblematik ist eine Neubewertung der Prioritäten der Rechenzentrumsbranche zu beobachten - nicht mehr nur die pure Leistung der Server und Prozessoren steht im Mittelpunkt, sondern Energieezienz und Klimafreundlichkeit gewinnen an Bedeutung. Rund um das Stichwort Green IT entstanden in jüngster Zeit eine Vielzahl Initiativen, wie z.b. Green Grid ein globales Industrie-Konsortium zur Steigerung der Energieezienz in Rechenzentren, die Initiative der Europäischen Kommission für einen freiwilligen europäischen Verhaltenkodex für Rechenzentren (European Code of Conduct for Data Centres), und nicht zuletzt war auf der diesjährigen CeBIT Green IT das zentrale Thema. Ungeachtet dessen, scheint dieser zaghafte Trend durch die steigende Nachfrage nach Rechen- und Speicherleistung überkompensiert zu werden. So kommen denn auch [EPA, 2007] und [Schäppi et al., 2007a] zu dem Ergebnis, dass sich bei Fortschreibung der aktuellen Trends der Energieverbrauch von Rechenzentren in den USA und Europa (EU27) in einem Zeitraum von 2006 bis zum Jahr 2011 noch einmal mehr als verdoppeln wird [EPA, 2007], [Schäppi et al., 2007a].

70 58 Kapitel 5 Trends, Potentiale, Optionen der deutschen Rechenzentrumsbranche Angesichts der hohen Dynamik dieser jungen Branche sind nicht nur Prognosen bzw. Szenarien zukünftiger Entwicklungen mit groÿen Unsicherheiten behaftet, sondern auch die Beschreibung des Staus Quo. Die energiewirtschaftliche Erforschung von Rechenzentren auf Länder- und Rechenzentrumsniveau steckt noch in den Kinderschuhen. So liegen zum Beispiel weder über die Anzahl noch über die Struktur von Rechenzentren amtliche Statistiken oder sonstige belastbare Informationen vor. Für eine solide energiepolitische Debatte sind sowohl Industrieverbände als auch Politiker auf verlässliche Strombedarfsanalysen angewiesen. Eine solche Analyse ist Gegenstand dieses Abschnittes. Die Analyse stützt sich dabei im Wesentlichen auf zwei Säulen: Die Auswertung des im Rahmen des Projektes erstellen Fragebogens Energie- und Ressourcenezienz im Betrieb von Rechenzentren und die Analyse von Statistiken über den Servermarkt in Deutschland. 5.1 Der Fragebogen Energie und Ressourceneffizienz im Betrieb von Rechenzentren Bisher existiert für Deutschland keine Erhebung bezüglich des Energieeinsatzes in Rechenzentren. Um die Bedeutung des Themas Energieezienz im Betrieb deutscher Rechenzentren abschätzen zu können, wurde im Rahmen der Studie ein umfangreicher Fragebogen entworfen. Zielsetzung war es detaillierte Einblicke in die derzeitige energietechnische Situation von Rechenzentren zu erlangen, die Energieezienz der Rechenzentren untereinander zu vergleichen und aufbauend darauf Potentiale zur Energieezienzverbesserung zu identizieren. Bei der Gestaltung des Fragebogens wurden zwei wesentliche Bereiche unterschieden. Zum einen wurden technische Informationen abgefragt und zum anderen strukturelle Informationen. Da die relevanten Informationen zur Beantwortung des Fragebogens in den Unternehmen in der Regel in mindestens 2 unterschiedlichen Abteilungen (IT-Bereich und Gebäudemanagement) vorliegen, wurde der Fragebogen aus praktischen Gründen in 2 Teile aufgeteilt, die unabhängig von einander ausgefüllt werden können. Aufgrund der Komplexität des Systems Rechenzentrum sind für den Fragebogen jedoch teilweise sehr detaillierte Fragestellungen insbesondere im technischen Teil notwendig, die sich negativ auf den Fragebogenrücklauf ausgewirkt haben dürften. Die technischen Informationen aus dem Fragebogen bilden zusammen mit den Ausschlusskriterien (Kapitel 3.1) die Grundlage für die in den Kapiteln 6 und 7 angedachten

71 5.2 Auswertung des Fragebogens 59 praktischen Lösungsmöglichkeiten. Ein wesentliches Augenmerk lag hier auf innovativen Technologien, die eine möglichst breite Anwendung nden. In der umfassenden Endversion hat der Fragebogen (siehe Anhang) einen Umfang von 7 Seiten und umfasst 65 Fragen aus den Bereichen Informationstechnik, Stromversorgung, Klimatisierung, Sicherheitskonzept und Unternehmensstruktur. Im Laufe der Untersuchungen wurde eine gekürzte Online-Version des Fragebogens mit 25 Fragen erstellt. Die Online-Version des Fragebogens kann unter https://ensys2.service.tu-berlin.de/survey_rz aufgerufen werden. 5.2 Auswertung des Fragebogens Die Verteilung der befragten Rechenzentren nach Branchen und Beschäftigtengröÿenklassen ist Abbildung 5.2 zu entnehmen. Insgesamt wurden 31 Rechenzentren von 28 unterschiedlichen Betreibern erfasst. Der Anteil kommunaler IT-Dienstleister (kommunale IT-DL) dominiert die Erhebung, gefolgt von der Branche Internet, Webhosting und Colocation. Sonstige Forschung / Hochschule 500 Beschäftigte; 12 Internet Webhosting Colocation Keine Angabe ; 2 Öffentliche Verwaltung kommunale IT-DL Beschäftigte; Beschäftigte; Beschäftigte; 4 Abb. 5.2: Aufteilung der befragten Rechenzentren nach Branchen und Beschäftigtengröÿenklassen Nach diesen Branchen folgen Hochschulen und Forschungseinrichtungen sowie Rechenzentren der öentlichen Verwaltung. In der Branche Sonstige sind ein Energieversorger und ein Finanzdienstleister vertreten. Ein Groÿteil der befragten Rechenzentren ist Unternehmen bzw. Organisationen zugehörig, die mehr als 500 Beschäftigte haben. Unternehmen mit sowie Beschäftigen sind in etwa gleich stark vertreten IT-Struktur und Größe der Rechenzentren Die Gröÿe der erfassten Rechenzentren weist eine sehr hohe Spannweite auf. Legt man als Gröÿenmaÿstab die Anzahl der Server zugrunde, so zeigt sich, dass das kleinste der

72 60 Kapitel 5 Trends, Potentiale, Optionen der deutschen Rechenzentrumsbranche erfassten Rechenzentren gerade mal 2 Dutzend Server beherbergt, während im gröÿten Rechenzentrum mehrere zehntausend Server betrieben werden. Abbildung 5.3 stellt die Verteilung der Häugkeitsdichte und die absolute Häugkeit der Anzahl Server in den erfassten Rechenzentren dar. Zusätzlich zeigt Abbildung 5.3 einen Boxplot in logarithmischer Skalierung, um den gesamten Datenbereich abbilden zu können. Das Histogramm berücksichtigt nur Rechenzentren mit weniger als Servern. Dem Boxplot ist zu entnehmen, dass das Minimum der Anzahl der Server bei 25, der Median bei 180 und das Maximum bei Servern liegt. Für die Ausreiÿer nach oben ist die Branche Internet / Webhosting / Colocation verantwortlich, in der riesige Serverfarmen vertreten sind. 75% der erfassten Rechenzentren betreiben jedoch weniger als 500 Server. Die Verteilung zeigt, dass die meisten der befragten Rechenzentren zwischen 100 und 200 Server betreiben, nur 4 Rechenzentren haben weniger als 100 Server. 0,0045 0,004 n=10 n=26 0, Häufigkeitsdichte 0,003 0,0025 0,002 0,0015 0,001 n=4 n= Anzahl Server (log. Skalierung) 0, Anzahl der Server n=4 Abb. 5.3: Häugkeitsdichte, absolute Häugkeit und Boxplot der Anzahl Server in Rechenzentren Ebenso wie bei der Anzahl der Server zeigen sich logischerweise auch in den IT-Flächen erhebliche Gröÿenunterschiede. Während das kleinste Rechenzentrum eine IT-Fläche von weniger als 50 m 2 hat, weist das gröÿte Rechenzentrum eine IT-Fläche von mehr als einem Hektar auf (siehe Abbildung 5.4). Die Branche Internet / Webhosting / Colocation ist auch hier verantwortlich für Ausreiÿer nach oben. Abbildung 5.4 zeigt die Verteilung der Häugkeitsdichte und die absolute Häugkeit der IT-Flächen in den erfassten Rechenzentren. Auch hier wurde zusätzlich ein Boxplot in logarithmischer Skalierung zugefügt. Der Boxplot zeigt, dass das kleinste Rechenzentrum eine Fläche von 40 m 2 hat, der Median der IT-Flächen bei 288 m 2 liegt und das gröÿte Rechenzentrum eine IT-Fläche von m 2 hat. Rechenzentren mit Flächen zwischen

73 5.2 Auswertung des Fragebogens 61 0,0035 n=30 0, Häufigkeitsdichte 0,0025 0,002 0,0015 0,001 n=2 n=9 n= IT-Fläche in m 2 (log. Skalierung) n=5 0,0005 n= IT-Fläche (m 2 ) Abb. 5.4: Häugkeitsdichte, absolute Häugkeit und Boxplots der IT-Flächen in m und 250 bis 500 m 2 sind am häugsten vertreten. Nur zwei der befragten Rechenzentren haben Flächen kleiner als 100 m 2. Bei der Betrachtung spezischer Kenngröÿen zeigt sich ebenfalls eine hohe Heterogenität zwischen den Rechenzentren, jedoch ist hier die Spannweite nicht so eklatant. Abbildung 5.5 zeigt das Histogramm der spezischen Leistungsaufnahme der Server. Diese wurde ermittelt aus Angaben über den IT Strombedarf, einer angenommen jährlichen Betriebszeit von Stunden und der Anzahl der Server. 0,006 0,005 n=4 Häufigkeitsdichte 0,004 0,003 0,002 n=3 n=6 0,001 n= Watt pro Server Abb. 5.5: Häugkeitsdichte und absolute Häugkeit der spezischen Leistungsaufnahme von Servern Folglich sind die ermittelten Werte eine Überschätzung des Energiebedarfs von Servern, da mangels Information der gesamte IT-Stromverbrauch den Servern zugewiesen wurde und keine Allokation auf die übrigen IT Komponenten, wie Speicher und Netzwerktechnik,

74 62 Kapitel 5 Trends, Potentiale, Optionen der deutschen Rechenzentrumsbranche stattfand. Abgesehen davon lässt sich Abbildung 5.5 entnehmen, dass einige Rechenzentren Leistungsaufnahmen der Server von unter 100 Watt realisieren können, während bei anderen Rechenzentren die Leistungsaufnahme 500 Watt überschreitet. Diese Tatsache ist weniger unterschiedlichen Ezienzen der Server geschuldet, denn den unterschiedlichen Betriebsanforderungen an die Server selbst. So sind die Verbräuche unter 100 Watt gröÿeren Webhostern zuzuordnen die für ihre Bedürfnisse maÿgeschneiderte Server betreiben. Eine Beurteilung der Ezienz der einzelnen Server kann auf Basis dieser Daten nicht erfolgen. Häufigkeitsdichte 0,002 0,0018 0,0016 0,0014 0,0012 0,001 0,0008 0,0006 0,0004 0,0002 n= n=10 n=6 n=5 n= Leistungsdichte der IT (W/m 2 ) Leistungsdichte der IT in W/m 2 Abb. 5.6: Häugkeitsdichte und absolute Häugkeit der IT-Leistungsdichte Schlieÿlich ist Abbildung 5.6 die IT-Leistungsdichte, gemessen als Nennleistung der IT pro Quadratmeter zu entnehmen. Der Groÿteil der Rechenzentren hat eine Leistungsdichte zwischen 500 und 800 W/m 2. Das Minimum der Leistungsdichte liegt bei 160 W/m 2, der Mittelwert bei 800 W/m 2 und die maximale Leistungsdichte bei W/m 2. Die meisten der Rechenzentren weisen eine Leistungsdichte zwischen 500 und 800 W/m 2 auf Struktur der Stromversorgung und Bezugspreise Im Rahmen des Fragebogens wurde die Jahresleistungsspitze der Rechenzentren abgefragt. Auch diese spiegelt nochmals die eklatanten Gröÿenunterschiede der Rechenzentren wider. Während das kleinste Rechenzentrum eine Jahresleistungspitze vergleichbar mit zwei Durchlauferhitzern aufweist (ca. 40kW), kann dem gröÿten der Rechenzentren ein typisches Zementwerk 1 mit einer Jahresproduktion von kt Zement gegenüberge- 1 Daten aus [Klobasa, 2007]

75 5.2 Auswertung des Fragebogens 63 stellt werden (ca. 15 MW). Abbildung 5.7 zeigt den Boxplot der aufgenommen Leistungsspitzen in logarithmischer Skalierung. Das Minimum der Leistungsspitzen liegt bei 37kW, der Median bei 350 kw und das Maximum bei kw bzw. 13,5 MW. n= Jahresspitzenlast in kw (log. Skalierung) Abb. 5.7: Boxplot der Jahresleistungsspitzen Die unterschiedlichen Daten zur Struktur der Stromversorgung wurden herangezogen, um die Rechenzentren in Strompreiskategorien einzuordnen. Bei Rechenzentren, die keine Angaben bzgl. ihres Stromverbrauchs machen konnten, wurden andere Indikatoren wie z.b. Auslegung der USV, IT-Fläche, Anzahl der Server etc. herangezogen, um abzuschätzen in welche Strompreiskategorie diese Rechenzentren fallen. In Abbildung 5.8 sind diese Daten wiedergegeben. Die Strompreise sowie deren Kategorisierung basieren auf [Eurostat, 2008]. Ein Groÿteil der Rechenzentren sind den Strompreiskategorien 0,9 bzw. 0,10 EUR/kWh zuzuordnen. Der mittlere Strompreis über alle Kategorien hinweg liegt bei 0,10 EUR/kWh IC = 0,10 /kwh 10 ID = 0,09 /kwh Häufigkeit IB = 0,12 /kwh 2 IE = 0,08 /kwh 0 20 MWh < Verbrauch < 500 MWh 500 MWh < Verbrauch < MWh MWh < Verbrauch < MWh Strompreiskategorien nach Eurostat MWh < Verbrauch < MWh Abb. 5.8: Geschätzte Strombezugspreise 2007 der Rechenzentren ohne MwSt. Ein weiteres wichtiges Merkmal des Strombezugs ist die Aufteilung des Verbrauchs auf die Niedertarif-(NT) (nachts) und Hochtarifzeiten (HT) (tagsüber). Nur von 7 Rechenzentren konnten diesbezüglich Daten erhoben werden. Bei diesen Rechenzentren lag der

76 64 Kapitel 5 Trends, Potentiale, Optionen der deutschen Rechenzentrumsbranche Niedertarifanteil des Strombezugs zwischen 30 und 60%, der Mittelwert lag bei 45% 2. Generell ist davon auszugehen, dass Rechenzentren einen relativ konstanten Lastgang aufweisen, das heiÿt über den Tageslauf ist die elektrische Last nur geringen Schwankungen unterworfen. Das führt dazu, dass bei Rechenzentren einer hoher NT-Anteil (>40%) zu erwarten ist. Diese Tatsache ist bei Wirtschaftlichkeitsberechnungen einiger Energieezienzmaÿnahmen, wie z.b. freie Kühlung, von Bedeutung (siehe auch Kapitel 4.6) Freie Kühlung Die meisten (21) der befragten Rechenzentren besitzen die Möglichkeit freie Kühlung einzusetzen. 14 der Rechenzentren betreiben indirekte freie Kühlung und 7, meist kleinere, betreiben direkte freie Kühlung. Trotz des hohen Anteils von Rechenzentren die freie Kühlung einsetzten gibt es noch groÿes Optimierungspotential. In Abbildung 5.10 sind für ausgewählte Rechenzentren die Rücklauftemperaturen des Kaltwassersatzes, die Temperaturen ab der die Rechenzentren angaben, freie Kühlung zuzuschalten bzw. auf freie Kühlung umzuschalten und die entsprechenden Temperaturdierenzen aufgetragen. Wenden Sie das Prinzip der (in-) direkten freien Kühlung an? Nein 10 JA 21 Indirekte 14 Direkte 7 Abb. 5.9: Freie Kühlung Zusätzlich wird zwischen solchen Rechenzentren unterschieden, die angaben ihr Freikühlsystem sei für einen hybriden Betrieb ausgelegt und solchen, die angaben, dass ihre Freikühlanlage nur für den alternativen Betrieb, d.h. entweder 100% freie Kühlung oder 100% Kälteanlage, ausgelegt ist. Während z.b. Rechenzentrum 28, 20 und 17 ihre hybride freie Kühlung optimal einsetzen, verschenken die übrigen Rechenzentren mit hybriden Freikühlsystemen wertvolles Potential. Im optimalen Einsatz wird der Freikühler bzw. das Freikühlregister zugeschaltet, sobald die Umgebungstemperatur mehr als ca. 1-3K unter die Rücklauftemperatur des Kaltwassersatzes fällt (vgl. Kapitel 4.6, siehe auch Rechenzentrum 28, 20 und 17). Bei den Rechenzentren 5 und 12 beispielsweise ist dies jedoch 2 Dabei ist zu beachten, dass die HT- und NT-Zeiten je nach Energieversorger unterschiedlich sein können

77 5.2 Auswertung des Fragebogens 65 nicht der Fall. Sie schalten ihre freie Kühlung erst ab einer Temperaturdierenz von 5K zu. Würden diese Rechenzentren bereits ab einer Temperaturdierenz von 2K ihren Freikühler einsetzten, könnten sie in der Klimazone Berlin ca Stunden länger im Mischbetrieb frei kühlen. Somit verschenken diese Rechenzentren unter Umständen wertvolles Ezienzpotential. Bei Rechenzentrum 6 und Rechenzentrum 14, wiederum sind Freikühlregister derart ausgelegt, dass ab einer Temperaturdierenz von nur 8K bzw. 9K zu 100% frei gekühlt werden kann. 25 Temperatur C Hybrid; =2 Hybrid; =2 Hybrid; =2 Hybrid; =3 Hybrid; =4 Hybrid; =4 Hybrid; =5 Hybrid; =5 Nein; =8 Nein; = Laufnummer Rechenzentrum Freie Kühlung in Abhnängigkeit der Außentemperatur Rücklauftemperatur Kaltwassersatz Abb. 5.10: Freie Kühlung in Abhängigkeit der Auÿentemperaturen Es ist fraglich, ob diese Rechenzentren nicht eher die Ausgaben für den oensichtlich sehr groÿ ausgelegten Freikühler in eine hybride freie Kühlung hätten investieren sollen, die schon bei wesentlich kleiner dimensionierten Freikühlern ein höheres Gesamtpotential an freier Kühlung ausschöpft. Siehe hierzu die Ausführungen in Abschnitt Temperatur im Serverraum Im Groÿteil der Rechenzentren liegt die mittlere Serverraumtemperatur zwischen 22 und 24 C. 8 Rechenzentren streben sogar Temperaturen unter 22 C an. Nur 5 Rechenzentren erlauben Temperaturen oberhalb von 24 C. Die mittlere Raumlufttemperatur im Rechenzentrum ist direkt verknüpft mit der Temperaturpaarung des Kaltwassersatzes. Eine Anhebung der Serverraumtemperatur erlaubt es höhere Kaltwassertemperaturen zu fahren, was wiederum vielfältige Ezienzsteigerungspotentiale mit sich bringt. Beispielweise strebt Rechenzentrum 17 aus Abbildung 5.11 eine mittlere Serverraumtemperatur von 20 C Grad an, bei einer Rücklauftemperatur von 14 C. Würde dieses Rechenzentrum

78 66 Kapitel 5 Trends, Potentiale, Optionen der deutschen Rechenzentrumsbranche eine mittlere Temperatur von 24 C anstreben, könnte es eine Rücklauftemperatur von 18 C fahren und somit ca zusätzliche Betriebsstunden freie Kühlung gewinnen, legt man die Berliner Klimazone zugrunde. Höhere Benutzungsstunden der freien Kühlung sind nur die gröÿten, bei weitem nicht alle Einsparpotentiale (vgl. hierzu Abschnitt 6.3.5). 60% 50% Relative Häufigkeit 40% 30% 20% n=8 n=11 n=5 10% 0% Temperatur C Abb. 5.11: Mittlere Serverraumtemperatur Einhausung: Nur 5 der befragten Rechenzentren beantworteten die Frage Wenden die das Prinzip der Warmgang- oder Kaltgangeinhausung an? mit Ja. Kaltgang- bzw. Warmgangeinhausung verhindert die Entstehung von Luftvermischungen durch eine strikte Trennung von Warm- und Kaltluftströmen. Die hiermit verbundenen Maÿnahmen erhöhen nicht nur die Ezienz der Kühlung, sondern tragen auch zur Vorbeugung von Hot Spots bei und können sogar zusätzliche Redundanzen schaen. Da die Einhausung Voraussetzung für viele weitere Ezienzsteigerungs-Maÿnahmen entlang nachfolgender Komponenten der Klimatechnik-Kette ist, herrscht bei den befragten Rechenzentren noch immenser Nachholbedarf wie auch Optimierungspotential (vgl. Abschnitte und 6.3.5). Wenden die das Prinzip der Warmoder Kaltgangeinhausung an? JA 5 Nein 24 Abb. 5.12: Einhausung

79 5.2 Auswertung des Fragebogens 67 Abwärmenutzung: In 6 der befragten Rechenzentren wird die Abwärme des Rechenzentrums weiter zur Heizungsunterstützung oder zur Warmwasserbreitung genutzt. Diese Maÿnahme bietet sich nur an, wenn auch Verbraucher vor Ort sind, d.h. im Gebäude, in dem sich das Rechenzentrum bendet, eine Mischnutzung z.b. durch eine groÿe Anzahl von Büros vorliegt. Die Nutzung der Abwärme ist energetisch die sinnvollste Variante, allerdings müssen sich die Dimensionen von Abwärmelast und Wärmebedarf der Verbraucher ähneln, um wirkliche Ezienzsteigerungen des Rechenzentrums hervorzurufen. Oftmals ist die Abwärme von Rechenzentren wesentlich gröÿer als der Heizwärmebedarf vor Ort. Abhilfe könnten hier gröÿere Verbundnetze schaen. Wird die im Rechenzentrum anfallende Abwärme energetisch weiter verwendet? JA 6 Nein 25 Abb. 5.13: Abwärmenutzung Beurteilung der Energieeffizienz: Energy Usage Effectiveness (EUE) Wie in Kapitel 3.3 erläutert, ist der PUE bzw. EUE Wert ein Maÿ für die Energieezienz der im Rechenzentrum eingesetzten Gebäudeinfrastruktur. Der EUE ist der Quotient aus dem jährlichen Gesamtstrombedarf eines Rechenzentrums und dem jährlichen Strombedarf der IT-Geräte. Der EUE entspricht dem Jahresmittelwert des PUE. Aus den in Kapitel 3.3 genannten Gründen ist der EUE dem PUE vorzuziehen und deshalb konzentrierte sich die Untersuchung auf die Erhebung von EUEs. Im Rahmen der Analyse konnten 18 EUE erhoben werden, die Mittels der umfangreichen technischen Angaben auf Plausibilität geprüft werden konnten. Ein EUE-Wert hielt diesen Plausibilitätsprüfungen nicht stand. Die verbleibenden 17 EUEs hielten der Plausibilitätsprüfung stand und sind in Abbildung 5.14 wiedergegeben. Alle bis auf einen der EUE Werte sind kleiner gleich 2. Rechenzentrum 16 hat einen EUE von 2,77 was impliziert, dass für jede von der IT verbrauchte kwh Elektrizität weitere 1,7 kwh für die Gebäudeinfrastruktur benötigt wurden. Das Rechenzentrum 25, im Diagramm rot eingefärbt, weist einen EUE von 1,23 auf. Dieser niedrige EUE-Wert ist dadurch zu erklären, dass der EUE in seiner derzeitigen Form

80 68 Kapitel 5 Trends, Potentiale, Optionen der deutschen Rechenzentrumsbranche 3,0 2,77 Energy Usage Effectiveness 2,5 2,0 1,5 1,0 0,5 1,80 1,90 1,32 2,00 1,47 1,85 1,66 1,45 1,80 1,43 1,40 2,00 (1,23) 1,71 1,67 1,62 0, Kennung Rechenzentrum Abb. 5.14: Energy Usage Eectiveness von 17 Rechenzentren nur den elektrischen Energiebedarf nicht aber andere Energieformen, die zur Kälteerzeugung eingesetzt werden können, berücksichtigt. Rechenzentrum 25 betreibt eine thermisch angetriebene Absorptionskälteanlage (siehe Kapitel 4, Sorptions-Kältemaschine), deren Wärmequelle im EUE keinerlei Berücksichtigung ndet. Zur Berücksichtigung anderer Energieformen als Elektrizität im EUE könnten in erster Näherung Primärenergiefaktoren benutzt werden. Dieser Sachverhalt ist auch relevant für die Bewertung der energetischen Weiterverwendung der Abwärme eines Rechenzentrums z.b. zu Raumwärmezwecken, die die Energieezienz über die Systemgrenzen eines Rechzentrums hinweg positiv beeinussen, da an anderer Stelle Heizenergie eingespart wird. Nicht zuletzt aus Gründen der Datenverfügbarkeit und der damit verbundenen Vergleichbarkeit der EUE- Werte innerhalb dieser Studie und mit in anderen Studien erhobenen EUE bzw. PUE Werten, wurde auf eine primärenergetische oder exergie-basierte Korrektur der EUE Werte verzichtet 3. Für die weiteren Betrachtungen wurde der EUE von Rechenzentrum 25 auÿen vor gelassen. Um die ermittelten EUE-Werte einordnen zu können, stellt sich die Frage, ab welchem Wert des EUE ein Rechenzentrum ezient ist. Wie in Kapitel 3.3 erläutert, wird in der derzeitigen Diskussion zumeist von PUE Werten ausgegangen. Häug wird ein branchenweiter durchschnittlicher PUE von 2 angenommen [EPA, 2007], [Koomey, 2007b], [Schäppi et al., 2007a]. Diese Annahme konnte bisher empirisch nicht belegt werden. Im Gegenteil, alle derzeitigen Studien weisen jahresdurchschnittliche PUE bzw. EUE Werte unter 2 auf. 3 Eine primärenergetische Analyse wird für zukünftige Betrachtungen empfohlen.

81 5.3 Schlussfolgerungen aus dem Fragebogen 69 Min Mittel Max Anzahl RZ Quelle USA (PUE) 1,33 1,86 3,03 19 (Greenberg, Mills et al. 2006) Deutschland (EUE) - 1,67-11 (ECO 2008) Niederlande(EUE) 1,4 1,65 1,89 - (Clevers and Verweij 2007) Deutschland (EUE) 1,32 1,74 2,77 16 vorliegende Studie Tab. 5.1: PUE und EUE Werte von Rechenzentren in Deutschland, den Niederlanden und den USA Tabelle 5.1 gibt Auskunft über international erhobene PUE und EUE Werte. Es zeigt sich, dass in allen Studien Durchschnittswerte von unter 2 gefunden wurden. Weiterhin konnte keine dieser Studien einen signikanten Zusammenhang zwischen der Gröÿe eines Rechenzentrums und dessen EUE bzw. PUE feststellen. 5.3 Schlussfolgerungen aus dem Fragebogen Die Ergebnisse des Fragebogens unterstreichen die Heterogenität der Rechenzentrumslandschaft in Deutschland. Die Gröÿenunterschiede gemessen in: Servern: reichen von einigen Dutzend Servern bis hin zu mehreren zehntausend. Quadratmetern: reichen von 40 m 2 bis hin zu Rechenzentren mit IT-Flächen gröÿer als ein Fuÿballfeld. Jahresleistungsspitzen: von 2 Durchlauferhitzern (40 kw) bis hin zu Leistungsaufnahmen im MW-Bereich, die vergleichbar sind mit Industrieanlagen, wie beispielsweise Zementwerken. Weiterhin geht aus dem Fragebogen hervor, dass viele Rechenzentren bereits das Prinzip der freien Kühlung anwenden. Dies steht im Gegensatz zu den USA. [EPA, 2007] konstatiert in Zusammenhang mit der Diskussion des PUE in Abhängigkeit der klimatischen Bedingungen hierzu: However, climate is expected to signicantly aect infrastructure eciency only in data centers with economizers [freie Kühlung], which is currently only a small portion of U.S. data Centers( [EPA, 2007], S. 39). Ferner sind die erhobenen EUE Werte ein Hinweis darauf, dass die Rechenzentren bzw. die Gebäudeinfrastruktur in Rechenzentren ezienter ist als allgemeinhin allgemeinhin in der Öentlichkeit kommuniziert wird. Diese Erkenntnis stützt sich nicht nur auf die Ergebnisse der vorliegenden Studie, sondern konnte auch durch andere nationale [ECO, 2008] und internationale Studien [Greenberg et al., 2006a] und [Sijpheer, 2008] bestätigt werden.

82 70 Kapitel 5 Trends, Potentiale, Optionen der deutschen Rechenzentrumsbranche Dennoch bleibt festzuhalten, dass u.a. in den Bereichen Kaltgangeinhausung, Abwärmenutzung, Serverraumtemperaturen und Optimierung der Vor- und Rücklauftemperaturen noch Einsparpotentiale vorhanden sind. Wobei hier zu beachten ist, dass diese Maÿnahmen Wechselwirkungen unterworfen sind. Weiterhin besteht noch ein groÿes Dezit im Monitoring des Energiebedarfs sowie in der Schaung richtiger Anreize zur Energieef- zienz in der betriebsinterner Kosten und Leistungsrechnung, welche die Grundvoraussetzung zur Ermittlung und Erschlieÿung von Energieezienzpotentialen ist. So gaben z.b. nur 12 Rechenzentren an, den Strombedarf der IT und Infrastruktur in der betriebsinternen Kostenrechnung verursachungsgerecht aufzuschlüsseln. Damit fehlt häug die Grundlage für die nachhaltige Verbesserung der Energieezienz im Betrieb eines Rechenzentrums. Trotz dieser ersten Einsichten besteht noch erheblicher Forschungsbedarf sowohl auf Rechenzentrum-Niveau als auch branchenweit. Die Befragung hat sich als probates Mittel erweisen erste Einsichten über Energiebedarfsstruktur und Verbesserungspotentiale von Rechenzentren in Deutschland zu gewinnen. Für die Zukunft sollte ein regelmäÿiges Monitoring einer groÿen Stichprobe von mindestens 20 Rechenzentren angestrebt werden. 5.4 Anzahl und Größenstruktur der Rechenzentren in Deutschland Da es weder Statistiken noch vergleichbares Material zu Anzahl und Struktur von Rechenzentren in Deutschland gibt, wird zur Abschätzung des Marktvolumens und Wachstums im Bereich Rechenzentren der Serverbestand Hauptindikator herangezogen. Mit einem Anteil von 38% des Serverbestandes sind die USA der weltweit gröÿte Servermarkt, gefolgt von der Europäischen Union (EU 27) (25%) und dem asiatisch-pazischen Raum (ohne Japan) (16%) (Abbildung 5.15). Deutschland hält einen 20%-igen Anteil des europäischen (EU 27) und 5%-igen Anteil des weltweiten Serverbestandes. Im vergangenen Jahrzehnt verzeichnete der Servermarkt ein exponentielles Wachstum. Weltweit nahm der Serverbestand von 9,4 Mio. im Jahr 1998 auf 29 Mio. im Jahr 2006 zu. In Deutschland wuchs der Serverbestand von 400 Tsd. auf 1,4 Mio. im gleichen Zeitraum. Dies entspricht durchschnittlichen jährlichen Wachstumsraten von 15% weltweit bzw. 17% für Deutschland. Analysiert man jedoch die Serverklassen High-end, Mid-range und Volume Server im Einzelnen, so wird deutlich, dass dieses ernorme Wachstum, sowohl in Deutschland als auch weltweit, ausschlieÿlich von Volume Servern getragen wurde (siehe Abbildung 5.16). Während sich der Bestand an Mid-range und High-end Servern um ca.

83 5.4 Anzahl und Größenstruktur der Rechenzentren in Deutschland 71 Weltweiter Serverbestand 2006: 29 Mio. Asiatischpazifischer Raum (ohne Japan) 16% Japan 8% Rest der Welt 13% EU 27 25% EU 26 20% Deutschland 5% USA 38% Abb. 5.15: Aufgliederung des weltweiten Serverbestands in 2006 nach ausgewählten Ländern und Regionen (Quellen: [Koomey, 2007b], [Schäppi et al., 2007b], [IDC, 2008]) 20% bzw. 30% verringerte, weist der Markt für Volume Server ein stetiges und starkes Wachstum auf. So verfünachte sich der Bestand an Volume Servern von 1998 bis Waren im Jahr 1998 nur 78% des Serverbestands Volume Server, sind es 2007 bereits 95%. Der Anteil von Mid-range Servern am Bestand sank im gleichen Zeitraum von 20% auf 4%, der Anteil der High-end Server von 1% auf 0,3%. 6, Index Serverbestand (1998=1) 5,0 4,0 3,0 2,0 1,0 4,7 1,0 1,0 1,0 1,0 0,8 0,7 3,9 0,0 Volume servers Mid-range servers High-end servers Gesamt Abb. 5.16: Entwicklung des Serverbestands in Deutschland (Index 1998=1) (Quelle: [IDC, 2008]) Disaggregiert man den Serverbestand in Deutschland nach Unternehmens- bzw. Organisationsgröÿenklassen, so zeigt sich, dass im Jahr 2007 ca. 36% der Server in Unternehmen mit mehr als Mitarbeitern installiert waren (Abbildung 5.17). In Kleinstunternehmen mit bis zu 9 Mitarbeitern sind ca. 21% des Serverbestands zu nden, während

84 72 Kapitel 5 Trends, Potentiale, Optionen der deutschen Rechenzentrumsbranche sich die restlichen 43% des Serverbestandes nahezu homogen auf die übrigen Mitarbeitergröÿenklassen verteilen. Unternehmen mit mehr als Mitarbeitern stellen nur 0,4 Promille der deutschen Unternehmen, wohingegen 90% der deutschen Unternehmen Kleinstunternehmen mit weniger als 10 Mitarbeitern sind. > Mitarbeiter Anteil der Unternehmen* Anteil am Serverbestand** Mitarbeitergrößenklassen 500 bis 999 Mitarbeiter 200 bis 499 Mitarbeiter 100 bis 199 Mitarbeiter 20 bis 99 Mitarbeiter 10 bis 19 Mitarbeiter 1 bis 9 Mitarbeiter -100% -75% -50% -25% 0% 25% 50% 75% 100% Abb. 5.17: Prozentuale Verteilung von Servern und Unternehmen in Deutschland 2007 nach Mitarbeitergröÿenklassen (Quellen: *: [IFM, 2008], [Destatis, 2007] **: [TechConsult, 2008a]) Entscheidende Hinweise auf die Struktur und Anzahl von Rechenzentren in Deutschland gibt die Betrachtung der Verteilung des Serverbestands nach Servergröÿenklassen. Aus Abbildung 5.18 wird ersichtlich, dass ein Groÿteil des Serverbestandes in Deutschland als Stand-Alone Server (30%), bzw. in 2er Clustern (11%) betrieben werden. Weiterhin zeigt sich, dass ca. 30% des Serverbestandes in Rechenzentren untergebracht sind, die mehr als 250 Server beherbergen. Allein 17% der Server werden in Groÿrechenzentren mit mehr als 800 Servern betrieben. Zur weiteren Analyse der Rechenzentrumslandschaft in Deutschland wurde eine Klassi- kation nach 6 Raumtypen bzw. Rechenzentrumsgröÿenklassen vorgenommen (Tabelle 5.2). Als wesentliches Kriterium zur Klassikation diente die Anzahl der Server. Anzahl inst. Server Anteil Bestand 2007 Anzahl *) Serverschrank <2 Server 41% Serverraum 3-10 Server 7% Kleines Rechenzentrum Server 15% Rechenzentrum Server 6% 663 Mittleres Rechenzentrum Server 14% 437 Groÿrechenzentrum > 800 Server 17% 359 Tab. 5.2: Verteilung von Servern nach Raumtypen in Deutschland 2007, *) Quotient aus Gesamtanzahl Server je Raumtyp und der mittleren Klassenbreite der Server-Gröÿenklassen bzw. der Klassenuntergrenze für den Raumtyp Groÿrechenzentren. (Quellen: [TechConsult, 2008b], eigene Erhebung)

85 5.4 Anzahl und Größenstruktur der Rechenzentren in Deutschland 73 > 800 Server 17% Server 14% 1 Server 30% Server 6% 2 Server 11% Server 15% 3-10 Server 7% Abb. 5.18: Serverbestand 2007 nach Servergröÿenklassen (Quelle: [TechConsult, 2008b], Eigene Erhebungen) Die ursprüngliche Verteilung beruht auf einer Hochrechnung von [TechConsult, 2008b] nach Gröÿenklassen 1 Server, 2 Server, 3-5 Server, 6-10 Server, Server, Server, Server, Server, und mehr als 200 Servern [TechConsult, 2008b]. Durch eigene Recherchen, die u.a. den in dargestellten Fragebogen einschlieÿen, konnte ein Datensatz von n=52 Rechenzentren mit mehr als 200 Servern erhoben werden. Auf dieser Basis wurde die Verteilung von [TechConsult, 2008b] über die Gröÿenklasse von mehr als 200 Servern hinaus weiter disaggregiert. Ausgehend von einem Gesamtbestand an Servern von im Jahr 2007 [TechConsult, 2008a] 4 gibt es nach diesen Schätzungen in Deutschland ca Serverräume und ca Rechenzentren. Zählt man auch Serverräume zu Rechenzentren, so ergibt sich eine Gesamtanzahl von ca Rechenzentren in Deutschland. Diese Zahl ist um ca kleiner als die von Fichter geschätzte Anzahl von Rechenzentren in Deutschland [Fichter, 2007]. Basierend auf einer Befragung von 15 Experten schätzt [Fichter, 2007] die Anzahl der Rechenzentren in Deutschland auf (vgl. [Fichter, 2007]). Im Gegensatz dazu, basiert die oben dargestellte Verteilung der Server nach Gröÿenklassen und die daraus abgeleitete Anzahl von Rechenzentren von , bzw. inklusive Serverräume von auf einer Befragung von deutschen Unternehmen. Weiterhin ist auch für andere Länder bzgl. der Anzahl von Rechenzentren von wesentlich kleineren Gröÿenordnungen die Rede. So schätzt z.b. die US-amerikanische Energiebehörde für Energieezienz und Erneuerbare Energien die Anzahl der Rechenzentren in den USA auf 7.000; 10% dieser Rechenzentren seien bundesstaatlich ( [EERE, 2008]). 4 Vergleich hierzu die Ausführungen in bzgl. der Unterschiede in der Erhebungsmethodik und den ausgewiesenen Serverbeständen nach IDC und TechConsult.

86 74 Kapitel 5 Trends, Potentiale, Optionen der deutschen Rechenzentrumsbranche 5.5 Strombedarf der Rechenzentren in Deutschland (1998 bis 2008) Die nachfolgende Analyse wurde in [Dittmar and Schaefer, 2008] erarbeitet und wird in ihren wesentlichen Grundzügen dargestellt Methodische Ansätze zur Strombedarfsmodellierung von Rechenzentren Im Kontext quantitativer Energiebedarfsanalysen auf Länderniveau haben sich zwei methodische Ansätze zur Energiebedarfschätzung von Rechenzentren herauskristallisiert (vgl. auch [Cremer et al., 2003]): Zum einen ein ächenbasierter Ansatz und zum anderen ein gerätebasierter Ansatz. Für einen ächenbasierten Ansatz bedarf es der Erfassung und des Monitorings der Rechenzentrumsächen sowie deren Leistungsdichten. Solche Erhebungen liegen weder für Deutschland noch für die meisten anderen Länder vor. Eine Erhebung von Rechenzentrumsächen inklusive deren Leistungsdichten ndet nach Kenntnisstand der Autoren bisher nur in den Niederlanden in regelmäÿiger Form statt [Hartkamp, 2002], [Clevers and Verweij, 2007]. Infolgedessen ist auch die derzeitige internationale Diskussion zur Energiesituation von Rechenzentren von Studien geprägt, die einen gerätebasierten Ansatz verfolgen. Zu nennen sind hier die Studien von Jonathan Koomey [Koomey, 2007b], [Koomey, 2007a], [Koomey, 2008], der US-amerikanischen Umweltbehörde EPA [EPA, 2007] sowie der im Rahmen des EU-Programms Intelligent Energy Europe veröentlichten Studie von [Schäppi et al., 2007a]. All diese Studien benutzen als Hauptindikator für den Strombedarf von Rechenzentren die Anzahl der installierten Server, klassiziert nach drei Serverklassen (Volume Server, Mid-range Server und High-end Server) 5. Diese Klassizierung der Server basiert auf der Konvention des Marktforschungsinstitutes International Data Corporation (IDC), welche wiederum allen Studien als Datengrundlage für Statistiken über den Serverbestand der jeweils untersuchten Länder bzw. Regionen diente. Der Ansatz kann formal wie folgt beschrieben werden: El RZ = P UE 8760[h] [El(i)[kW ] ANZ(i)] (5.1) i 5 Die Kategorisierung der Server beruht auf Preisklassen: Volume-Server kosten weniger als US-Dollar, Mid-range-Server kosten bis zu US-Dollar und High-end-Server über US- Dollar [IDC, 2008]

87 5.5 Strombedarf der Rechenzentren in Deutschland (1998 bis 2008) 75 Mit: i = Volume-, Mid-range- und High-end Server EIRZ(t) = Stromverbrauch aller Rechenzentren i [kwh] PUE(t) = Power Usage Eectiveness [-] El(i,t) = Spez. Stromverbrauch Servertyp i [W] ANZ(j) = Anzahl der Server Typ i Nach Gleichung 5.1 ergibt sich der Gesamtstromverbrauch von Rechenzentren als Summenprodukt der spezischen Serverstromverbräuche (El(i)) und Serverbestände (ANZ(i)) multipliziert mit der Jahresnutzungsintensität (8760) und dem PUE. Der PUE wird in diesem Ansatz als Jahresmittelwert aufgefasst (PUE*8760) und ist demzufolge äquivalent zum EUE (vgl. Kapitel 3.3.2). Als Vorreiter des oben beschriebenen Ansatzes kann die Studie von [Koomey, 2007b] gesehen werden. Die Analysen von [EPA, 2007] bauen auf den Ergebnissen von [Koomey, 2007b] auf und ergänzen diese mit Annahmen über den Strombedarf von Netzwerk- und Speichertechnik, um das Energiebedarfsbild von Rechenzentren zu vervollständigen Methodik der Daten zur Strombedarfsmodellierung deutscher Rechenzentren Prinzipiell wird der in Gleichung 5.1 beschriebene Ansatz auch für die Strombedarfschätzung deutscher Rechenzentren verwendet. Jedoch wird der in Gleichung 5.1 in Anlehnung an [EPA, 2007] um den Bedarf von Netzwerk und Speichertechnik erweitert. Mit: El RZ (t) = EUE(t) El IT (t) (5.2) El IT (t) = El Server (t) + El Netzwerk (t) + El Speicher (t) (5.3) t = Jahr El RZ = Gesamtstromverbrauch aller Rechenzentren im Jahr t [kwh]

88 76 Kapitel 5 Trends, Potentiale, Optionen der deutschen Rechenzentrumsbranche El IT = Stromverbrauch gesamte IT im Jahr t [kwh] El Server (t) = Stromverbrauch der Server im Jahr t [kwh] El Netzwerk (t) = Stromverbrauch der Netzwerktechnik im Jahr t [kwh] El Speicher (t) = Stromverbrauch der Speichertechnik im Jahr t [kwh] EUE(t) = Energy Usage Eectiveness im Jahr t [-] Nach Gleichung 5.2 und 5.3 setzt sich der Energiebedarf von Rechenzentren zusammen aus dem Energiebedarf der IT multipliziert mit dem EUE. Der Energiebedarf der IT wiederum, besteht aus der Summe von Serverstromverbrauch, Strombedarf für Speichertechnik und dem Strombedarf der Netzwerktechnik. Die Bestandteile der o.g. Gleichung werden im Folgenden separat diskutiert Strombedarf der IT: Server, Netzwerk und Speicher Der Strombedarf von Servern ist mit 60-80% des gesamten IT-Strombedarfs eines Rechenzentrums die dominierende Gröÿe seitens der IT [Greenberg et al., 2006a], [Koomey, 2007b], [Pueger and Hanon, 2007]. Die Strombedarfsentwicklung des Serverbestands wird über einen sogenannten Vintage Stock-Ansatz simuliert: El Server (t) = i [SEl Server (i, j, t) ANZ Server (i, j, t)] (5.4) j Mit: t = Jahr i = Volume-, Mid-range- und High-end Server j = Jahrgänge (<1998, ) El Server = Stromverbrauch IT aller Server im Jahr t [kwh] SEl(i, j, t) = Spez. Stromverbrauch Servertyp i des Jahrgangs j [kwh] im 8760 Stunden betrieb ANZ(i, j, t) = Anzahl der Servertypen i des Jahrgangs j im Jahr t

89 5.5 Strombedarf der Rechenzentren in Deutschland (1998 bis 2008) 77 Ein Vintage Stock Model unterteilt den Serverbestand in die einzelnen Jahre der Inbetriebnahme. Jedem Jahrgang j an Servern ist der entsprechende durchschnittliche spezische Energieverbrauch dieses Jahres zugeordnet (El(i, j, t)). Der Serverbestand wird als dynamische Bilanz zwischen Zustrom und Abgang von Servern simuliert. Die Auÿerbetriebnahme von Servern eines bestimmten Jahrgangs wird mittels sogenannter Überlebensfunktionen simuliert. Das heiÿt, dass Server des gleichen Alters, bzw. Jahrgangs nicht simultan nach Ende der erwarteten Lebensdauer aus dem Bestand ausscheiden, sondern die Abgänge rund um die erwartete Lebensdauer gestreut sind (vgl. Abbildung 5.19 d). Abbildung 5.19 zeigt die Ergebnisse der Simulation der Serverbestände vor dem Hintergrund der Bestandsentwicklung nach [IDC, 2008] und [TechConsult, 2008a]. es ist zu beachten, dass IDC 2008 und TechConsult 2008 unterschiedliche Methoden zur Erhebung des Serverbestands verwenden. Die Statistiken von IDC 2008 berücksichtigen keine Server, die auf normalen Mainboards basieren, wie sie u.a. von Google und groÿen Webostern betrieben werden (vgl. hierzu auch (Koomey 2007a)). TechConsult hingegen rechnet den Serverbestand aus einer Befragung von Unternehmen hoch. Demzufolge ist davon auszugehen, dass TechConsult Mainbooard-Server und auch andere PC-basierende Server berücksichtigt. TechConsult weist etwa 10% mehr Server aus als IDC. Die IDC Statistiken wurden dementsprechend nach oben korrigiert. (Abbildung 5.19 (a bis c)) sowie die ermittelten Überlebensfunktionen (Abbildung 5.19 (d)) a) Volume Server b) Mid-Range Server Volume Server (Simuliert) Volume Server (IDC 2008) Mid-Range Server (Simuliert) Mind-Range Server (IDC 2008) c) High-End Server 100% d) Survival functions % Volume servers Mid-range servers High-end servers % High-End Server (Simuliert) High-End Server (IDC 2008) % 0% Abb. 5.19: Simulierte Serverbestandsentwicklung und tatsächliche Entwicklung nach ( [IDC, 2008], [TechConsult, 2008a]) : a) Volume, b) Mid-Range und c) High-End Server, d) Simulierte Überlebensfunktionen von Volume, Mid-Range und High-End Servern

90 78 Kapitel 5 Trends, Potentiale, Optionen der deutschen Rechenzentrumsbranche Die Simulationsergebnisse des Serverbestands sind für die Serverklassen zufriedenstellend. Sowohl die absolute Höhe als auch die strukturellen Änderungen können mit diesem Ansatz in hoher Güte reproduziert werden. Der Vorteil eines Vintage-Ansatzes besteht nicht nur in einer realistischeren Abbildung der Bedarfsentwicklung, sondern dieser Ansatz ermöglicht auch eine adäquatere Abschätzung der Diusionszeit von ezienteren Servern in den Bestand. Für eine detailliertere Beschreibung des Modellansatzes siehe [Dittmar and Schaefer, 2008]. Der Energiebedarf der Netzwerktechnik wird entsprechend der Methodik in [EPA, 2007] simuliert. [EPA, 2007] trit die Annahme, dass jedem Volume Server 3 Ports mit einen Leistungsbedarf von jeweils 8 Watt zuzuordnen ist. El Netzwerk (t) = 3 8W att 8760h [ANZ Server (V olumeserver, j, t)] (5.5) El Netzwerk = Stromverbrauch der IT von Rechenzentren im Jahr t [kwh] ANZ Server (i, j, t) = Anzahl der Servertypen i des Jahrgangs j im Jahr t j Demnach erhöht sich die spezische Leistungsaufnahme von Volume Servern eines jeden Jahrgangs um 24 W [EPA, 2007]. Wie Gleichung 5.5 zu entnehmen ist, wird angenommen, dass diese Werte konstant bleiben. Der Energiebedarf der Speichertechnik wird über den Bestand an Speichersystemen (Enterprise Storages) und deren spezischen Leistungsbedarf modelliert: t = Jahr El Storage (t) = ANZ E Storage (t) SEl E Storage (t) (5.6) El Storage (t) = Stromverbrauch der IT von Rechenzentren im Jahr t [kwh] EUE = Energy Usage Eectiveness [-] El Storage = Stromverbrauch von Speichern im Jahr t [kwh] SEl(t) = Spez. Stromverbrauch der Speicher im Jahr [kwh] ANZ E Storage (i, j, t) = Anzahl der Speicher i des Jahrgangs j im Jahr t Über den Bestand an Speichersystemen (Enterprise Storages) liegen für Deutschland keine Statistiken vor. Die Bestandsentwicklung von Enterprise Storages wurde auf Basis von amerikanischen Daten aus [EPA, 2007] geschätzt.

91 5.5 Strombedarf der Rechenzentren in Deutschland (1998 bis 2008) Allokation des Serverbestands auf Rechenzentren und der Energy Usage Effectiveness Wie in Gleichung 2 dargestellt, wird der berechnete IT-Bedarf mit dem Energy Usage Eectiveness multipliziert, um so dem Energiebedarf zum Betrieb der Gebäudeinfrastruktur Rechnung zu tragen. Im diesem Kontext stellt sich die Frage, welcher Anteil des Serverbestands überhaupt ein Rechenzentrum darstellt, bzw. zumindest eine rechzentrumsähnliche Betriebsweise aufweist, die eine Zurechnung des Energiebedarfs der Gebäudeinfrastruktur wie z.b. Klimatisierung rechtfertigt. Auch [Koomey, 2007b] ist sich dieses Problems bewusst: The IDC data also include servers that are not housed in data centers - the number and location of such servers may aect the appropriate value for estimating power used by cooling and associated infrastructure. Wie in Kapitel 5.4, Tabelle 3 bereits gezeigt, sind ca. 40% des Serverbestandes in Serverschränken untergebracht, bzw. werden in Clustern von kleiner gleich 2 Servern betrieben. Es ist davon auszugehen, dass nicht alle dieser Serverschränke klimatisiert sind und somit diesen Servern auch kein Energiebedarf für die Klimatisierung zuzurechnen ist. Um dieser Tatsache Rechnung zu tragen, wird ein Korrekturfaktor, β, zugefügt. Dieser Faktor korrigiert die Anzahl der Volume Server um jenen Anteil Server, der nicht Rechenzentren zuzuordnen ist Monte Carlo Analyse Die Eingangsparameter zur Berechnung des Strombedarfs sind groÿen Unsicherheiten unterworfen. Abbildung 5.20 zeigt beispielsweise die Entwicklung des spezischen Leistungsbedarfs der einzelnen Serverklassen inklusive Fehlerbalken, welche den Bereich der Unsicherheit der ermittelten Daten repräsentieren. Auch bezüglich der wahren Höhe des Energy Usage Eectiveness herrscht groÿe Unsicherheit. Wie bereits im Kapitel erwähnt, ist die gängige Annahme der EUE bzw. PUE sei 2. Diese Annahme ist jedoch nicht empirisch belegt. Das Minimum aller nationalen und internationalen Studien bzgl. des EUE bzw. PUE liegt bei 1,3 das Maximum bei 3 (vgl. Tabelle 5.1). Um trotz dieser Unsicherheiten robuste Aussagen bzgl. des Energieverbrauchs von Rechenzentren machen zu können, wird eine Monte Carlo-Simulation durchgeführt. Bei der Monte-Carlo-Methode handelt es sich um ein Verfahren, bei dem für ein Modell, f(x 1,...x n ), eine groÿe Anzahl (>1.000) Simulationen durchgeführt wird und dabei die Modelleingangsgröÿen, x 1,...x n, zufällig nach Maÿgabe einer für jede Eingangsgröÿe

92 80 Kapitel 5 Trends, Potentiale, Optionen der deutschen Rechenzentrumsbranche Watt 300 Volume servers Watt 900 Mid-range Servers Watt High-end Servers Index 1998=1 Volume Server 1,4 Mid-range Server 1,9 High-end Server 1,8 Abb. 5.20: Entwicklung der spezischen Leistungsaufnahme von Volume, Mid-range und High-end Servern Eingangsverteilungen Modell Modellergebnisse X 1 f(x 1,,x n ) x 2 5% 90% 5% x n Abb. 5.21: Schematische Darstellung Monte-Carlo Analyse denierten Häugkeitsverteilung variiert werden (siehe Abbildung 5.21). Als Ergebnis erhält man wiederum eine Häugkeitsverteilung des Modelloutputs, die die Varianz der Modellergebnisse in Abhängigkeit der Varianz der Eingangsparameter widerspiegelt. Tabelle 5.3 fast die wichtigsten bzgl. der Eingansparameter der Monte Carlo Analyse zusammen. Output Strombedarf der Rechenzentren in Deutschland Abbildung 5.22 zeigt die Ergebnisse der Monte Carlo Simulation ( Iterationen) bzgl. des Strombedarfs deutscher Rechenzentren, d.h. der Strombedarf für Server, Speichertechnik, Netzwerk und Gebäudeinfrastruktur für den Zeitraum 1998 bis Der

93 5.5 Strombedarf der Rechenzentren in Deutschland (1998 bis 2008) 81 Tab. 5.3: Eingangsparameter Monte-Carlo Analyse Abbildung sind der Mittelwert, die Standardabweichung sowie die 5% / 95% Perzentile zu entnehmen. Nach dieser Simulation hat sich der Strombedarf im Zeitraum von 1998 bis 2008 knapp verfünacht, der Strombedarf stieg von 1,7 TWh 1998 auf 8,2 TWh im Jahr Das entspricht einer Jährlichen Wachstumsrate von 17%. Im Jahr 2007 lag der Anteil von Rechenzentren am Nettostrombedarf in Deutschland bei ca. 1,3%. Strombedarf Rechenzentren in TWh SD +1SD, -1SD +95% Perc, -5% Perc Mean Abb. 5.22: Der Strombedarf für Rechenzentren Trotz dieser enormen Wachstumsrate liegen die Schätzungen deutlich unter den Schätzungen früherer Studien. So schätzen beispielsweise [Cremer et al., 2003] den Strombedarf für Server für das Jahr 2001 auf 3,94 TWh. Diese Schätzung liegt ca. 1 TWh (66%) über den Ergebnissen (Mittelwert) dieser Analyse und dabei ist bei [Cremer et al., 2003] der Bedarf für die Gebäudeinfrastruktur sowie Speicher- Netzwerktechnik noch nicht mitgerechnet. Diese Abweichung lässt sich jedoch dadurch erklären, dass [Cremer et al., 2003] keine Statistiken über den Serverbestand vorlagen und der Serverbestand über die Mitarbeiteranzahl in Unternehmen hochgerechnet wurden [Cremer et al., 2003]. Nimmt man die Annahmen bzgl. der spezischen Leistungsaufnahme der einzelnen Serverklassen von [Cremer et al., 2003] und die Statistiken über den Serverbestand von [IDC,

94 82 Kapitel 5 Trends, Potentiale, Optionen der deutschen Rechenzentrumsbranche 2008], so korrigiert sich der Bedarf von 3,94 TWh in [Cremer et al., 2003] auf 1,7 TWh nach unten. Diese Zahlen liegen in der Bandbreite der Ergebnisse der vorliegenden Studie. Ausgehend von der Annahme die Situation in Deutschland sei äquivalent zur Situation in den USA, d.h. der relative Anteil von Rechenzentren am Gesamtstromverbrauch in den USA und Deutschland sei identisch, schätzt eine andere Studie den Strombedarf für Rechenzentren in Deutschland auf Basis von [EPA, 2007] im Jahr 2006 auf 8,67 TWh [Fichter, 2007]. Auch diese Schätzung liegt deutlich oberhalb der in dieser Studie ermittelten Bandbreite für den Strombedarf von Rechenzentren. Hier ist schlicht davon auszugehen, dass die These, der relative Anteil von Rechenzentren am Gesamtstromverbrauch in den USA und Deutschland sei identisch, falsch ist. Abschlieÿend ist in Abbildung 5.23 das Tornado-Diagramm der Modellergebnisse für das Jahr 2008 zu entnehmen. Das Tornado-Diagramm basiert auf standardisierten Regressionskoezienten(Std b Coecients). Standardisierte Regressionskoezienten sind ein Maÿ für Sensitivität des Modellinputs zum Output. Sie geben an, um wie viel Standardabweichungen sich der Strombedarf von Rechenzentren erhöht (Std b positiv) / sinkt (Std b negativ), wenn sich Modelleingangsgröÿen (EUE, β etc.) um eine Standardabweichung erhöhen. EUE (2008) β SEl(Volume,2008,2008) SEl(Volume,2007,2008) SEl(Volume,2006,2008) -1-0,8-0,6-0,4-0,2 0 0,2 0,4 0,6 0,8 1 Std b Coefficients Abb. 5.23: Tornado-Diagramm Strombedarf von Rechenzentren 2008 Der Abbildung ist deutlich das intuitiv logische Ergebnis zu entnehmen, dass der Energy Usage Eectiveness die gröÿte Sensitivität bzgl. des Strombedarfs von Rechenzentren aufweist. Gefolgt wird der EUE vom β, dem Faktor, der bestimmt wie viel Prozent des Volume-Serverbestands Rechenzentren zuzuweisen ist. Weiterhin zeigt sich, dass dem Vinatge-Ansatz entsprechend, nicht nur der Energiebedarf der Server des Jahres

95 5.5 Strombedarf der Rechenzentren in Deutschland (1998 bis 2008) von Relevanz ist, sondern auch der Bedarf von früher verkauften und noch immer im Bestand bendlichen Servern. Dabei sei darauf hingewiesen, dass die hier scheinbar geringen Sensitivitäten des Energieverbrauchs der einzelnen Serverjahrgänge bei einer separierten Betrachtung des Stromverbrauchs für Server wesentlich stärker ins Gewicht fallen würden Schlussfolgerungen der Strombedarfsanalyse Die durchgeführte Schätzung des Strombedarfs von Rechenzentren in Deutschland reiht sich in die Methodik der Studien von [EPA, 2007], [Koomey, 2007b], [Koomey, 2007a], [Schäppi et al., 2007a] und [Koomey, 2008] ein und erweitert diese um eine Unsicherheitsanalyse sowie einen Vintage Stock-Ansatz. Die Ergebnisse sind robust und berücksichtigen die wesentlichen Unsicherheiten in der Bedarfsermittlung von Rechenzentren. Für die Situationen in Deutschland hat sich gezeigt, dass die bisherigen Studien den Energiebedarf teils erheblich überschätzten. Dennoch ist das Wachstum der Energienachfrage dieses Sektors enorm. Mit durchschnittlichen jährlichen Wachstumsraten von 17% hat sich der Strombedarf für den Betrieb von Rechenzentren im Zeitraum von 1998 bis 2008 knapp verfünacht. Betrachtet man die Sensitivitäten der Modellergebnisse, so zeigt sich, dass weiterer Forschungsbedarf vor allem bzgl. EUE und der Allokation von Servern zu Rechenzentren besteht.

96 Analysen und Szenarien der Fallstudien 6 Kapitel Um die Konzepte bzw. Szenarien für einen energie- und ressourcenezienten Betrieb von Rechenzentren möglichst anwendungsnah zu gestalten, wurden im Rahmen des Projektes drei Rechenzentren in der Praxis untersucht. Anhand dieser drei Beispiele wurden die Szenarien zur zweckmäÿigen Umsetzung aufbereitet. Im Ergebnis konnten damit für die Kurzfristlösungen konkrete Anwender in Form der Beispiel-Rechenzentren gefunden werden, während für die Langfristlösungen Entwicklungsprojekte in Zusammenarbeit den beteiligten Rechenzentren gestartet wurden. Die drei untersuchten Rechenzentren werden im Folgenden mit RZ1, RZ2 und RZ3 bezeichnet; es werden ausgewählte Daten und die Strukturen dieser Rechenzentren vorgestellt. Im Sinne der Geheimhaltung wurden Informationen zu betriebskritischen Daten, die Rückschlüsse auf das einzelne Rechenzentrum zulassen, teilweise verändert bzw. skaliert oder reduziert. Diese sind an den entsprechenden Stellen gekennzeichnet. Daraus können sich nicht vermeidbare Inkonsistenzen ergeben. Die drei Rechenzentren wurden so ausgewählt, dass drei unterschiedliche Kategorien (siehe Kapitel 3.2) abgebildet werden konnten. Dieses Vorgehen stellt eine möglichst breite Markterschlieÿung für die Szenarien/innovativen Technologien sicher. RZ1 entspricht in der Betriebsweise einem Forschungsrechenzentrum, so dass die Auslastung der IT grundsätzlich frei geplant werden kann. In der Regel kann damit eine konstante Auslastung der IT realisiert werden. Eine zentrale Klimatisierung versorgt das Rechenzentrum sowie Teile der umfangreichen Nebennutzung im Rechenzentrumsgebäude mit Kaltwasser und konditionierter Luft. RZ2 weist einen ausgeprägten Mixbetrieb mit Hostingangeboten und weiteren IT-Dienstleistungen auf, so dass die Auslastung stärker variiert als bei RZ1. Interessanter Weise können verschiedene Wärmesenken in das System eingebunden werden; die Ausgestaltung der Klimatechnik ist sehr komplex.

97 6.1 Rechenzentrum RZ1 85 RZ3 betreibt zum Groÿteil Housing. Die vielfältige und in Eigenregie betriebene IT der Kunden resultiert in stark inhomogenen Strukturen, sowohl im Aufbau der Racks, als auch im Kühlleistungsbedarf. Die Auslegung der Klimatisierung kann sich hier nicht an einheitlichen oder festen Rahmenbedingungen orientieren. Für die Beurteilung der Qualität der Rechenzentren im Hinblick auf die eziente Energienutzung inkl. Klimatisierung sowie zur Identizierung energetisch ungünstig arbeitender Komponenten wurden detaillierte Informationen zur IT, Stromversorgung, Klimatisierung und organisatorischer Struktur des Rechenzentrumsbetriebes im RZ erhoben. Informationen aus dem Fragebogen (siehe Kapitel 5) wurden dafür mit Daten aus Ortsbegehung und Betriebsdokumentationen ergänzt. Die Daten stammen im wesentlichen aus den Datensätzen der Gebäudeleittechnik, Abrechnungen von Versorgungsleistungen (Strom, Wasser, Gas, Wärme) und sonstigen Mess- und Wartungsprotokollen; ergänzt werden diese durch Flur-, Verkabelungs-, Kanal- und Rohrnetzpläne. Datenblätter von Hersteller und Berechnungen zur Dimensionierung für einzelnen Komponenten wurden ebenfalls herangezogen (vgl. auch [Greenberg et al., 2006b]). 6.1 Rechenzentrum RZ1 In diesem Abschnitt wird die Stromversorgung und Klimatisierung sowie die Kategorisierung des Rechenzentrums RZ1 beschrieben. Die Energieezienz der vorhandenen Gebäudetechnik wird anhand des EUE Kennwertes aufgezeigt. In den Szenarien werden leicht zu realisierende Maÿnahmen zur Einsparung von Energie sowie ein innovatives Konzept zur Verbesserung der Energieezienz für die spezischen Anforderungen in RZ1 bestimmt Aufbau elektrische Energieversorgung RZ1 Das RZ1 bezieht den Strom über einen Anschluss. Der Strom wird ausschlieÿlich durch den Energieversorger ohne Netzersatzanlagen bereitgestellt. Das heiÿt eine Anlage für eine längere Notstromversorgung (z.b. Dieselgenerator) ist nicht vorhanden. Der hauseigene Trafo passt die Spannung für die Nutzung im Rechenzentrum sowie im weiteren Gebäude, welches Büros und Serverräume beinhaltet, an. Der Aufbau der Energieversorgung des RZ1 wird in Abbildung 6.1 als funktionales Schema dargestellt. Eine kritische Last stellen die IT Geräte dar, da ihre Versorgung nicht unkontrolliert unterbrochen werden darf. Die Unterbrechungsfreie Stromversorgung (USV) kann für

98 86 Kapitel 6 Analysen und Szenarien der Fallstudien B kritische - IT USV SUV IT EVU TF unkritische - GT Kältemaschine EVU: TF: USV: B: Stromunterverteilung Energieversorgungsunternehmen Transformator Batterie SUV: IT: GT: Gebäudetechnik (Strom, Klimatisierung) Unterbrechungsfreie Stromversorgung Informationstechnik Rückkühler Pumpen + Ventilatoren Sonstiges Nebennutzung Abb. 6.1: Elektrische Energieversorgung RZ1, schematische Darstellung mehrere Minuten ausreichend Energie bereitstellen, so dass die IT kontrolliert heruntergefahren werden kann. Stromunterversorgungseinheiten sorgen für den IT Anschluss und je nach Konzeption auch für die Anpassung der USV-Ausgangsspannung auf die IT Eingangsspannung. Der unkritische Spannungsversorgungspfad speist die Klimatechnik und sonstige Abnehmer wie Beleuchtung für das Rechenzentrum aber auch den Versorgungspfad für das Restgebäude mit Büros und mehreren Kleinserverräumen, die jedoch nicht dem Rechenzentrum zuzuordnen sind Klimatisierung RZ1 Mittels Kältemaschinen und wenn möglich Freikühlern wird Kaltwasser für die zentrale Luftklimatisierung (ZLK) sowie für weitere dezentrale Klimageräte (Klimatruhen) im Nebennutzungsbereich bereitgestellt. Die konditionierte Luft aus der zentralen Luftklimatisierung wird zu Teilen dem Doppelboden zur IT-Kühlung und weiterer Funktionsräume der Nebennutzung übergeben. Primärkreislauf RZ1: Der Primärkreislauf der Klimatisierung ist in Abbildung 6.2 dargestellt. Drei parallele Kühlsysteme ermöglichen eine N+1 Versorgung der Kältebereitstellung, so dass im Regelfall nur zwei Kühlsysteme in Betrieb sind. Alle Kühlsysteme sind mittels einer hydraulischen Weiche an das Kaltwasserversorgungssystem des Sekundärkreislaufs angeschlossen. Das Kühlsystem ist eine Kombination von Kompressionskälteanlagen im Obergeschoss mit Tisch-Rückkühlern auf dem Dach. Letztere können

99 6.1 Rechenzentrum RZ1 87 das Kühlwasser alternativ für zwei Anwendungen zur Verfügung stellen: erstens für den Kondensator der Kälteanlage und zweitens für die Freie Kühlung, bei der das Kaltwasser über den Wärmeübertrager für Freie Kühlung (FK-WÜ) abgekühlt wird. Eine hybride Kältebereitstellung aus kombinierter Freien Kühlung und Kältemaschinenbetrieb (hybride Freie Kühlung) ist innerhalb eines Kühlsystems nicht möglich. Rückkühler Kältesystem 1 Primärkreislauf Sekundärkreislauf FK-WÜ Kompressionskälteanlage 1 Kältesystem 2 Kältesystem 3 hydraulische Weiche zentrale Luftklimatisierung (ZLK) und Nebennutzung (NN) Kaltwasser Abb. 6.2: Klimasystem RZ1 Primärkreislauf, schematische Darstellung Sekundärkreislauf und zentrale Luftklimatisierung RZ1: Aus der hydraulischen Weiche führt das Kaltwasser zur zentralen Luftklimatisierungsanlage (ZLK) sowie zu weiteren Klimageräten im übrigen Gebäudebereich (Nebennutzung), siehe Abbildung 6.3. Luft Zentrale Luftklimatisierung (ZLK) Umluft / Frischluft kühlen, erhitzen, befeuchten und entfeuchten Rechnerraum Nebennutzung Klimatruhen Wasser Abb. 6.3: Zentrale Luftklimatisierung RZ1, schematische Darstellung Rackkühlung im Rechnerraum RZ1: Der Rechnerraum beherbergt die ca. 40 Racks mit Rechen-, Speicher- und Netzwerkkomponenten. Die Kaltluft wird dem Raum über den Doppelboden zugeführt. Die durch die IT erwärmte Raumluft gelangt über Abluftkanäle im Deckenbereich zur Zentralklimaanlage zurück. Die Nutzenübergabe und die prinzipielle Aufstellung der Racks sind in Abbildung 6.4 dargestellt.

100 88 Kapitel 6 Analysen und Szenarien der Fallstudien Kaltwasser warme Abluft ZLK Rack kalte Zuluft Abb. 6.4: Kühlung Rechnerraum über Doppelboden RZ1, schematische Darstellung Kategorisierung RZ1 Unter den Gesichtspunkten Betriebssicherheit, Betriebszweck und Betreiber sowie Anzahl Server soll RZ1 kategorisiert werden. Betriebssicherheit: Die gewünschte Verfügbarkeit des Rechenzentrums RZ1 wird von dem Betreiber mit 364 Tagen im Jahr angegeben, ein Tag steht für Wartungszwecke zur Verfügung. Unerwartete Ausfälle dürfen demnach nicht auftreten. Das Versorgungskonzept wird diesbezüglich analysiert. Stromversorgung: Die Stromversorgung im RZ1 ist in einem Versorgungspfad ausgeführt, siehe Abbildung 6.5. Redundanzkonzept (N = Mindestanzahl) RZ 1: N (EVU), 2 N (TF), N (USV,B), N (SUV) EVU TF USV, B SUV IT unkritische GT, Nebennutzung Abb. 6.5: Redundanzen der Stromversorgung RZ1 Mit Ausnahme der Auslegung des Transformators, die dem doppeltem Bedarf (2N) entspricht, sind im RZ1 alle anderen Komponenten in einfacher Ausführung installiert (1N), Hausanschluss (EVU), USV und Spannungsunterversorgung. Eine Netzersatzanlage z. B.

101 6.1 Rechenzentrum RZ1 89 in Form eines Notstromdieselgenerators ist nicht vorhanden. Entsprechend der international diskutierten Tier-Standards des Uptime Instituts [Turner et al., 2008] entspricht dieses aus nicht redundant aufgebauten Komponenten, Stromversorgungskonzept dem niedrigsten Standard Tier 1. Klimatisierung: Die Klimatisierung des Rechnerraums ist bis auf die Kaltwasserverteilung (KWV) nach dem N+1 Redundanzkonzept ausgelegt, siehe Abbildung 6.6. Redundanzkonzept (N = Mindestanzahl) RZ 1: N+1 (RK), N+1 (KA), N (KWV), N+1 (ZLK) RK KA KWV ZLK Abb. 6.6: Redundanzen der Klimatisierung RZ1 Auf Komponentenebene besteht somit eine gröÿere Sicherheit gegen Betriebsunterbrechungen. Von einer möglichen Störung der Stromversorgung sind hingegen alle Komponenten direkt betroen, so dass auch das Klimatisierungskonzept nach [Turner et al., 2008] und [Menuet and Turner, 2006] keiner höheren Sicherheitsanforderung entspräche. Das Uptime Institut hat für Tier 1 Konzepte eine durchschnittliche Ausfallzeit durch Wartung und unerwartete Ereignisse von insgesamt 28,8 Stunden ermittelt. Demnach ist es fraglich, ob das angestrebte Sicherheitsniveau von Rechenzentrum RZ1 eingehalten werden kann. Betriebszweck: Das technische Leistungsvermögen des Rechenzentrums ist als sehr hoch einzustufen, die verarbeiteten Datenmengen sind erheblich; die Anforderungen an die IT sind groÿ, annähernd vergleichbar mit denen eines Forschungsrechenzentrums. Die Anwenderbetrachtung gemäÿ den Kategorisierungskriterien zeigt einen groÿen Grad an Eigenorganisation, das heiÿt, die Betriebsweise kann weitestgehend selbst bestimmt werden. Daraus ergibt sich bei entsprechender Organisation der Arbeitsaufträge eine hohe Rechnerauslastung. Betreiber: Die Gebäude- und Informationstechnik wird in Eigenregie betrieben. Die Rechenleistung wird jedoch auch externen Partnern zur Verfügung gestellt. In ächenmäÿig kleinem Umfang wird zusätzlich Housing betrieben. Die dabei eingesetzte Technik weist eine sehr hohe Wärmelast auf, so dass es zu lokaler Hot-Spot Bildung kommt, mit erheblichen Klimatisierungsproblemen. Anzahl Server: Das RZ1 besitzt keine Standardserver. Die verwendeten Rechner sind spezielle Anfertigungen für die sehr spezischen Anwendungen im RZ1. Mit 200 kw

102 90 Kapitel 6 Analysen und Szenarien der Fallstudien installierter IT Leistung unter der Annahme einer durchschnittlichen Leistungsdichte von 600 W pro Server ergibt sich ein Serveräquivalent von ca. 300 Servern für das RZ1. Damit fällt das RZ1 in die Kategorie Mittlere Rechenzentren nach Tabelle 3.1. Energetische Performance RZ1: Zur Beurteilung der energetischen Qualität soll der EUE a als Verhältnis der gesamten Energieaufnahme des Rechenzentrums inkl. Gebäudetechnik E a,rz zur Energieaufnahme der IT E a,it während eines Jahres (2007) dienen. Für das RZ1 liegen diesbezüglich Gebäudeleittechnikdaten vor. Da ausschlieÿlich elektrische Energie für die Gebäudetechnik eingesetzt wird, kann der EUE als Quotient problemlos berechnet werden (vgl. Kapitel 3.3). EUE a,rz1 = E a,rz E a,it (6.1) Der Gebäudeenergiebedarf kann aufgrund der Nebennutzung nicht ausschlieÿlich dem Rechenzentrum zugeordnet werden, die quantitative Zuordnung erfolgte mittels Auswertung von Leittechnikaufzeichnungen und Auslegungsdaten. (siehe Abbildung 6.7). RZ 1 - Aufteilung des Energiebedarfs vom Gebäude Nebennutzung (NN) 26% Rechenzentrum (RZ) 74% Abb. 6.7: Anteil des Rechenzentrums und der Nebennutzung am elektrischen Gesamtenergiebedarf des Gebäudes RZ1 Die Klimatisierung des RZ1 versorgt neben dem Rechenzentrum auch Gebäudeteile mit Nebennutzung, hauptsächlich Büros und Kleinserverräume, ohne Bezug zum Rechenzentrum. Der Energiebedarf der Gebäudetechnik wird daher entsprechend der Nutzungsanteile ebenfalls auf die Bereiche Rechenzentrum und Nebennutzung aufgeteilt. Für das gesamte Rechenzentrum ermitteln sich die Energiebedarfsanteile entsprechend Abbildung 6.8. Die Energieezienz der Gebäudetechnik des RZ1 stellt mit EUE a,rz1 = 1, 9 einen durchschnittlichen bis schlechten EUE-Kennwert dar (vgl. Kapitel 5.2.4), das heiÿt, die Versorgungskonzeption weist überdurchschnittlich hohe Verluste auf.

103 6.1 Rechenzentrum RZ1 91 RZ 1 Energiebedarf IT, USV, KS, TF. Licht Trafo (TF) 2% Licht 1% Klimasystem (KS) 41% IT 51% USV 5% Abb. 6.8: Anteil des Energiebedarfs IT, Klimatisierung, Stromversorgung und Licht von RZ1, in Prozent vom Gesamtenergiebedarf des Rechenzentrums Schnell realisierbare Einsparpotentiale RZ1 In diesem Abschnitt werden Vorschläge zur Minderung der Energieverluste aufgeführt. Dabei werden zuerst Einsparungen an Kältebedarf durch reduzierte Lasten und optimierter Versorgung sowie anschlieÿend die Verbesserung der Bereitstellung ergänzt von organisatorischen Maÿnahmen dargestellt. Kühllast senken: Zur Senkung des Kältebedarfs wird empfohlen, die nicht klimatisierungsbedürftigen elektrischen Geräte aus dem Rechnerraum zu entfernen sowie bestehende IT zu konsolidieren und mit Energiesparfunktionen auszustatten. Verteilung und Übergabe optimieren: Die Verteilungs- und Übergabeverluste können stark reduziert werden. Ein schwankender oder in Folge von Optimierungsmaÿnahmen sinkender Kaltluftbedarf kann mit Drehzahl geregelten Ventilatoren ezienter bereitgestellt werden. Die Nutzenübergabe der Kaltluft an die Racks kann durch die Vermeidung von Bypässen verbessert werden. Neben der Warm- und Kaltgangaufstellung müsste eine Einhausung der in RZ1 sehr einheitlich ausgeführten Racks unbedingt vorgenommen werden. Durch diese verbesserte Luftführung werden die Verluste geringer - damit können die Vorlauftemperaturen von der Zuluft und somit der gesamten Kaltwasserbereitstellung angehoben werden, so dass die indirekte Freie Kühlung auch bei Auÿenlufttemperaturen oberhalb von derzeit 2 C betrieben werden könnte. Die Kompressionskälteanlage nimmt dann während des Betriebs aufgrund der geringeren Temperaturabsenkung folglich weniger elektrische Leistung auf, aber auch die Betriebszeit der Kälteanlage vermindert sich aufgrund der potentiell längeren Nutzungsdauer der indirekten Freien Kühlung. Die dadurch resultierenden Einsparpotentiale sind in Tabelle 6.1 aufgezeigt.

104 92 Kapitel 6 Analysen und Szenarien der Fallstudien Tab. 6.1: Einsparung des Energiebedarfs der Kälteanlage von RZ1 bei höheren maximalen Auÿenlufttemperaturen zur indirekten Freien Kühlung Allgemein kann empfohlen werden, entsprechend der unterschiedlichen Klimatisierungsanforderung im Gebäude und im Rechnerraum, abgetrennte Teilbereiche zu bilden, die mit zielgerichtet konditionierter Luft versorgt werden. Damit wird verhindert, dass weniger empndliche oder leistungsschwächere Geräte mit der gleichen, aufwendig konditionierten Kaltluft gekühlt werden, wie z. B. empndliche Hot Spots. Im RZ1 sollte mindestens eine klimatechnische Trennung der IT im Rechenzentrum und der Geräte im Nebennutzungsbereich vorgenommen werden. Bereitstellung verbessern: Zur Senkung des elektrischen Aufwands für die Klimatisierung, speziell bei sommerlichen Leistungsspitzen mit der entsprechenden Auswirkung auf den Leistungspreis der elektrischen Energieversorgung, könnte eine adiabate Zusatzkühlung für das RZ1 sinnvoll sein. Eine Quantizierung der Ezienz dieser Maÿnahmen wurde hier nicht durchgeführt. Organisatorische Maÿnahmen: Die systematische Erfassung von Bedarfsdaten, speziell Strom und Wasser, für klar abgegrenzte funktionale Nutzergruppen mit anschlieÿender Zuordnung der anteiligen Betriebskosten bildet die Basis für einfache Ezienzanalysen. Als konkretes Beispiel kann die separate Stromerfassung der Nebennutzung und der einzelnen Rechenzentrumskomponenten mit Zuordnung resultierender individueller Kostenströme dienen. Stromversorgung: Technische leicht umsetzbare Ansätze sind mittels eines kontinuierlichen Austauschs von inezienten Komponenten durch Geräte mit gröÿerem Wirkungsgrad, zu verwirklichen. Bei schadensbedingtem Ersatzbedarf der alten USV Anlage bietet sich der Wechsel zu neueren Techniken mit höheren Wirkungsgraden an. Beispielsweise durch Einsatz von Deltawandlungstechnik könnte das RZ1 erstens ein direktes Einsparpotential im Bereich Strombedarf IT von 6% und zweitens ein indirektes Einsparpotential

105 6.1 Rechenzentrum RZ1 93 durch zusätzliche Senkung des Klimatisierungsbedarfs der USV um 70% realisieren. Dieses entspricht bezogen auf den IT Klimatisierungsbedarf eine Reduzierung von knapp 7% Innovatives Kühlkonzept RZ1 Die bereits in Kapitel 4.6 angeführte Technik der direkten Freien Kühlung bietet als Ergänzung für das Rechenzentrum RZ1 die Möglichkeit den Energiebedarf für Klimatisierung einzusparen. Bedingt durch eine neue Klimatisierungsstruktur und der damit verbundenen reduzierten Einsatzzeit der Kompressionskälteanlage kann der Strombedarf im Jahresverlauf deutlich gesenkt werden. Für das Einsparpotenzial der Freien Kühlung im RZ1 sind im Wesentlichen drei Aspekte zu berücksichtigen: 1. die Betriebsanforderungen der IT bezüglich Temperatur, relativer Luftfeuchte und Staubbeladung der Luft, 2. die potentielle Nutzungszeit der Freikühlanlage in Abhängigkeit der Auÿenluftbedingungen des Rechenzentrumsstandorts im Jahresverlauf sowie 3. der Energiebedarf des bestehenden Klimasystems und der indirekten Freien Kühlung in Abhängigkeit der technischen Ausführung. Betriebsanforderungen der IT: Begrenzend wirken die geforderten minimalen und maximalen Temperaturen der Raumluft sowie deren relative Feuchte, die für den Betrieb der IT angegeben werden. In der Literatur bestehen keine einheitlichen Grenzwerte, siehe Tabelle 6.2. Belastungen der Auÿenluft durch Staub sind nach [VDI-2054, 1994] mittels Filtertechniken von der IT fern zu halten. Der damit einhergehende Wartungsaufwand und der erhöhte Energieaufwand bei den Ventilatoren mindern allerdings das Einsparpotential, so dass auch diesem Bereich eine robustere IT sinnvoll wäre. Für die folgende Potentialuntersuchung werden die Luftbedingungen wie in Tabelle 6.3 zusammen gefasst deniert. Potentielle Nutzungszeit in Abhängigkeit der Auÿenluftbedingungen am Rechenzentrumsstandort: Für die betrachtete Klimazone Nordwestdeutsches-Tieand

106 94 Kapitel 6 Analysen und Szenarien der Fallstudien Tab. 6.2: Einsparung des Energiebedarfs der Kälteanlage von RZ1 bei höheren maximalen Auÿenlufttemperaturen zur indirekten Freien Kühlung, [ASHRAE-TC9.9, 2004], [VDI-2054, 1994], [IBM, 2006] Tab. 6.3: Bedingungen der Temperatur und Luftfeuchte für die direkte Freie Kühlungmax. Raumlufttemperatur 26 C nach [Altenburger, 2004]

107 6.1 Rechenzentrum RZ1 95 können die Häugkeiten der Auÿenluftbedingungen während eines Jahres für Temperatur und absolute Feuchte aus [DIN, 2003] entsprechend der oben denierten Grenzen ermittelt werden. In Abbildung 6.9 sind die Stundenhäugkeiten eines Jahres dargestellt, für die die Auÿenlufttemperatur kleiner oder gleich der Zulufttemperatur auf der Ordinate ist. Für den von Summenkurve t_sum_1 beschrieben Zeitraum werden zusätzlich die Luftfeuchtigkeitsgrenzwerte eingehalten. Für den Zeitbereich von t_sum_2 müsste zusätzlich befeuchtet werden. Mit t_sum_ges wird die gemeinsame Summenkurve beschrieben t_sum_ges t_sum_1 (keine Befeuchtung notwendig) t_sum_2 (Befeuchtung notwendig ) Zulufttemperatur in C Stunden im Jahr mit Außenlufttemperatur <= Zulufttemperatur Abb. 6.9: Geordnete Jahresdauerlinien spezischer Auÿenluftbedingungen zur Ermittlung der potentiellen Nutzungszeit von direkter Freien Kühlung, nach [DIN, 2003] Energiebedarf der Klimatisierungssysteme: Der direkte Vergleich des Klimatisierungssystems von RZ1 mit einem Klimatisierungskonzept unter Anwendung direkter Freier Kühlung basiert für das bestehende System auf den Bedarfswerten der Ezienzanalyse aus Abschnitt Für den Alternativfall bildet sich der Energiebedarf aus den beiden Abschnitten des Betriebs im direkten Modus der Freien Kühlung und des Betriebs des konventionellen Klimasystems für Zeiten von Auÿenluftbedingungen die keine direkte Freie Kühlung zulassen. Zu Beachten ist die schlechtere Ezienz des Standardklimasystems (Betrieb der Kälteanlage) beim Konzept der direkten Freien Kühlung, da dieses hauptsächlich zu Zeiten hoher Auÿenlufttemperaturen eingesetzt wird, so dass der durchschnittliche Wirkungsgrad geringer ausfällt. Die Regelung soll nur direkte Freie

108 96 Kapitel 6 Analysen und Szenarien der Fallstudien Kühlung bei Zeiten ohne Befeuchtungsbedarf einsetzen, für den Ezienzvergleich wird damit Abweichungen aufgrund der ungenügenden Datenverfügbarkeit zur Befeuchtung von RZ1 vorgebeugt. Einsparpotential an Klimatisierungsenergie durch direkte Freie Kühlung: Die Randbedingungen stellen die abzuführende Wärmelast sowie für das System der direkten Freien Kühlung die maximale Zulufttemperatur dar, die entsprechend den Raumbedingungen Werte zwischen 23 C und 15 C annehmen kann, um die maximale Temperaturspreizung im Rechenzentrum nicht zu überschreiten, siehe Tabelle 6.3. Alle allgemeinen Parameter sind für beide Energieberechnungen identisch. Abweichend ist die Ezienz des Zusatzklimasystems der direkten Freien Kühlung, indem es schlechtere Ezienzwerte aufweist als das Klimasystem von RZ1, da die indirekte Freikühlfunktion bei heiÿen Tagen nicht zur Verfügung steht. In Abbildung 6.10 sind die Ergebnisse graphisch zusammengefasst, die Basis wird von der wirksamen Temperaturdierenz und beispielhaften IT Leistungen aufgespannt, die Ordinate gibt die Energiedierenz an. Energieeinsparung (positive Werte) in MWh/a Zulufttemperatur in C Kühllast in kw Abb. 6.10: Energieeinsparung in MWh/a bei direkter Freier Kühlung (positive Werte) in Abhängigkeit der Zulufttemperatur für verschiedene Kühllasten, auf Basis der Gebäudetechnikezienz von RZ1 Zwei Tendenzen sind für das Verhältnis der beiden Klimatisierungssysteme zu erkennen. Bei niedrigen wirksamen Temperaturdierenzen, sprich hohen Zulufttemperaturen ist die

109 6.1 Rechenzentrum RZ1 97 Tab. 6.4: Potentielle Energieeinsparung durch direkte Freie Kühlung bei RZ1 in kwh pro Jahr und damit vermeidbare CO 2 -Emissionen direkte Freie Kühlung, unabhängig von der Wärmelast, niemals energieezienter als der Ist-Zustand. Erst ab Zulufttemperaturen unter 19 C, bis zur minimalen Zulufttemperatur von 15 C ist die direkte Freie Kühlung ezienter. Die zweite Ausprägung der ansteigenden Einsparung bei gröÿeren Lasten ist der Berechnungstatsache geschuldet, dass bisher noch keine maximale Kanalquerschnittsäche vorgegeben wird. Bei einer solchen Begrenzung würden die Reibungsverluste aufgrund der sehr hohen Geschwindigkeiten bei gefordertem Volumenstrom überproportional ansteigen, so dass diese die theoretischen Einsparungen möglicherweise wieder mindern. Konkret würde das Rechenzentrum RZ1 durch direkte Freie Kühlung bis zu 25% der Klimatisierungsenergie im Jahr einsparen können. Für beispielhafte IT Leistungen wird in Tabelle 6.4 die Potentielle Energieeinsparung in kwh pro Jahr und die damit vermiedenen CO 2 -Emissionen aufgezeigt. Der CO 2 -Emissionsfaktor (Strommix für 2006) ist mit 596 g CO2 /kw h nach [UBA, 2008] angegeben. Realisierungshemmnisse: Als Haupthemmnis sind die zu erwartenden Investitionen in zwei komplette Kühlsysteme für das Rechenzentrum zu nennen. Eine Betrachtung der Kosten wird hier für die erste Potenzialabschätzung nicht vorgenommen. Die Kontinuitätsgleichung, als Verbindung von Luftgeschwindigkeit und Durchströmungs- äche gibt den maximal transportierbaren Volumenstrom an, erstens durch das Kanalsystem und zweitens bei der Übergabe am Rack. Zur Maximierung der Zulufttemperatur ist die enge Einhausung der Racks vorgeschlagen worden, diese bieten nur eine begrenzte Lufteintrittsäche, so dass unter Vorgabe gewünschter Geschwindigkeiten beim Lufteintritt in das Rack auch eine Relation zum bzw. Begrenzung vom Gesamtvolumenstrom entsteht. ṁ = ρ Luft,mittel w Luft im Kanal A Kanal = ρ Luft,mittel w Luft,Rack,ein A Rack,verf (6.2)

110 98 Kapitel 6 Analysen und Szenarien der Fallstudien Zur Begrenzung des Volumenstroms, der den Leistungsbedarf in etwa der dritten Potenz beeinusst, sind entweder bei geringer wirksamer Temperaturdierenz nur kleine Lasten abführbar oder es sind entsprechend groÿe Temperaturdierenzen notwendig, um gröÿere Kühlleistungen erbringen zu können. Die Nutzungszeit reduziert sich dann den Klimabedingungen folgend. Bezüglich Verunreinigungen in der Zuluft ist bis dato nicht absehbar, dass die Toleranzgrenzen von Herstellerseite erweitert werden. Die Schallausbreitung ist besonders bei groÿen Anlagen zu untersuchen und geeignete Anpassungsmaÿnahmen bei Rechenzentren mit Nebennutzung zu treen, um unzulässige Lärmgrenzwerte im Betrieb zu vermeiden. 6.2 Rechenzentrum RZ Aufbau elektrische Energieversorgung RZ2 Das RZ2 wird im regulären Betrieb vom Netz des Energieversorgungsunternehmens versorgt. Sollte das Netz zur Stromversorgung ausfallen, wird die IT noch für kurze Zeit über die USV- Anlage mit dem notwendigen Strom versorgt, um sich geregelt abzuschalten und Datenverlust zu verhindern. Auch im Normalbetrieb erfolgt die IT-Versorgung über die USV-Anlage mit Doppelwandlungstechnik, so dass auch kurze und kürzeste Spannungsmängel ausgeglichen werden (vgl. Stromversorgung RZ1 in Abbildung 6.1). IT Energiebedarf: Die IT setzt sich zum Groÿteil aus Servern zusammen, die in Standard-Racks untergebracht sind. Insgesamt verfügt das Rechenzentrum über sieben verschiedene Serverräume. Die installierten Anschlussleistungen der IT variieren über die verschiedenen Serverräume von 10 kw el bis hin zu maximal 60 kw el ; für das gesamte RZ2 sind 177 kw el geplant 1. Die bezogene elektrische Leistung der IT ist in 2007 von 128 kw el auf über 155 kw el angestiegen. Bis Mitte 2008 hat sich diese Entwicklung fortgesetzt, die Auslastung der Infrastruktur lag zu diesem Zeitpunkt bereits bei rund 95%. Der Energiebedarf der IT summierte sich im Jahr 2007 auf rund 1,25 GW h el. In der momentanen IT-Ausbaustufe mit 167 kw el treten Energiedichten von 750 Watt/m 2 der Rechenzentrumsäche auf 2. Bezogen auf die Wärmentwicklung in den insgesamt 52 Racks liegt die Energiedichte bei rund 3 kw th /Rack. Es ist daher davon auszugehen, dass bereits lokale Hot-Spots vorhanden sind. 1 Entnommen aus dem Schaltplan für die Kühlungs- und Heizungstechnik von RZ2. 2 Bezogen auf einen elektrischen Leistungswert von 167 kw el und eine Fläche der IT von 223 m 2

111 6.2 Rechenzentrum RZ2 99 USV: Im RZ2 werden drei parallel geschaltete USV-Anlagen der Klassikation VFI SS 111 betrieben. Diese zeichnen sich durch eine hervorragende Qualität der Versorgungsspannung aus. Jede USV-Anlage weist eine Nennanschlussleistung von 120 kva aus. Im realen Betrieb ergibt sich mit einem cosϕ von 0,9 für die drei Anlagen eine gesamte Nennwirkleistung von 324 kw el. Der elektrische Energiebezug der USV-Anlage betrug im Betrachtungszeitraum Jan.- Dez rund 1,35 GW h el. Die Bezugsleistung der USV-Anlage stieg im Jahr 2007 von 136,5 kw el auf 164,5 kw el an und betrug im Mittel 154 kw el, siehe Abbildung Abb. 6.11: Lastgang der bezogenen Wirkleistung der USV-Anlage (kw el ) im Jahr 2007 (Quelle: Eigene Darstellung auf Grundlage von Lastgangdaten RZ2) In Abhängigkeit von der IT-Last ergibt sich für die USV-Anlagen mit ihrer Nennwirkleistung von 324 kw el ein Auslastungsspektrum von 40 bis 50%. Der Wirkungsgrad der USV-Anlage mit Doppelwandlertechnik liegt für diese Auslastung zwischen 92 und 94%, der damit auch gleichzeitig den maximalen Wirkungsgrad dieser USV darstellt. Es kann daher vermutet werden, dass im Bereich USV kaum noch Ezienzpotentiale für das RZ2 vorhanden sind Klimatisierung RZ2 Aufbau und Verschaltung: Die Serverräume des RZ2 werden ausschlieÿlich durch wassergekühlte Umluftklimaschränke klimatisiert. Zur Bereitstellung des Kaltwassers kann im RZ2 auf verschiedene Komponenten zurückgegrien werden (siehe Abbildung 6.12). Im normalen Betrieb leistet eine Kompressionskälteanlage (KKA) auf dem Dach des

112 100 Kapitel 6 Analysen und Szenarien der Fallstudien Rechenzentrums die erforderliche Kühlleistung für die Kaltwasserbereitstellung. Für den Schadensfall der Kompressionskälteanlage kann die Rückkühlung über mehrere Varianten erfolgen. Zum einen steht ein Wärmepumpensystem zu Verfügung, dessen reguläre Aufgabe die saisonale Betonkernaktivierung des Gebäudes in Form von Kühlung im Sommer und Wärmebereitstellung im Winter bildet. Das Wärmepumpensystem kann alternativ zum Gebäudebeton auch mehrere Erdsonden sowie einen oenen Nasskühlturm als Wärmesenke nutzen. Zum anderen könnten sowohl der oene Nasskühlturm als auch die Erdsonden oder gar der Gebäudekern, die jeweils in den Kühlkreislaufs eingebunden sind, die Rückkühlung übernehmen. Es handelt sich dabei um einen oenen Nasskühlturm, der die Abwärme durch adiabate Kühlung abführt und eine Kühlleistung von 180 kw th im Auslegungszustand aufweist. Abb. 6.12: Aufbau Klimatisierungssystem RZ2, schematische Darstellung Rechnerraumkühlung: Im RZ2 erfolgt die Kühlung der Racks zum Groÿteil über Umluftklimaschränke mit Kaltwasseranschluss, siehe Tabelle 6.5. Die Raumluft wird von den Umluftklimaschränken mit einer Temperatur von 25 C angesaugt und auf Temperaturen bis hin zu 14 C abgekühlt. Mittels Ventilatoren wird die gekühlte Raumluft über Doppelbodenkanäle zu den Lochplatten an die Racks zurückgeführt. Um den Prozess ezienter zu gestalten sind die Racks gemäÿ VDI-Richtlinie 2054 in einer Warmgang-Kaltgang- Anordnung aufgestellt (siehe Kapitel 4). Für eine optimale Abführung der Abwärme der Racks sollten die Klimatisierungsgeräte längs zu den Rack-Reihen aufgestellt werden. Die Raumgeometrie lässt dies aber nicht immer zu. Aus diesem Grund wurden die Umluftklimaschränke einige Meter entfernt zu den Racks an den Wänden aufgestellt. Dadurch treten unerwünschte Vermischungen der Kalt- und Warmluft im Raum auf, die zu Kli-

113 6.2 Rechenzentrum RZ2 101 Tab. 6.5: Installierte Geräte zur Rechnerraumklimatisierung RZ2 matisierungsverlusten führen. Die Kälteleistung der Umluftklimaschränke sinkt aufgrund dieses verminderten Temperaturgefälles zwischen Luft und Kaltwasser. Die nachfolgende Aufstellung in Tabelle 6.5 gibt eine Übersicht über die derzeit installierten Systeme zur Raumluftklimatisierung. Die Kälteleistung der aufgeführten Umluftklimaschränke summiert sich auf rund 300 kw th bei Nennbetriebsbedingungen. Die damit abgeführte Wärmemenge der Umluftklimaschränke lag im Betrachtungszeitraum bei schätzungsweise rund 195 kw th. Insgesamt sind 17 Umluftklimaschränke installiert, die sich auf 9 Räume verteilen. Aufgrund dieses Sachverhaltes, der Divergenz der realen thermischen Bedingungen und Nennbetriebsbedingungen und der zuvor erläuterten Problematik der Aufstellung der Umluftklimaschränke kann nicht ohne Weiteres eine Redundanz aus dem Vergleich von installierter Kälteleistung und abgeführter Wärmemenge abgeleitet werden. Pumpen: Im Kaltwasserkreislauf sind zwei identische Kreiselpumpen installiert, die jeweils über eine Leistungsaufnahme von 3 kw el verfügen und parallel geschaltet sind.

114 102 Kapitel 6 Analysen und Szenarien der Fallstudien Die Pumpen wurden in der Planung (N+1)-redundant ausgelegt, d. h. bei maximaler Kühllast sollte nur eine Pumpe in Betrieb sein. Infolge der gestiegenen Kühllast des Kaltwassersatzes, die zum Ende des Jahres 2007 bereits ca. 230 kw th3 erreichte, war es jedoch erforderlich auch die zweite Pumpe in Betrieb zu nehmen. Der Wasservolumenstrom hat sich dadurch von 27 m 3 /h auf 37 m 3 /h erhöht. Damit ist auch der elektrische Energiebedarf der Pumpe deutlich gestiegen, um über 60% auf nun ca. 5,3 kw el. Die Vor- und Rücklauftemperaturen des Kaltwassersatzes sind in der Planung mit 6 C und 12 C angesetzt. Eine am 6. Dezember 2007 durchgeführte Leistungsüberprüfung hat ergeben, dass die tatsächlichen Vor- und Rücklauftemperaturen bei 9,3 C und 14,6 C lagen. Warum diese Anhebung der KWS-Temperaturen vorgenommen wurde, ist nicht dokumentiert. Die im nächsten Abschnitt durchgeführte Analyse der Kompressionskälteanlage lässt aber den Schluss zu, dass bei Beibehaltung der ursprünglichen Temperaturpaarung die Kälteanlage oberhalb von Auÿenlufttemperaturen von 30 C nicht mehr in der Lage gewesen wäre die Abwärme des Rechenzentrums abzuführen. Die nachfolgende Abbildung 6.13 zeigt die neue Betriebsweise der Pumpe im Vergleich zur Auslegung. Abb. 6.13: Pumpenkennlinie RZ2 3 Messung am

115 6.2 Rechenzentrum RZ2 103 Die schwarze Kennlinie zeigt den Verlauf einer Einzelpumpe, die graue Kennlinie den Verlauf der beiden Kreiselpumpen im Parallelbetrieb. Mit den schwarzen Punkten werden die Betriebspunkte im Auslegungsfall 4 gekennzeichnet, die roten Punkte markieren dagegen die Betriebspunkte im derzeitigen Zustand 5. Die sich daraus ergebende Abweichung ist ebenfalls in der Abbildung eingezeichnet. Kälteanlage: Die Abwärme des Rechenzentrums wird derzeit fast ausschlieÿlich über eine Kompressionskälteanlage abgeführt 6. Bei der auf dem Dach installierten Kompressionskälteanlage (KKA) handelt es sich um eine Anlage mit einer Nennkälteleistung von 182 kw th bei einer Auslegungstemperatur von 35 C. Aufgrund der hohen Abwärme des Rechenzentrums in Höhe von rund 230 kw th wurde die Kälteanlage bereits um zusätzliche Lüfter erweitert, wodurch sich der Luftvolumenstrom um rund 15% und die Kälteleistung um schätzungsweise 5% erhöht hat. Darüber hinaus wurde durch die Anhebung der Kaltwassersatztemperaturen, wie oben beschrieben, eine weitere Leistungssteigerung der Kälteanlage erreicht. In Abbildung 6.14 ist der Lastgang der Kompressionskälteanlage, als Summe der Verdichter- und Ventilatorleistung für das Jahr 2007 angegeben. Abb. 6.14: Lastgang der Kompressionskälteanlage in kw el Grundlage von Lastgangdaten im Jahr 2007, Eigene Berechnung auf Für das Jahr 2007 zeigt der Lastgang der Kompressionskälteanlage einen im Jahresdurchschnitt leicht steigenden Verlauf. Dieser Anstieg ist auf die Zunahme der Kühllast im RZ2 zurückzuführen. Das saisonale Maximum zur Jahresmitte erschlieÿt sich aber aus 4 Wasservolumenstrom = 27 m 3 /h, Temperaturpaarung des Kaltwassersatzes = 6 C/ 12 C 5 Wasservolumenstrom = 37 m 3 /h, Temperaturpaarung des Kaltwassersatzes = 9,3 C / 14,6 C 6 Die beiden weiteren Systeme (Wärmepumpe und Nasskühlturm) sind lediglich als Redundanz vorgesehen und im Normalfall nicht in Betrieb.

116 104 Kapitel 6 Analysen und Szenarien der Fallstudien dem kleineren COP bei höheren Auÿenlufttemperaturen. Die kurzzeitigen Schwankungen bzw. Leistungsspitzen folgen dem Tagesverlauf der Auÿenlufttemperatur. Der elektrische Energiebedarf der Kompressionskälteanlage beträgt für das Jahr 2007 insgesamt ca kw h el. Im Zeitraum bis wurde die Kälteanlage in Teillast betrieben, weil es zu Störungen im Betrieb gekommen ist. Die durchschnittliche elektrische Leistung lag für den betrachteten Zeitraum 2007 bei rund 40 kw el, die Jahreshöchstleistung betrug 72 kw el. Beleuchtung: Der elektrische Energiebedarf für die Beleuchtung wurde im Rechenzentrum im Jahr 2007 nicht messtechnisch erfasst. Für die Ist-Analyse werden daher über charakteristische Beleuchtungsbedarfswerte und das Nutzungsprol die installierte Leistung und der Jahresenergiebedarf errechnet. Mit dem Richtwert von 21,5 W el /m 2 (Quelle: APC Nr. 003: Ermittlung des Gesamtleistungsbedarfes), der gesamten Rechenzentrumsäche und einer durchschnittlichen Beleuchtungsdauer von einer Stunde am Tag errechnet sich der Energiebezug der Beleuchtung im Jahresverlauf zu ca kw el Kategorisierung RZ2 In diesem Abschnitt wird das Rechenzentrum RZ2 hinsichtlich des Sicherheitskonzepts, des Betriebszwecks und der Betreiberstruktur beschrieben. Das Vorgehen erfolgt soweit als möglich analog zu den Betrachtungen für RZ1. Betriebssicherheit: Stromversorgung. Die elektrische Versorgung wurde auf die Redundanzkonzeptionen der einzelnen Komponenten sowie deren Zusammenwirken untersucht, Abbildung 6.15 gibt einen entsprechenden Überblick. Abb. 6.15: Redundanzkonzeption elektrische Energieversorgung RZ2 Bis auf die USV ist das gesamte Stromversorgungskonzept ohne Redundanzen konzipiert. Für die USV wird eine (N+1)-Redundanz vorgesehen. Das bedeutet, eines der USV- Module kann bei Ausfall vollständig ersetzt werden. Alle drei USV-Anlagen werden im Parallelbetrieb kontinuierlich betrieben.

117 6.2 Rechenzentrum RZ2 105 Klimatisierung: Grundsätzlich ist auch die Klimatisierung uneinheitlich in der Redundanzkonzeption, siehe Abbildung Abb. 6.16: Redundanzkonzeption Klimatisierung RZ2 Ein Alleinstellungsmerkmal weist das Klimasystem als Oberbegri der vielfältigen Komponenten zur Kältebereitstellung bzw. Wärmeabgabe an die Umwelt auf. Das x N ist der Tatsache geschuldet, dass die Ersatztechniken unter wechselnden Voraussetzungen variierende Leistungen erbringen können. Betriebszweck und Betreiber : Es handelt sich um ein kommunales Rechenzentrum, das neben behördlichen Systemkapazitäten auch Web-Hostings durchführt und für externe Unternehmen spezielle Rechenkapazitäten für z. B. Simulationen zur Verfügung stellt. Damit liegt ein ausgeprägter Mischbetrieb vor. Das Rechenzentrum selbst ist in einen neueren Bürokomplex integriert und stellt kein eigenständiges Gebäude dar. Anzahl Server: Im RZ2 sind 480 physische Server und ca. 120 virtualisierte Server untergebracht (Stand Ende 2007). Auÿerdem liefen noch ca. 25 Server, die nach und nach aus dem Betrieb genommen werden sollen. Mit einer Gesamtzahl von gut 625 Servern stellt das RZ2 ein Mittleres Rechenzentrum nach Tabelle Energetische Performance RZ2 Energieezienz der IT: Für die IT kann in der Literatur bisher kein eindeutiger allgemeiner Nutzen deniert werden, einzelne Ansätze (siehe Kapitel 3.3) werden deniert, sind jedoch aufgrund der uneinheitlichen Anwendungsgebiete der IT schwer vergleichbar. Aufgrund der teilweise bereits vorgenommen Virtualisierung der Server im RZ2 wird die Energieezienz der IT aber als überdurchschnittlich hoch angenommen. Energieezienz der USV: Die Energieezienz der USV-Anlage eines Rechenzentrums ist in gewissem Maÿe vom jeweiligen Sicherheitskonzept des Rechenzentrums, der notwendigen Qualität der Spannungsglättung bzw. der Klassizierung nach DIN EN sowie der Auslastung der USV-Anlage abhängig. Für RZ2 summieren sich die USV Verluste im Jahr 2007 auf insgesamt rund kw h el. Durchschnittlich lagen damit die Wirkungsgradverluste der elektrischen Wirkleistung bei rund 9,5 kw el, was einem

118 106 Kapitel 6 Analysen und Szenarien der Fallstudien prozentualen Verlust von rund 6% entspricht. Mit der bestehenden USV-Anlage sind daher kaum Einsparpotentiale zu erzielen, mit der momentanen Auslastung des RZ2 wird bereits der optimale Wirkungsgrad in Höhe von 94% erreicht. Energieezienz der Klimatisierung: Der elektrische Energiebedarf der installierten Umluft- und Deckenklimageräte wird bislang messtechnisch nicht erfasst. Die Volumenströme der Luft in Tabelle 6.5 aufgelisteten Klimatisierungsgeräte sind nicht regelbar. Es konnte ermittelt werden, dass sämtliche Klimatisierungsgeräte durchgängig in Betrieb sind. Aus diesem Grund wird die Annahme getroen, dass die bezogene elektrische Leistung annähernd der Nennleistung entspricht. Über das gesamte Jahr 2007 gesehen ergibt sich somit eine nahezu konstante Leistungsaufnahme von rund 19 kw el bzw. ein elektrischer Energiebedarf von ca kw h el /a. Dem steht die an den Raum übergebene Abwärme des Rechenzentrums in Höhe von rund 1,7 GW h th gegenüber, die nach DIN V ermittelt wurde. Die Übergabeezienz der Klimatisierung beträgt somit 10,3 kw th /kw el. Energieezienz der Pumpen: Die von den Pumpen transportierte Gesamtkühllast des Rechenzentrums lag im Jahr 2007 bei durchschnittlich rund 215 kw th. Diese errechnet sich aus der aufgenommenen Kühllast der Umluftklimaschränke zzgl. der Abwärme der Pumpen und den Verteilungsverlusten. Beide zusätzlichen Wärmeeinträge machen zusammen ca. 10% der Gesamtkühllast aus. Im Jahr 2007 wurde insgesamt eine Wärmemenge von rund 1,9 GW h th transportiert. Dem steht ein Energieverbrauch der Pumpen von rund kw h el gegenüber. Die Energieezienz der hier analysierten Pumpe beträgt damit 62,6 kw h th /kw h el. Mit einem Energieaufwand in Höhe von 1 kw h el transportiert die Pumpe eine Wärmemenge von 62,6 kw h th. Energieezienz der Kälteanlage: Die durchschnittliche Energieezienz der Kompressionskälteanlage bzw. der durchschnittliche COP beträgt für den Zeitraum 2007 ca. 4,3 kw h th /kw el. Dieser bildet sich aus dem Verhältnis des thermischen Nutzens, entsprechend der abgeführten Wärmemenge des RZ2, und dem elektrischen Energiebedarf der Verdichter inkl. der Rückkühlventilatoren Gesamtenergieeffizienz RZ2 Insgesamt wurden vom RZ2 im Jahr 2007 rund 1,9 GWh Strom bezogen. Die einzelnen prozentualen Anteile der Systeme am Gesamtenergiebedarf sind für das Jahr 2007 in der nachfolgenden Abbildung 6.17 dargestellt. 7 Quelle: Lastgangdaten des Betreibers RZ2 für das Jahr 2007.

119 6.2 Rechenzentrum RZ2 107 Abb. 6.17: Prozentualer Anteil der einzelnen Systeme am Gesamtenergiebedarf ( kw h el ) im Jahr 2007 Die IT nahm im Betrachtungszeitraum 2007 mit fast zwei Dritteln den mit Abstand gröÿten Anteil am Energiebedarf im Rechenzentrum auf. Die Klimatisierungs- und Kühlsysteme folgen mit einem Anteil von 27% an zweiter Stelle. Die Kompressionskälteanlage beansprucht allein rund 18% der Gesamtenergiemengeden für sich. Die Verluste an elektrischer Energie, die durch die USV-Anlage verursacht werden, bewegen sich mit rund vier Prozent im üblichen Spektrum. Die Gesamtenergieezienz des Rechenzentrums hinsichtlich der Gebäudetechnik wird mit dem EUE-Kennwert beschrieben (siehe Abschnitt 3.3.2). Für das Rechenzentrum RZ2 ergibt sich aus den Daten des Jahres 2007 ein EUE-Wert von 1,50. Auf eine kw h el der IT kommen folglich rund 0,5 kw h el an Versorgungsbedarf durch die Gebäudetechnik. Im Vergleich zu den in Abschnitt aufgeführten Rechenzentren stellt RZ2 für die im Rahmen dieser Studie untersuchten Rechenzentren ein überdurchschnittlich ezientes Rechenzentrum dar Schnell realisierbare Einsparpotentiale RZ2 Die Kompressionskälteanlage bendet sich auf dem Dach des Gebäudes. Dort ist sie der direkten Sonneneinstrahlung ausgesetzt. Infolge dieses Umstandes erwärmen sich Teile der Kälteanlage zu Zeiten starker Sonneinstrahlung stärker als zu Zeiten mit geringerer Sonneneinstrahlung. Die Kälteanlage gibt die aufgenommene Wärme unter anderem an die Umgebung ab, wodurch sich die Temperatur der angesaugten Umgebungsluft erhöht

120 108 Kapitel 6 Analysen und Szenarien der Fallstudien und der Energieaufwand des Verdichters der Kälteanlage steigt. Nachfolgenden wird dieser Einuss der Sonneneinstrahlung auf die Kälteanlage quantiziert und ein mögliches Energieeinsparpotential durch die Verschattung der Kälteanlage bestimmt. Die Auÿenhülle der Kälteanlage wird vereinfachend als ein quaderförmiger Körper angenommen. Demzufolge sind insgesamt fünf Flächen für die Berechnung der Sonneneinstrahlung von Bedeutung. Die Gröÿe der einzelnen Flächen wurde aus den Daten des Herstellers berechnet. Die Ausrichtung der Kompressionskälteanlage ist in Abbildung 6.18 dargestellt: Abb. 6.18: Ausrichtung der Kälteanlage, schematische Zeichnung Die Sonneneinstrahlung auf die einzelnen Flächen erfolgt nach [Quaschning, 1996] auf Basis der DIN Auf Grundlage des Sonnenstandes, der Ausrichtung der Kompressionskälteanlage zur Sonne (vgl. Abbildung 6.18) und der globalen Sonneneinstrahlung (vgl. Abbildung 6.19) wurde die senkrechte Sonneneinstrahlung auf die verschiedenen Flächen ermittelt werden. Die Dachäche ist nicht Bestandteil der Berechnungen. Abb. 6.19: Schematische Darstellung der Berechnung der Sonneneinstrahlung auf die Normale einer Seitenäche In Abbildung 6.19 ist die Umrechnung der der horizontalen Globalstrahlung auf die Normale der Seitenächen schematisch dargestellt. Neben dem Sonnenazimut α S und der

121 6.2 Rechenzentrum RZ2 109 Sonnenhöhe γ S ist auch die Globalstrahlung E G,Horizontale auf die Horizontale und die Globalstrahlung auf die Flächennormale E G,Normale abgebildet. Die globale Sonneneinstrahlung auf die Normale der vier Seitenächen wurde stundengenau berechnet und für ein Jahr ausgewertet. Dabei wurden vereinfachend die Winkelverhältnisse für den Mittelpunkt der Kompressionskälteanlage mit denen der jeweiligen Gesamtäche gleichgesetzt. Der Einstrahlungswert der Kompressionskälteanlage ergibt sich aus der kumulierten Einstrahlung von maximal zwei beschienen Flächen zu einem bestimmten Zeitpunkt. Es ist festzustellen, dass sich das Maximum der Einstrahlung in Höhe von 13,6 kw nicht in den Sommerstunden bendet, sondern im Monat Oktober. Dies ist auf den Umstand zurückzuführen, dass der Höhenwinkel γ S im Winter sehr gering ist und dadurch die globale Einstrahlung nahezu vollständig auf die beschienenen Flächen trit. Das Modell basiert auf stationären Berechnungen, die für jede Stunde eines Jahres durchgeführt wurden. Als Ergebnis kann festgehalten werden, dass das Maximum der Erwärmung der Ansaugluft durch solare Einüsse t t,l bei 0,2 C liegen kann und damit nahezu vernachlässigbar ist. Eine Verschattung der Kompressionskälteanlage kann die Einstrahlung nur teilweise reduzieren (direkte vs. diuse Strahlung), d.h. der Eekt einer Verschattung der Rückkühler würde höchstens zu einer Reduzierung von t t,l in Höhe von weniger als 0,1 C beitragen. Im Ergebnis zeigt die Verschattung der Rückkühler in der Theorie nahezu keinen Eekt auf die Leistungsfähigkeit der Kälteanlage. Es bleibt aber anzumerken, dass die angesaugte Umgebungsluft in der Sonne trotzdem höher ist als die Temperatur im Schatten. Eine gröÿere Verschattung der Dachäche könnte darum dennoch sinnvoll sein. Da es sich hierbei jedoch um komplexe Strömungsberechnungen handelt, sollte ein solcher Eekt zunächst durch Feldversuche mit entsprechenden Messungen überprüft werden Innovatives Kühlkonzept RZ2 Wie in Abschnitt bereits dargestellt, ist bisher kein Freikühlregister für das RZ2 installiert. Mit dem Szenario Freie Kühlung werden die Energieeinsparpotentiale beim elektrischen Energiebedarf der Kompressionskälteanlage durch Nutzung von Freikühlregistern untersucht. Bei der Freien Kühlung wird das Kühlmedium durch die Umgebungsluft ohne Nutzung einer Kälteanlage abgekühlt - die Grundlagen der Freien Kühlung sind im Kapitel 4.6 beschrieben. Für das RZ2 wird das Energieeinsparpotential der indirekten Freien Kühlung betrachtet, da eine Nachrüstung mit direkter freier Kühlung im RZ2 aus technischen und wirtschaftlichen Gründen nicht realisiert werden könnte.

122 110 Kapitel 6 Analysen und Szenarien der Fallstudien Technik der indirekten Freien Kühlung: Kaltwassersätze mit Freikühlregistern unterscheiden sich von konventionellen Flüssigkeitskühlern durch einen zusätzlichen Wasser/Luft- Wärmetauscher vor dem Verüssigerregister der Kompressionskälteanlage. Die technische Umsetzung im RZ2 könnte sich wie folgt darstellen: Abb. 6.20: indirekten Freien Kühlung, schematische Darstellung Die durch Ventilatoren angesaugte Umgebungsluft durchströmt zuerst den zusätzlichen Luft/Wasser-Wärmetauscher. Anschlieÿend wird die Luft zum Kondensator der Kompressionskälteanlage bzw. einem Luft/Kältemittel-Wärmetauscher geleitet. Dadurch kann die Temperatur des Kaltwassersatzes bereits vor dem Eintritt in den Verdampfer herunter gekühlt und damit die Menge an verdampftem Kältemittel reduziert werden. Voraussetzung ist, dass die Temperatur der angesaugten Umgebungsluft unter der Rücklauf-Temperatur des Kaltwassersatzes liegt (vgl. Kapitel 4.6). Im vorliegenden Fall beträgt die Rücklauf- Temperatur 15 C (vgl. Abbildung 6.20). Je höher die Vor- und Rücklauftemperaturen des Kaltwassersatzes sind, desto gröÿer ist der Anteil der Freien Kühlung im Verlauf eines Jahres bzw. das Energieeinsparpotential. Grundsätzlich ist der Anteil der Freien Kühlung von vier Faktoren abhängig: Kühllast bzw. Kälteleistung, Freikühlmodul (Wärmetauscher, Ventilatorenleistung), Vor- und Rücklauftemperatur des Kaltwassersatzes, Umgebungstemperatur. Im Fall von RZ2 ist die IT-Infrastruktur bereits vollständig ausgelastet, die Kälteleistung beträgt darum über das Jahr gesehen nahezu konstant 230 kw th. Die Auswahl des

123 6.2 Rechenzentrum RZ2 111 Kühlmoduls, insbesondere der Wärmetauscheräche und der Ventilatoren, hat entscheidenden Einuss auf die Freikühl-Leistung. Für die Berechnungen wurde das Kühlmodul XP80-Modell 14 des Herstellers AIA mit einer Kühlleistung von 254 kw th im Auslegungszustand zugrunde gelegt. Unter Annahme einer konstanten Wärmetransmission (UA-Wert) des Wärmeübertragers und einer konstanten Rücklauftemperatur des Kaltwassersatzes von 15 C veranschaulicht die nachfolgende Abbildung 6.21 den Zusammenhang zwischen der Umgebungstemperatur und dem Anteil der Freien Kühlung an der Gesamtkühlung des RZ2. Abb. 6.21: Anteil der Freikühl-Kälteleistung an der Gesamtkälteleistung RZ2 Der Anteil der Freikühl-Kälteleistung an der Gesamt-Kälteleistung steigt ab einer Auÿenlufttemperatur von 15 C mit abnehmender Auÿenlufttemperatur annähernd proportional an. Dies liegt an den etwa gleichgroÿen Wärmekapazitätsströmen der beiden Medien. Der Anstieg der Kälteleistung des Freikühlmoduls beträgt rund 10% der abzuführenden Kühlast des RZ2 je abnehmenden Grad Celsius (vgl. Abbildung 6.21). Ab einer Auÿenlufttemperatur von -2 C kann das Freikühlregister die gesamte Kälteleistung abführen. Je nach hydraulischer Anbindung und Regelung kann dieser Anteil innerhalb der farbig markierten Fläche individuell eingestellt werden. Es können demnach drei verschiedene Betriebsweisen der Freien Kühlung unterschieden werden: 1. Keine Freie Kühlung / Normaler Kälteanlagenbetrieb (T U > 15 C), 2. Teilweise Freie Kühlung / Mischbetrieb (15 C > T U > -2 C), 3. Vollständig Freie Kühlung / Vollständiger Freikühl-Betrieb (-2 C > T U ).

124 112 Kapitel 6 Analysen und Szenarien der Fallstudien Beim normalen Betrieb der Kühlung wird die Abwärme des Rechenzentrums ausschlieÿlich durch die Kompressionskälteanlage an die Umgebung abgeführt. Dies ist dann der Fall, wenn die Umgebungstemperaturen höher als die Rücklauftemperatur des Kaltwassersatz sind. In diesem Zustand ist Ventil I in 6.20 komplett geschlossen und Ventil II geönet, da der Freikühler nicht vom Kaltwassersatz durchströmt werden darf. Würde der Kaltwassersatz den Wärmetauscher doch durchströmen, würde Wärme in den Kaltwassersatz eingebracht werden und sich die Kühllast bzw. der elektrische Energiebedarf der Kompressionskälteanlage erhöhen. Wenn die Umgebungstemperatur unter die Rücklauftemperatur des Kaltwassersatzes sinkt, önet sich Ventil II und Ventil I wird geschlossen. Dieser Zustand wird im vorliegenden Fall dann erreicht, sobald die Umgebungstemperatur deutlich unterhalb von 15 C absinkt 8. Der Kaltwassersatz durchströmt zum Teil den zusätzlichen Luft/Wasser- Wärmetauscher und kühlt sich dabei ab. Durch die niedrigere Eintrittstemperatur des Kaltwassersatzes in den Verdampfer sinkt die dort abzuführende Kühllast und somit auch der elektrische Energiebedarf der Kompressionskälteanlage. Bei Umgebungstemperaturen unterhalb von -2 C kann die Abwärme des Rechenzentrums vollständig über den zusätzlichen Luft/Wasser-Wärmetauscher an die Umgebung abgegeben werden. Dieser Zustand wird auch bei anderen Kaltwassertemperaturen erreicht, wenn die Temperaturdierenz zwischen der Rücklauftemperatur des Kaltwassersatzes und der Umgebungstemperatur ca. elf Kelvin oder mehr erreicht. Allerdings kann mit einem Freikühlregister nicht der gesamte elektrische Energiebedarf der Kälteanlage eingespart werden, weil auch bei einem Freikühlregister elektrisch angetriebene Ventilatoren für die Zufuhr der Kühlluftmassen notwendig sind. Die Energieeinsparung ist nicht konstant, da die Kompressionskälteanlage bei niedrigen Auÿenlufttemperaturen ezienter arbeitet. Das Energieeinsparpotential eines Freikühlregisters in Abhängigkeit von der Auÿenlufttemperatur ergibt sich aus dem Vergleich des benötigten elektrischen Energiebedarfs der Kompressionskälteanlage und dem Anteil des Freikühlmoduls an der Gesamtkälteleistung (vgl. Abbildung 6.21). Im Vergleich zur Auslegung hat sich der elektrische Energiebedarf der Kompressionskälteanlage durch die Erhöhung des Luftvolumenstromes und die Anhebung der Vorund Rücklauftemperaturen des Kaltwassersatzes verändert. Aus diesem Grund wurde das veränderte Verhalten der Kompressionskälteanlage neu simuliert. Als Ergebnis lässt sich 8 Bei einer Umschalttemperatur von 15 C ist die Leistung des Freikühlers 0. Dies wäre der Umschaltpunkt eines idealen Freikühlers, der keinen Lüfter Energiebedarf hat und wasserseitig keine Druckverluste hervorruft.

125 6.2 Rechenzentrum RZ2 113 festhalten, dass die veränderten Parameter der Kompressionskälteanlage zu einer durchschnittlich 11% höheren Kälteleistung bei gleichem elektrischem Energiebedarf führen. Die nachfolgende Abbildung zeigt den elektrischen Energiebedarf der veränderten Kompressionskälteanlage bei der als konstant angenommen Kühllast des Rechenzentrums in Höhe von 230 kw h th. Abb. 6.22: Elektrischer Energiebedarf der Kompressionskälteanlage für RZ2 bei einer Kälteleistung von 230 kw h th in Abhängigkeit von der Auÿentemperatur In Abbildung 6.22 ist der Verlauf des elektrischen Energiebedarfes der Kompressionskälteanlage bei konstanter Kälteleistung des RZ2 (230 kw h th ) in Abhängigkeit von der Auÿenlufttemperatur dargestellt. Mit zunehmender Auÿentemperatur muss das Kältemittel folgerichtig auf höhere Temperauren verdichtet werden, um von der Umgebung rückgekühlt zu werden. Unter der Annahme von gleich bleibenden Vor- und Rücklauftemperaturen des Kaltwassersatzes steigt damit der elektrische Energiebedarf der Kompressionskälteanlage an. Aus dem elektrischen Energiebedarf der Kompressionskälteanlage (vgl. Abbildung 6.22) zusammen mit dem Kälteleistungsanteil des Freikühlmoduls (vgl. Abbildung 6.21) kann ein temperaturabhängiges Energieeinsparpotential errechnet werden. Dieses ist in der nachfolgenden Abbildung 6.23 dargestellt. Wie Abbildung 6.23 zeigt, ist im betrachteten Fall die Verwendung der Freien Kühlung erst unterhalb einer Umgebungstemperatur von ca. 13 C sinnvoll. Da das Freikühlmodul einen höheren Luftvolumenstrom als die betrachtete Kompressionskälteanlage benötigt, ist der elektrische Energiebedarf für die Ventilatoren des Freikühlmoduls gröÿer als der

126 114 Kapitel 6 Analysen und Szenarien der Fallstudien Abb. 6.23: Energieeinsparpotential des Freikühlmoduls RZ2 der Kompressionskälteanlage. Der energetische Break-Even-Punkt, ab dem sich Freie Kühlung bezahlt macht, liegt hier ca. zwei Kelvin unterhalb der theoretischen Anfangstemperatur für den Einsatz Freier Kühlung. Das Energieeinsparpotential eines Freikühlmoduls (in kw h el ) errechnet sich aus dem temperaturabhängigen elektrischen Energiebedarf der Kompressionskälteanlage multipliziert mit dem temperaturspezischen Energieeinsparpotential des Freikühlmoduls über den gesamten Jahresverlauf. Die nachfolgende Abbildung 6.24 zeigt die eingesparte Energiemenge durch Freie Kühlung im Verlauf eines Jahres. Klar zu erkennen ist, dass die Spitzen der Leistungsaufnahme der Kälteanlage bei hohen Temperaturen nicht durch den Freikühler gemindert werden können. Abbildung 6.24 zeigt das mögliche Energieeinsparpotenzial für den Einsatz indirekter Freier Kühlung in RZ2. In der oberen rechten Hälfte ist zusätzlich die Kälteleistung des Freikühlmoduls als Anteil an der Gesamtkühllast des Rechenzentrums in Höhe von 230 kw th dargestellt. Sowohl der elektrische Energiebedarf der Kompressionskälteanlage (blau) als auch die Energieeinsparung des Freikühlmoduls (grün) sind von der Auÿentemperatur abhängig. Es ergibt sich eine für Freie Kühlung typische Verteilung der eingesparten Energiemenge. In den kälteren Jahreszeiten von November bis April kann ein Groÿteil der Abwärme des Rechenzentrums durch Freie Kühlung abgeführt werden, während in den warmen Jahreszeiten von Mai bis September kaum Freie Kühlung angewendet werden kann. Insgesamt lassen sich durch ein solches Freikühlmodul für das RZ2 ca. 29% der benötigten elektrischen Energie der Kompressionskälteanlage einsparen. Dies entspricht einem Energieeinsparpotential von ca kw h el. Der elektrische Energie-

127 6.2 Rechenzentrum RZ2 115 Abb. 6.24: Energieeinsparpotential des Freikühlmoduls RZ2 über ein Jahr bedarf der Kompressionskälteanlage reduziert sich dadurch von kw h el auf ca kw h el Innovatives Kühlkonzept RZ2 - Einbindung Nasskühlturm Für das RZ2 besteht die Möglichkeit, den bereits installierten oenen Nasskühlturm in das Kühlkonzept des Rechenzentrums zu integrieren. Die Kälteleistung, die vom Nasskühlturm bereitgestellt werden könnte, würde zu einer Verringerung der Kälteleistung der Kompressionskälteanlage führen. Dadurch ist es möglich, wiederum durch Nutzung von Freier Kühlung, den elektrischen Energieaufwand der Kühlung zu reduzieren. Bei dem Nasskühlturm handelt es sich um den Typ eines oenen Nasskühlturms, der einen Wasserkreislauf ohne Frostschutz abkühlt. Aus diesem Grund kann der Nasskühlturm nicht bei Auÿentemperaturen unter dem Gefrierpunkt betrieben werden. Die Grenztemperatur wird damit für die Berechnungen auf 0 C festgelegt. Der Nasskühlturm ist bereits an den Kaltwasserkreislauf angeschlossen. Die zusätzlichen Investitionskosten würden hauptsächlich für die Änderung der Regelung des Kühlkonzeptes anfallen. Bei dem im Rechenzentrum installierten oenen Nasskühlturm handelt es sich laut Herstellerangabe um einen Dunstturm mit einer Kälteleistung von 180 kw th im Nennbetriebspunkt. Die Umgebungsluft wird von Lüftern angesaugt. Der elektrische Leistungsbedarf der Lüfter beträgt bei dem maximalen Luftvolumenstrom von m 3 /h rund 8,9 kw el.

128 116 Kapitel 6 Analysen und Szenarien der Fallstudien Für die Berechnung der Kälteleistung des oenen Nasskühlturms wurde hier die charakteristische Gleichung von [Berliner, 1975] auf Basis des einfachen Mittelwertverfahren von Merkel verwendet. Damit ergibt sich für den im Rechenzentrum installierten oenen Nasskühlturm ein Z-Wert von 16,4 kg/s. Die Wassereintrittstemperatur des oenen Nasskühlturms liegt konstant bei 14 C. Die Kälteleistung des oenen Nasskühlturms sinkt mit zunehmender Feuchtkugeltemperatur, weil die Enthalpie der Luft ansteigt. Eine geringere Luftfeuchte führt zu einer gröÿeren Verdunstungsmenge und hat dementsprechend einen Anstieg der Kälteleistung zur Folge. Bei einer relative Luftfeuchte von beispielsweise ϕ = 0, 5 kann bereits ab einer Auÿenlufttemperatur von 10,2 C die komplette Abwärme des RZ2 an die Umgebung abgeführt werden. In der oberen rechten Hälfte der Abbildung 6.25 ist zusätzlich zu den eingesparten Energiemengen die Kälteleistung des Freikühlmoduls als Anteil an der Gesamtwärmelast des RZ2 dargestellt. Wie sich zeigt können mit dem oenen Nasskühlturm groÿe Energiemengen eingespart werden - über ein Jahr gesehen ergibt sich ein Energieeinsparpotential von rund kw h el und damit ein um über die Hälfte gröÿeres Energieeinsparpotential als bei der einfachen Freien Kühlung (vgl. Kapitel 6.2.7) dargestellten Freikühlmodul. Abb. 6.25: Energieeinsparpotential RZ2 durch Nutzung des Nasskühlturm im Verlauf eines Jahres Dies ist darauf zurückzuführen, dass die Verdunstungskühlung aufgrund der hohen Verdampfungsenthalpie des Wassers leistungsstärker ist und über den Jahreszeitraum ein höheres Einsatzpotential besitzt als die indirekte Wärmeübertragung. Gemessen am Energiebedarf der Kompressionskälteanlage in Höhe von kw h el ergibt sich eine prozentuale Energieeinsparung von bis zu 38%. Den geringeren Energiekosten müssen jedoch

Konzeptstudie zur Energie- und Ressourceneffizienz im Betrieb von Rechenzentren

Konzeptstudie zur Energie- und Ressourceneffizienz im Betrieb von Rechenzentren Konzeptstudie zur Energie- und Ressourceneffizienz im Betrieb von Rechenzentren Technische Universität Berlin Institut für Energietechnik Dipl.-Ing. Marc Schaefer und Prof. Dr. Frank Behrendt Gefördert

Mehr

» Das Cloud-Labor. » Effizienz auf dem Prüfstand. future thinking. Marc Wilkens www.regioit-aachen.de. Sinsheim, 29.03.2012

» Das Cloud-Labor. » Effizienz auf dem Prüfstand. future thinking. Marc Wilkens www.regioit-aachen.de. Sinsheim, 29.03.2012 » Das Cloud-Labor» Effizienz auf dem Prüfstand future thinking Marc Wilkens www.regioit-aachen.de Sinsheim, 29.03.2012 GGC-Lab: Die Projektpartner Technische Universität Berlin 2 Vorstellung GGC-Lab: Übersicht

Mehr

Green IT Energieeffizienz im Rechenzentrum

Green IT Energieeffizienz im Rechenzentrum Green IT Energieeffizienz im Rechenzentrum Patrick Göttel SWK-IT SWK und Green IT: Wo kommen wir her? 1 Green IT - Inhalt Allgemeine Entwicklung/ Trends Was ist Green IT Warum Green IT Aktuelle Zahlen/

Mehr

239: Rechenzentren. Hochbauamt. Technische Richtlinie. 1. Allgemein

239: Rechenzentren. Hochbauamt. Technische Richtlinie. 1. Allgemein Hochbauamt Fachkoordination Gebäudetechnik Stampfenbachstrasse 110, Postfach, 8090 Zürich Telefon: 043 259 30 01 Telefax: 043 259 51 92 Technische Richtlinie 239: Rechenzentren 1. Allgemein 1.1. Geltungsbereich

Mehr

Aktuelle Trends im Bereich Kühlung von Rechenzentren

Aktuelle Trends im Bereich Kühlung von Rechenzentren ASYB12LDC / AOYS12LDC Aktuelle Trends im Bereich Kühlung von Rechenzentren Dr.-Ing. Manfred Stahl 6.03.2015 Seite 1 Thema 1: Optimierung der PUE-Werte Kennwert zur Beurteilung der Energieeffizienz eines

Mehr

www.prorz.de Energieeffizienz im RZ

www.prorz.de Energieeffizienz im RZ www.prorz.de Energieeffizienz im RZ Agenda 1. Warum ist Energieeffizienz im RZ wichtig? 2. Was kann man tun um effizienter zu werden? 3. Aktuelle Entwicklungen am Markt 2 Berlin / Marc Wilkens / 08.07.2014

Mehr

Energieverbrauch und Energiekosten von Servern und Rechenzentren in Deutschland. Aktuelle Trends und Einsparpotenziale bis 2015.

Energieverbrauch und Energiekosten von Servern und Rechenzentren in Deutschland. Aktuelle Trends und Einsparpotenziale bis 2015. Energieverbrauch und Energiekosten von Servern und Rechenzentren in Deutschland Aktuelle Trends und Einsparpotenziale bis 2015 Berlin, Mai 2012 Borderstep Institut für Innovation und Nachhaltigkeit gemeinnützige

Mehr

Energieeffizienz in Rechenzentren

Energieeffizienz in Rechenzentren Energieeffizienz in Rechenzentren Dr. Ralph Hintemann Borderstep Institut für Innovation und Nachhaltigkeit Stellv. Vorsitzender des BITKOM-Arbeitskreises Rechenzentrum & Infrastruktur 01 Fragestellungen

Mehr

Internationale Norm ISO/IEC 30134 Information Technology Data Centres Key Performance Indicators. Dr. Ludger Ackermann dc-ce RZ-Beratung

Internationale Norm ISO/IEC 30134 Information Technology Data Centres Key Performance Indicators. Dr. Ludger Ackermann dc-ce RZ-Beratung 1 Internationale Norm ISO/IEC 30134 Information Technology Data Centres Key Performance Indicators Dr. Ludger Ackermann dc-ce RZ-Beratung 2 Agenda Kurzvorstellung dc-ce rz beratung Übersicht Normungslandschaft

Mehr

Green IT - Inhalt. Allgemeine Entwicklung/ Trends. Einsparpotenziale/ Überlegungen im Rechenzentrum. TWK und Green IT

Green IT - Inhalt. Allgemeine Entwicklung/ Trends. Einsparpotenziale/ Überlegungen im Rechenzentrum. TWK und Green IT wir machen`s einfach! Green IT Text Energieeffizienz im Rechenzentrum Wörrstadt, 17.Juni 2011 Angela Wahl-Knoblauch, TWK Technische WerkeKaiserslautern GmbH IT Vertrieb und Kundenbetreung Green IT - Inhalt

Mehr

Swisscom Rechenzentrum Wankdorf

Swisscom Rechenzentrum Wankdorf Swisscom AG Rechenzentrum Wankdorf Stauffacherstrasse 59 3015 Bern www.swisscom.ch Swisscom Rechenzentrum Wankdorf Für eine erfolgreiche Zukunft Das Swisscom Rechenzentrum Wankdorf ist die Antwort auf

Mehr

Forschungsergebnisse Projekt AC4DC

Forschungsergebnisse Projekt AC4DC Forschungsergebnisse Projekt AC4DC www.bmwi.de Dezember 2014 Projektüberblick Projekttitel: BMWi FKZ: AC4DC - Adaptive Computing for green Data Centers 01 ME11046A Laufzeit: 01.05.2011 bis 30.10. 2014

Mehr

Neue IT-Perspektiven für die Hauptstadtregion. Berlin, 14. März 2008

Neue IT-Perspektiven für die Hauptstadtregion. Berlin, 14. März 2008 Neue IT-Perspektiven für die Hauptstadtregion Berlin, 14. März 2008 Inhaltsverzeichnis Das Unternehmen e-shelter Kurzprofil / Leistungsspektrum Der neue e-shelter Campus Berlin Aktuelle Entwicklungen Die

Mehr

arvato Systems Energieeffizienz der Rechenzentren in Gütersloh

arvato Systems Energieeffizienz der Rechenzentren in Gütersloh arvato Systems Energieeffizienz der Rechenzentren in Gütersloh 1 Marcus Bärenfänger arvato Systems November 2013 Bertelsmann International führendes Medien- und Serviceunternehmen Zahlen & Fakten 16,1

Mehr

Energieeffizienz in Rechenzentren

Energieeffizienz in Rechenzentren Energieeffizienz in Rechenzentren Dr. Ralph Hintemann Borderstep Institut für Innovation und Nachhaltigkeit Stellv. Vorsitzender des BITKOM-Arbeitskreises Rechenzentrum & Infrastruktur 01 Fragestellungen

Mehr

Ergebnisse einer neuen Studie im Auftrag des Umweltbundesamtes

Ergebnisse einer neuen Studie im Auftrag des Umweltbundesamtes Die Trends in Rechenzentren bis 2015 Ergebnisse einer neuen Studie im Auftrag des Umweltbundesamtes Dr. Ralph Hintemann Borderstep Institut für Innovation und Nachhaltigkeit Veranstaltung Rechenzentren

Mehr

Grün & sicher Rechenzentren heute

Grün & sicher Rechenzentren heute www.prorz.de Grün & sicher Rechenzentren heute Energieeffizienz und Sicherheit in Rechenzentren 1 Grün & sicher: Rechenzentren heute Das Unternehmen 2 Grün & sicher: Rechenzentren heute Die prorz Rechenzentrumsbau

Mehr

betreiben Consens Herbst Seminar 2011 Das Rechenzenter im Spannungsfeld Green-IT Kostensenkung Verfügbarkeit Stefan Dürig, Leiter Logistik

betreiben Consens Herbst Seminar 2011 Das Rechenzenter im Spannungsfeld Green-IT Kostensenkung Verfügbarkeit Stefan Dürig, Leiter Logistik betreiben Consens Herbst Seminar 2011 Das Rechenzenter im Spannungsfeld Green-IT Kostensenkung Verfügbarkeit Stefan Dürig, Leiter Logistik Behauptung Ein Rechenzenter ist teuer produziert zu viel CO 2

Mehr

Energieeffiziente Rechenzentren. Stellschrauben im Rechenzentrum. 29.10.2009 - Hamburg

Energieeffiziente Rechenzentren. Stellschrauben im Rechenzentrum. 29.10.2009 - Hamburg Energieeffiziente Rechenzentren Stellschrauben im Rechenzentrum 29.10.2009 - Hamburg Bereiche, die zu betrachten sind: Messungen / Transparenz der Kosten Strom Klima Hardware / Konsolidierung + Virtualisierung

Mehr

ecube Concept Die Lösung für ultraeffiziente Rechenzentren Frankfurt, 18.03.2015

ecube Concept Die Lösung für ultraeffiziente Rechenzentren Frankfurt, 18.03.2015 ecube Concept Die Lösung für ultraeffiziente Rechenzentren Frankfurt, e³ computing GmbH Technologiepartner für ultraeffiziente Rechenzentren e³computing (e3c) ist der nationale und internationale Technologiepartner

Mehr

Häufig gestellte Fragen (FAQ) zur Zertifizierung mit dem Blauen Engel für energiebewussten Rechenzentrumsbetrieb

Häufig gestellte Fragen (FAQ) zur Zertifizierung mit dem Blauen Engel für energiebewussten Rechenzentrumsbetrieb Häufig gestellte Fragen (FAQ) zur Zertifizierung mit dem Blauen Engel für energiebewussten Rechenzentrumsbetrieb Björn Schödwell Wissenschaftlicher Mitarbeiter der TU Berlin (IKM) Berlin, 01.07.2012 Wachsende

Mehr

Ist meine Infrastruktur fit für die Wolke?

Ist meine Infrastruktur fit für die Wolke? W I L K E N S ENERGIESYSTEMBERATUNG Ist meine Infrastruktur fit für die Wolke? Agenda 1. GGC-Lab (TU Berlin) Vorstellung GGC-Lab Lastgänge und Energieverträge RZ-Infrastruktur und Cloud Computing 2. Wilkens

Mehr

Runenburg hostet grün im datadock

Runenburg hostet grün im datadock Runenburg hostet grün im datadock var lsjquery = jquery; lsjquery(document).ready(function() { if(typeof lsjquery.fn.layerslider == "undefined") { lsshownotice('layerslider_1','jquery'); } else { lsjquery("#layerslider_1").layerslider({navprevnext:

Mehr

Applikationsbericht. Kaltgang-Einhausung im Rechenzentrum Das clevere Konzept, Energie optimal zu nutzen

Applikationsbericht. Kaltgang-Einhausung im Rechenzentrum Das clevere Konzept, Energie optimal zu nutzen Applikationsbericht Kaltgang-Einhausung im Rechenzentrum Das clevere Konzept, Energie optimal zu nutzen Die Wärmelasten in Rechenzentren steigen stetig an, wobei die Raumklimatisierung erfahrungsgemäss

Mehr

Energieeffizienz in Industrie und Gewerbe von der Erzeugung bis zum Verbraucher

Energieeffizienz in Industrie und Gewerbe von der Erzeugung bis zum Verbraucher Energieeffizienz in Industrie und Gewerbe von der Erzeugung bis zum Verbraucher Vor dem Hintergrund hoher Energiepreise sowie den Anforderungen des Klima- und Umweltschutzes ist die Bedeutung des Faktors

Mehr

Unsere Rechenzentren IT auf höchstem Niveau

Unsere Rechenzentren IT auf höchstem Niveau Unsere Rechenzentren IT auf höchstem Niveau Die Anforderungen der Wirtschaft bezüglich IT-Kapazität, Verfügbarkeit und Sicherheit der Daten steigen. Neue Konzepte wie Dynamic Computing lassen Unternehmen

Mehr

Herzlich Willkommen!

Herzlich Willkommen! Bremen, den 09. Februar 2011 INITIATIVE ENERGIE für IT- und Rechenzentren Herzlich Willkommen! erecon AG Hansjürgen Wilde Konsul Smidt Straße 8h - Speicher I - 28217 Bremen www.erecon.de Ein paar Worte

Mehr

Energiemanagementsystem nach DIN EN 16001 am Beispiel eines metallverarbeitenden Betriebs

Energiemanagementsystem nach DIN EN 16001 am Beispiel eines metallverarbeitenden Betriebs Energiemanagementsystem nach DIN EN 16001 am Beispiel eines metallverarbeitenden Betriebs 1. Teil: Ziele und Inhalte der DIN EN 16001 - Energiemanagementsysteme 2. Teil: Einführung der DIN EN 16001 in

Mehr

DataCenter 2020. Infrastructure Test Lab Optimierung von Rechenzentrums-Management und -Effizienz.

DataCenter 2020. Infrastructure Test Lab Optimierung von Rechenzentrums-Management und -Effizienz. DataCenter 2020. Infrastructure Test Lab Optimierung von Rechenzentrums-Management und -Effizienz. Dr. Rainer Weidmann, DC Engineering Infrastructure Test Lab Optimierung von Rechenzentrums-Management

Mehr

MAT Mess- und Analysentechnik

MAT Mess- und Analysentechnik 8. Workshop Energieeffizienz Energiemanagement was bringt es wirklich? Pflicht oder Kür? 25. Juni 2015 in Erfurt Branchenübergreifende Energieeffizienzmaßnahmen übertragbare Beispiele aus Vorstellung erster

Mehr

Leistungsaufnahmemessung

Leistungsaufnahmemessung Leistungsaufnahmemessung Seminar Green IT Titus Schöbel Gliederung Motivation Messtechnik Strommessgeräte Wandel der Leistungsaufnahmemessung Leistungsaufnahmemessung PUE Gebäudeleittechnik Chancen und

Mehr

Server und Rechenzentren in Deutschland im Jahr 2012

Server und Rechenzentren in Deutschland im Jahr 2012 Ralph Hintemann, Klaus Fichter Server und Rechenzentren in Deutschland im Jahr 2012 1. Entwicklung des Energieverbrauchs der Server und Rechenzentren in Deutschland Der Energieverbrauch der Server und

Mehr

Jobst Willers Engineering AG Ingenieure für Energie und Systemik

Jobst Willers Engineering AG Ingenieure für Energie und Systemik PUEDA Förderprogramm zur Steigerung der Energieeffizienz in bestehenden Rechenzentren Das Förderprogramm hat zum Ziel, die Energieeffizienz in bestehenden Rechenzentren und Serverräumen zu verbessern Dem

Mehr

Seminar. Energieeffiziente Kühlung von Rechenzentren. Dipl. Ing. u. Techn. Betriebswirt Dirk Heidenberger

Seminar. Energieeffiziente Kühlung von Rechenzentren. Dipl. Ing. u. Techn. Betriebswirt Dirk Heidenberger Seminar Energieeffiziente Kühlung von Rechenzentren Dipl. Ing. u. Techn. Betriebswirt Dirk Heidenberger Agenda Energieeffiziente Kühlung von Rechenzentren 1. Unified Competence GmbH 2. Energiebedarf von

Mehr

Fachforum 5. Energie aus dem norddeutschen Untergrund Geothermie und andere neuartige Ansätze. Herausforderungen aus Sicht einer Universität

Fachforum 5. Energie aus dem norddeutschen Untergrund Geothermie und andere neuartige Ansätze. Herausforderungen aus Sicht einer Universität Fachforum 5 Energie aus dem norddeutschen Untergrund Geothermie und andere neuartige Ansätze Herausforderungen aus Sicht einer Universität net 2011, Goslar, 28.03.2011 Ressourcen im norddeutschen Untergrund

Mehr

Harmonisierung redundanter Kühlungs- und Stromversorgungskonzepte für ausfallsichere Hochleistungs-Rechenzentren

Harmonisierung redundanter Kühlungs- und Stromversorgungskonzepte für ausfallsichere Hochleistungs-Rechenzentren DATA CENTER CONVENTION KongressTrack Harmonisierung redundanter Kühlungs- und Stromversorgungskonzepte für ausfallsichere Hochleistungs-Rechenzentren Dipl.-Ing. Klaus Kühr Geschäftsführer klauskuehr@rsg-gmbh.eu

Mehr

MIT VISPLANUM IN DIE ZUKUNFT EIZUNGSERSATZ HEIZUNGSOPTIMIERUNG PHOTOVOLTAIKANLAGE OLARTHERMIE THERMOGRAFIE FÖRDERBEITRÄGE GEBÄUDESANIERUNG

MIT VISPLANUM IN DIE ZUKUNFT EIZUNGSERSATZ HEIZUNGSOPTIMIERUNG PHOTOVOLTAIKANLAGE OLARTHERMIE THERMOGRAFIE FÖRDERBEITRÄGE GEBÄUDESANIERUNG MIT VISPLANUM IN DIE ZUKUNFT EIZUNGSERSATZ HEIZUNGSOPTIMIERUNG PHOTOVOLTAIKANLAGE OLARTHERMIE THERMOGRAFIE FÖRDERBEITRÄGE GEBÄUDESANIERUNG Die Visplanum GmbH Die Visplanum GmbH bietet zukunftsweisende

Mehr

Mit Verbrauchstransparenz zu Energieeffizienz Plug & Play Energie Monitoring für einfache und schnelle Identifikation von Einsparpotentialen

Mit Verbrauchstransparenz zu Energieeffizienz Plug & Play Energie Monitoring für einfache und schnelle Identifikation von Einsparpotentialen Mit Verbrauchstransparenz zu Energieeffizienz Plug & Play Energie Monitoring für einfache und schnelle Identifikation von Einsparpotentialen Stephan Theis Stephan.Theis@econ-solutions.de econ solutions

Mehr

Betriebskostensenkung im Rechenzentrum

Betriebskostensenkung im Rechenzentrum Betriebskostensenkung im Rechenzentrum Energieeinsparung durch innovative Rückkühlung Referent: Dipl.-Ing (FH) Joachim Weber JAEGGI Hybridtechnologie AG 27.05.2010; Thomas Odrich; Jäggi/ Güntner (Schweiz)

Mehr

Das Government Green Cloud Laboratory Energieeffiziente Cloud Lösungen für den kommunalen Sektor

Das Government Green Cloud Laboratory Energieeffiziente Cloud Lösungen für den kommunalen Sektor Das Government Green Cloud Laboratory Energieeffiziente Cloud Lösungen für den kommunalen Sektor Prof. Dr. Rüdiger Zarnekow Berlin, den 04.12.2012 Fachgebiet Informations- und Kommunikationsmanagement

Mehr

Energieeinsparung in Industrie und Gewerbe

Energieeinsparung in Industrie und Gewerbe Energieeinsparung in Industrie und Gewerbe Praktische Möglichkeiten des rationellen Energieeinsatzes in Betrieben Prof. Dr.-Ing. Martin Dehli Mit 156 Bildern, 16 Tabellen und 163 Literaturstellen Kontakt

Mehr

[ High Performance Computing LowEx Cooling ]

[ High Performance Computing LowEx Cooling ] [ High Performance Computing LowEx Cooling ] Thermodynamische Grundsätze konsequent umsetzen Standards anwenden 27.5.2010 - Data Center Dynamics Zurich A. Altenburger, Amstein+Walthert AG 2 LowEx RZ die

Mehr

T-Systems Austria. Green Dynamics Modell.

T-Systems Austria. Green Dynamics Modell. T-Systems Austria. Green Dynamics Modell. Max Schaffer Vice President ICT Operations. 26-11-2008 T-Systems Austria Green Dynamics Modell 1 T-Systems Green ICT. Konkrete Ziele. Vollständige Umweltbewertung

Mehr

Energiewende nicht ohne Green IT. Marcel Ledergerber DCFM Credit Suisse Für electrosuisse 19. Juni 2013

Energiewende nicht ohne Green IT. Marcel Ledergerber DCFM Credit Suisse Für electrosuisse 19. Juni 2013 Energiewende nicht ohne Green IT Marcel Ledergerber DCFM Credit Suisse Für electrosuisse 19. Juni 2013 Die Credit Suisse und Ihre Data Center Eine International tätige Bank mit weltweit 47 000 Mitarbeitern

Mehr

Bestandsaufnahme effiziente Rechenzentren in Deutschland

Bestandsaufnahme effiziente Rechenzentren in Deutschland Bestandsaufnahme effiziente Rechenzentren in Deutschland eco Verband der deutschen Internetwirtschaft e.v. Patrick Pulvermüller Leiter Arbeitskreis Data Center ak-datacenter@eco.de Inhalt 1 Einleitung...

Mehr

Energieeffizienz in der Industrie Energieeffiziente Gewerbegebiete

Energieeffizienz in der Industrie Energieeffiziente Gewerbegebiete Energieeffizienz in der Industrie Energieeffiziente Gewerbegebiete Eine Methodik zur Analyse und Optimierung realer Energiesysteme im Bestand 2014 Stadt Karlsruhe Liegenschaftsamt Abt. für Geoinformation

Mehr

Globale energiepolitische Herausforderungen 2050*

Globale energiepolitische Herausforderungen 2050* Energiezukunft: Ausgangssituation & Herausforderungen Wolfgang Anzengruber, Generaldirektor VERBUND MSc-Lehrgang Management & Umwelt, 19.01.2012 VERBUND AG, www.verbund.com Globaler Kontext Globale energiepolitische

Mehr

Trends für die zukünftige Energieversorgung durch Big Data

Trends für die zukünftige Energieversorgung durch Big Data Trends für die zukünftige Energieversorgung durch Big Data 8. Gasfachliche Tagung der VNG AG am 23. April 2015 in Mainz Dr.-Ing. Aaron Praktiknjo Definition von Big Data Extremely large data sets that

Mehr

Konzept der dezentralen Windwärme

Konzept der dezentralen Windwärme Konzept der dezentralen Windwärme Wärmeversorgung von Gebäuden vor dem Hintergrund der Energiewende und des Klimaschutzes Prof. Dr. Andreas Dahmke Prof. Dr. Ing. Constantin Kinias 1 Stand: 20. Februar

Mehr

Einsparpotenziale beim Kunststoffeinsatz durch Industrie, Handel und Haushalte in Deutschland

Einsparpotenziale beim Kunststoffeinsatz durch Industrie, Handel und Haushalte in Deutschland Einsparpotenziale beim Kunststoffeinsatz durch Industrie, Handel und Haushalte in Deutschland Studie im Auftrag der NABU Bundesgeschäftsstelle - Kurzfassung - Henning Wilts, Nadja von Gries, Bettina Rademacher,

Mehr

Energiepolitischer Rahmen in Europa Drei ambitionierte Ziele für das Jahr 2020

Energiepolitischer Rahmen in Europa Drei ambitionierte Ziele für das Jahr 2020 8. Energie-Gipfel im Kanton Aarau, Spreitenbach, 13. September 2012 Prof. Dr.-Ing. Jochen Kreusel Technologische Voraussetzungen für die Energiewende 13.09.2012 EnergiegipfelAarau_20120913.ppt GF-SG 1

Mehr

Höper Technical Consulting

Höper Technical Consulting Messtechnik für Energiemanagement Systeme Wir bieten unseren Kunden zusammen mit unseren Partnern das folgende Leistungspaket an. Damit unsere Kunden es so bequem und einfach wie möglich haben, sind wir

Mehr

Revitalisierung und Ertüchtigung von Bestandsgebäuden mit dem ecube Concept

Revitalisierung und Ertüchtigung von Bestandsgebäuden mit dem ecube Concept ABSTRACT Revitalisierung und Ertüchtigung von Bestandsgebäuden mit dem ecube Concept Schaffung neuer Rechenzentrumsfläche ist zeit- und kostenintensiv Neue Rechenzentren benötigen Flächen und Gebäude,

Mehr

André Schärer, BU Niederspannungs-Systeme / ABB Automation & Power World, 7./ 8. Juni 2011 Gleichstromversorgung in Rechenzentren

André Schärer, BU Niederspannungs-Systeme / ABB Automation & Power World, 7./ 8. Juni 2011 Gleichstromversorgung in Rechenzentren André Schärer, BU Niederspannungs-Systeme / ABB Automation & Power World, 7./ 8. Juni 2011 Gleichstromversorgung in Rechenzentren Ausgangslage Den negativen Trends erfolgreich entgegenwirken Der stetig

Mehr

DataCenter 2020: Hohe Energiedichte im Rechenzentrum effizient und zuverlässig

DataCenter 2020: Hohe Energiedichte im Rechenzentrum effizient und zuverlässig DataCenter 2020: Hohe Energiedichte im Rechenzentrum effizient und zuverlässig März 2011 DataCenter 2020: Hohe Energiedichte im Rechenzentrum effizient und zuverlässig Rückblick: Ergebnisse der ersten

Mehr

ERNEUERBARE ENERGIEN.

ERNEUERBARE ENERGIEN. WARMWASSER ERNEUERBARE ENERGIEN KLIMA RAUMHEIZUNG ERNEUERBARE ENERGIEN. INTELLIGENTE ENERGIEKONZEPTE FÜR DAS EFFIZIENZHAUS VON HEUTE. Karlheinz Reitze ENERGIEKONZEPT DER BUNDESREGIERUNG Erneuerbare Energien

Mehr

Worüber definiert sich Effizienz? Wie viele KPI s sind erforderlich? Brauchen wir einen neuen Ansatz zur Effizienzbewertung?

Worüber definiert sich Effizienz? Wie viele KPI s sind erforderlich? Brauchen wir einen neuen Ansatz zur Effizienzbewertung? PUE DCIE Worüber definiert sich Effizienz? Wie viele KPI s sind erforderlich? Brauchen wir einen neuen Ansatz zur Effizienzbewertung? Gerhard Leo Büttner Geschäftsführer, 1 Gesamtplanung von Rechenzentren

Mehr

Ergebnisse einer quantitativen Analyse.

Ergebnisse einer quantitativen Analyse. Stephan Kohler Power to Gas im Energiesystem 2020 Ergebnisse einer quantitativen Analyse. 13.06.2012, Berlin 1 Herausforderung Energiewende. Hoher Anteil fluktuierender Stromerzeugung Steigende Gradienten

Mehr

Zukünftige Speicher- und Flexibilitätsoptionen durch Power-to-X. Antje Wörner. EnergieSpeicherSymposium Stuttgart 12. März 2014

Zukünftige Speicher- und Flexibilitätsoptionen durch Power-to-X. Antje Wörner. EnergieSpeicherSymposium Stuttgart 12. März 2014 Zukünftige Speicher- und Flexibilitätsoptionen durch Power-to-X Antje Wörner EnergieSpeicherSymposium Stuttgart 12. März 2014 www.dlr.de/tt Folie 2 > EnergieSpeicherSymposium 2014 > A. Wörner > 12.03.2014

Mehr

IT- und Data Center Linz Sicher. Effizient. Hochverfügbar.

IT- und Data Center Linz Sicher. Effizient. Hochverfügbar. IT- und Data Center Linz Sicher. Effizient. Hochverfügbar. www.linzagtelekom.at Immer bestens betreut. Für Ihr Business nur das Beste Wir sichern Ihre Daten hier Unternehmen wollen wachsen und gleichzeitig

Mehr

Grüne Logistik: elearning. Energiemanagement. Dieses Angebot wurde mit Förderung der Regionalen Innovationsstrategie Weser-Ems e.v. entwickelt.

Grüne Logistik: elearning. Energiemanagement. Dieses Angebot wurde mit Förderung der Regionalen Innovationsstrategie Weser-Ems e.v. entwickelt. Grüne Logistik: elearning Energiemanagement Dieses Angebot wurde mit Förderung der Regionalen Innovationsstrategie Weser-Ems e.v. entwickelt. Für wen ist dieses elearning Angebot gedacht? Es richtet sich

Mehr

Ökonomie trifft Ökologie

Ökonomie trifft Ökologie Ökonomie trifft Ökologie Einsatz moderner Informations- und Kommunikationstechnik zur Schonung des Geldbeutels und der Umwelt Dr. Ralph Hintemann, BITKOM Wien, 24. April 2008 Agenda/Inhalt ITK und Energieeffizenz

Mehr

Die Wirtschaftlichkeit von Solarsystemen in Kombination mit EnergieEffizienz

Die Wirtschaftlichkeit von Solarsystemen in Kombination mit EnergieEffizienz Die Wirtschaftlichkeit von Solarsystemen in Kombination mit EnergieEffizienz 6. Mai 2014 Thomas Jäggi, Dipl. Ing. FH / MBA Gründer & Geschäftsführer Begriffserklärung Was ist EnergieEffizienz? Die Energieeffizienz

Mehr

Für Neugierige die es genau wissen wollen. Detaillierte Erklärung zur Berechnung der BHKW Wirtschaftlichkeit an Ihrem Beispielobjekt.

Für Neugierige die es genau wissen wollen. Detaillierte Erklärung zur Berechnung der BHKW Wirtschaftlichkeit an Ihrem Beispielobjekt. Für Neugierige die es genau wissen wollen Detaillierte Erklärung zur Berechnung der BHKW Wirtschaftlichkeit an Ihrem Beispielobjekt. Stellen Sie sich vor, Sie werden unabhängig von den Stromkonzernen und

Mehr

Kältesymposium - Programm Energieeffizienz des Freistaates Sachsen. Platzhalter Bereich Zweitlogos

Kältesymposium - Programm Energieeffizienz des Freistaates Sachsen. Platzhalter Bereich Zweitlogos Kältesymposium - Programm Energieeffizienz des Freistaates Sachsen Platzhalter Bereich Zweitlogos Kältesymposium Programm Energieeffizienz des Freistaates Sachsen Energiemanagement im Staatsbetrieb SIB

Mehr

Befragung und empirische Einschätzung der Praxisrelevanz

Befragung und empirische Einschätzung der Praxisrelevanz Befragung und empirische Einschätzung der Praxisrelevanz eines Vorgehensmodells zur Auswahl von CRM-Systemen D I P L O M A R B E I T zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen

Mehr

Wasserstoff Eine Option für die langfristige Speicherung von Windenergie. (Ergebnisse einer VDE-Studie)

Wasserstoff Eine Option für die langfristige Speicherung von Windenergie. (Ergebnisse einer VDE-Studie) Wasserstoff Eine Option für die langfristige Speicherung von Windenergie (Ergebnisse einer VDE-Studie) Dr.-Ing. Martin Kleimaier Energietechnische Gesellschaft im VDE Task Force Energiespeicherung 1 VDE-Studie

Mehr

PinCH eine neue Software für mehr Energieeffizienz und Wirtschaftlichkeit in der Industrie

PinCH eine neue Software für mehr Energieeffizienz und Wirtschaftlichkeit in der Industrie PinCH eine neue Software für mehr Energieeffizienz und Wirtschaftlichkeit in der Industrie Wettbewerbsfähigkeit stärken und Klima schützen Steigende Energiekosten und Lenkungsabgaben führen dazu, dass

Mehr

Erschließung von Energieeinsparpotenzialen in der Praxis

Erschließung von Energieeinsparpotenzialen in der Praxis Olf Clausen, m+p Schweiz Erschließung von Energieeinsparpotenzialen in der Praxis Zürich 2014 06 Betrachtungen zur Energiewende Trends und Erfolgsfaktoren zunehmende Entwicklung von individuellen, dezentralen

Mehr

Energieeffizienz und Informationstechnologie

Energieeffizienz und Informationstechnologie Energieeffizienz und Informationstechnologie Andreas Schmitt, System Engineer TIP Dialog Forum Frankfurt am Main 14.10.2008 Energieeffizienz / Lösungswege Felder Potenziale entdecken, bewerten und heben!

Mehr

Beitrag von Industrie und Gewerbe zur Energiewende

Beitrag von Industrie und Gewerbe zur Energiewende Institutsteil Angewandte Systemtechnik AST Beitrag von Industrie und Gewerbe zur Energiewende Steffen Nicolai ThEGA-Forum, Weimar, 20.04.2015 Fraunhofer IOSB-AST Ilmenau Angewandte Systemtechnik Fokusfelder:

Mehr

Berliner Stadtwerke Aktueller Stand

Berliner Stadtwerke Aktueller Stand Berliner Stadtwerke Aktueller Stand der Berliner Wasserbetriebe Enquete-Kommission Neue Energie für Berlin Anhörung am 4. Juni 2014 Ausgangslage für die Berliner Stadtwerke Beschluss des Berliner Abgeordnetenhauses

Mehr

Integriertes Klimaschutzkonzept Stadt Ostfildern

Integriertes Klimaschutzkonzept Stadt Ostfildern Integriertes Klimaschutzkonzept Stadt Ostfildern Kurzzusammenfassung des Abschlussberichts Das Integrierte Klimaschutzkonzept für Ostfildern umfasst Ergebnisse in fünf aufeinander aufbauenden Abschnitten:

Mehr

NACHHALTIGKEIT DURCH KOLLABORATION - ENERGIEVERSORGER TRIFFT RECHENZENTRUM

NACHHALTIGKEIT DURCH KOLLABORATION - ENERGIEVERSORGER TRIFFT RECHENZENTRUM NACHHALTIGKEIT DURCH KOLLABORATION - ENERGIEVERSORGER TRIFFT RECHENZENTRUM Sonja Klingert, Thomas Schulze, Universität Mannheim Energieinnovation 2012, Graz, 16 Feb. 2012 1 Stromnachfrage schwankt im Tagesablauf

Mehr

ENERGIEKRAFTPAKETE. Der Wärme-Service für die Immobilienwirtschaft unter Einsatz von Mini-BHKW

ENERGIEKRAFTPAKETE. Der Wärme-Service für die Immobilienwirtschaft unter Einsatz von Mini-BHKW ENERGIEKRAFTPAKETE Der Wärme-Service für die Immobilienwirtschaft unter Einsatz von Mini-BHKW Unser Angebot WÄRME+ MINI-BHKW Die moderne Versorgungslösung für größere Immobilien. Der Einsatz eines Mini-BHKW

Mehr

Braunkohle, vom Energieträger zum Kohlenstoffträger?

Braunkohle, vom Energieträger zum Kohlenstoffträger? Institut für Energieverfahrenstechnik und Chemieingenieurwesen Professur EVT Braunkohle, vom Energieträger zum nstoffträger? Prof. Dr.-Ing. Bernd Meyer Vortrag zum acatech AKADEMIETAG 2013 Potsdam, den

Mehr

Zukünftige Trends energieeffizienter, nachhaltiger Rechenzentren. Dr. Thomas Steffen Geschäftsführer Forschung und Entwicklung

Zukünftige Trends energieeffizienter, nachhaltiger Rechenzentren. Dr. Thomas Steffen Geschäftsführer Forschung und Entwicklung Zukünftige Trends energieeffizienter, nachhaltiger Rechenzentren Dr. Thomas Steffen Geschäftsführer Forschung und Entwicklung 1 Rittal Fakten zur Unternehmensgruppe Friedhelm Loh, Inhaber der Friedhelm

Mehr

Energie intelligent vernetzt: Micro Smart Grid Innovatives Energiemanagement

Energie intelligent vernetzt: Micro Smart Grid Innovatives Energiemanagement Energie intelligent vernetzt: Micro Smart Grid Innovatives Energiemanagement Übersicht Die NBB im Portrait Energie smart managen Das Micro Smart Grid auf dem EUREF-Campus 18.06.2012 Micro Smart Grid Innovatives

Mehr

Optimale Investitionsentscheidungen in dezentralen Energiesystemen für BHKW, Batteriespeicher und Lastmanagement Modellkonzept und Anwendung

Optimale Investitionsentscheidungen in dezentralen Energiesystemen für BHKW, Batteriespeicher und Lastmanagement Modellkonzept und Anwendung Optimale Investitionsentscheidungen in dezentralen Energiesystemen für BHKW, Batteriespeicher und Lastmanagement Modellkonzept und Anwendung ENERGY ECOSYSTEMS Leipzig, 23. September 2013 Hendrik Kondziella,

Mehr

Energieeffizienz in Rechenzentren durch Datacenter Infrastructure Management (DCIM)

Energieeffizienz in Rechenzentren durch Datacenter Infrastructure Management (DCIM) Energieeffizienz in Rechenzentren durch Datacenter Infrastructure Management (DCIM) Michael Schumacher Senior Systems Engineer Schneider Electric, IT Business und stellv. Vorsitzender BITKOM AK RZ Moderne

Mehr

EnergieEffizienz von Kühlanlagen: Optimierung durch präzises Energie-Monitoring

EnergieEffizienz von Kühlanlagen: Optimierung durch präzises Energie-Monitoring EnergieEffizienz von Kühlanlagen: Optimierung durch präzises Energie-Monitoring Robert Meier, Thomas Theiner ACHEMA 2015, Frankfurt am Main 15.-19. Juni 2015 Auf zu neuen Effizienz-Potenzialen 1. Die Kälteanlage:

Mehr

Franz Grüter, Green / André Schärer, ABB Mai 2012. Vorteile der Gleichstromversorgung im Rechenzentrum Erfahrungen mit dem Projekt bei Green

Franz Grüter, Green / André Schärer, ABB Mai 2012. Vorteile der Gleichstromversorgung im Rechenzentrum Erfahrungen mit dem Projekt bei Green Franz Grüter, Green / André Schärer, ABB Mai 2012 Vorteile der Gleichstromversorgung im Rechenzentrum Erfahrungen mit dem Projekt bei Green Green: Zahlen & Fakten 3 300 m 2 Rechenzentrumsfläche, wovon

Mehr

Energieeffizienz in der Produktion IHK Bonn/Rhein-Sieg 29.10.2014. Bernd Geschermann

Energieeffizienz in der Produktion IHK Bonn/Rhein-Sieg 29.10.2014. Bernd Geschermann Energieeffizienz in der Produktion IHK Bonn/Rhein-Sieg 29.10.2014 Bernd Geschermann Übersicht 1. Energieverbraucher im Unternehmen 2. Beispiele Folie 2 Energieverbrauch in Unternehmen Einsparpotentiale

Mehr

Energieeffiziente Gebäudelüftungssysteme

Energieeffiziente Gebäudelüftungssysteme Energieeffiziente Gebäudelüftungssysteme Dipl. Ing Bernd Schwarzfeld ÖKOPLAN Büro für zeitgemäße Energieanwendung Energiedesign Gebäudeanalyse Solare Systeme Trnsys-; CFD-Simulationen Grundlage für die

Mehr

Regenerative Energiesysteme und Speicher

Regenerative Energiesysteme und Speicher Regenerative Energiesysteme und Speicher Wie lösen wir das Speicherproblem? Robert Schlögl Fritz-Haber-Institut der MPG www.fhi-berlin.mpg.de 1 Einige Grundlagen www.fhi-berlin.mpg.de Atomausstieg ist

Mehr

Christian Schaum, Robert Lutze, Johannes Rühl, Peter Cornel. 02. Juni 2015 - GWP Jahreskonferenz 2015 - Berlin

Christian Schaum, Robert Lutze, Johannes Rühl, Peter Cornel. 02. Juni 2015 - GWP Jahreskonferenz 2015 - Berlin Das Projekt ESiTI: Abwasserbehandlungsanlage der Zukunft: Energiespeicher in der Interaktion mit technischer Infrastruktur im Spannungsfeld von Energieerzeugung und -verbrauch 02. Juni 2015 - GWP Jahreskonferenz

Mehr

Quelle: www.roewaplan.de Stand: April 2009

Quelle: www.roewaplan.de Stand: April 2009 Quelle: www.roewaplan.de Stand: April 2009 Energieeffizienz im Rechenzentrum Referent: Sven Hofmann, Senior Consultant Agenda Energiebedarf im Rechenzentrum Messung von Energiebedarf und Temperaturen Optimierung

Mehr

Intelligente Energiekonzepte

Intelligente Energiekonzepte Intelligente Energiekonzepte für Industrie und Gewerbe Energiekonzepte Beratung Planung Projektbegleitung Effiziente Energienutzung für Industrie und Gewerbe Noch nie war es so wichtig wie heute, Energie

Mehr

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit IT-basierte Erstellung von Nachhaltigkeitsberichten Diplomarbeit zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen Fakultät der Leibniz Universität Hannover vorgelegt von

Mehr

Power - to - Gas - Erhöhung der Wasserstofftoleranz im Gasnetz - Machbarkeit und Chancen. Johannes Paulus

Power - to - Gas - Erhöhung der Wasserstofftoleranz im Gasnetz - Machbarkeit und Chancen. Johannes Paulus Power - to - Gas - Erhöhung der Wasserstofftoleranz im Gasnetz - Machbarkeit und Chancen Johannes Paulus Power-to-Gas-Haßfurt; Projektziele und -partner Projektziele: Errichtung und Betrieb einer Leuchtturm

Mehr

im Netzwerk EuroCloud.Austria Verein EuroCloud.Austria IT-Expertentag Wien, 25. November 2010

im Netzwerk EuroCloud.Austria Verein EuroCloud.Austria IT-Expertentag Wien, 25. November 2010 im Netzwerk EuroCloud.Austria Leopold A. OBERMEIER, MBA Mag. Martin PUASCHITZ Dr. Tobias HÖLLWARTH Danube Data Center GmbH GF Puaschitz IT GF Höllwarth Consulting Verein EuroCloud.Austria Wien, 25. November

Mehr

Certified Sustainability in Facility Management

Certified Sustainability in Facility Management Consense 2014 Nachhaltiges Facility Management Certified Sustainability in Facility Management Dr.-Ing. Guido Hardkop, Drees & Sommer Advanced Building Technologies GmbH Übersicht Ausgangssituation und

Mehr

Guck mal, Energiewende! Eine Ausstellung über smarte Energielösungen in der HafenCity

Guck mal, Energiewende! Eine Ausstellung über smarte Energielösungen in der HafenCity Guck mal, Energiewende! Eine Ausstellung über smarte Energielösungen in der HafenCity Willkommen in meinem smarten Zuhause. Ich bin Paul. Gemeinsam mit meinem Hund Ben lebe ich in einem Smart Home. Was

Mehr

Zukunft der Energien

Zukunft der Energien ZukunftderEnergien Thema: PotentialderBiogastechnologie von ThomasVössing,TUDortmund Dezember2008 Abstract: Die zunehmende weltweite Energieknappheit stellt immer mehr die Frage in den Raum, wie der EnergieverbrauchderwachsendenWeltgesellschaftgestilltwerdenkann.EineMöglichkeitist,dasin

Mehr

Bestandsaufnahme effiziente Rechenzentren in Deutschland

Bestandsaufnahme effiziente Rechenzentren in Deutschland Fragebogen: Bestandsaufnahme effiziente Rechenzentren in Deutschland Eine Umfrage des eco Arbeitskreis Datacenter eco - Verband der deutschen Internetwirtschaft e.v. Arbeitskreis Datacenter Lichtstraße

Mehr

TURNKEY COMMUNICATION AG

TURNKEY COMMUNICATION AG WE MAKE YOUR NET WORK TURNKEY COMMUNICATION AG Globale Erwärmung auch im Data Center E r f o l greicher Betrieb durch alle v i er J a h r eszeiten TURNKEY COMMUNICATION AG Firmenportrait Leistungsportfolio

Mehr

Neue Perspektiven. Solarstrom selbst nutzen Stromkosten sparen. www.solon.com

Neue Perspektiven. Solarstrom selbst nutzen Stromkosten sparen. www.solon.com Neue Perspektiven. Solarstrom selbst nutzen Stromkosten sparen. www.solon.com Steigerung der Unabhängigkeit durch Senkung der Energiekosten. Schon heute können Solaranlagen dauerhaft günstigen Strom zwischen

Mehr

Erwartungen an die Entwicklung der Rechenzentren aus Sicht der Umweltpolitik

Erwartungen an die Entwicklung der Rechenzentren aus Sicht der Umweltpolitik Erwartungen an die Entwicklung der Rechenzentren aus Sicht der Umweltpolitik Dr. Jan Berger Referat ZG III 5 Produktbezogener Umweltschutz, Normung, umweltfreundliches Beschaffungswesen jan.berger@bmu.bund.de

Mehr

innovit KWKK für Rechenzentren

innovit KWKK für Rechenzentren innvit KWKK für Rechenzentren Unternehmen Lösungen Unternehmen Ihr Spezialist für IT-Infrastuktur & Rechenzentrumsbau Unsere Missin: sichere und effiziente Rechenzentrums-Infrastruktur vn der Prjektidee

Mehr

Potenziale und nachhaltige Geschäftsmodelle durch Green IT Dr. Ralph Hintemann Borderstep Institut für Innovation und Nachhaltigkeit

Potenziale und nachhaltige Geschäftsmodelle durch Green IT Dr. Ralph Hintemann Borderstep Institut für Innovation und Nachhaltigkeit Potenziale und nachhaltige Geschäftsmodelle durch Green IT Dr. Ralph Hintemann Borderstep Institut für Innovation und Nachhaltigkeit 01 Green IT, ein vergessenes und verbranntes Thema? Green IT 02 Stromverbrauch

Mehr