Wie funktioniert Freikühlung?


Tipps für direkte und indirekte Freikühlung
Wer von Freikühlung im Zusammenhang mit Klimatechnik redet, meint damit nicht ein vollständig kostenfreies System zur IT-Kühlung



IT-Verantwortliche stehen kontinuierlich vor der Herausforderung, die laufenden Betriebskosten im Rechenzentrum zu optimieren. Ein großer Kostenblock ist die zur Kühlung benötigte Energie. Warum also nicht auf die Freikühlung setzen und frische Luft in das Rechenzentrum blasen? Der folgende Beitrag stellt Konzepte vor, wie Unternehmen kaltes Wasser oder kühle Umgebungsluft dazu nutzen, die Energieeffizienz im Rechenzentrum zu optimieren. Darüber hinaus gibt er Hinweise, was Firmen bei der Nutzung von Freikühlung beachten sollten.

Wer von Freikühlung im Zusammenhang mit Klimatechnik redet, meint damit nicht ein vollständig kostenfreies System zur IT-Kühlung. Vielmehr geht es darum, die Nutzung von Kompressor basierten Kältemaschinen soweit wie möglich zu reduzieren. Im Idealfall bis zu einem Punkt, an dem nur noch Energie für die Lüfter des Freikühlers und für eventuelle Pumpen für das Kaltwasser benötigt wird. Die Effizienz des Gesamtsystems hängt daher sehr stark von den jeweiligen klimatischen Bedingungen vor Ort ab: Ein Rechenzentrum in Skandinavien wird deutlich günstiger arbeiten als an einem Standort in Südeuropa.

Bei der Freikühlung nutzen die Anlagen das Konvektionsprinzip: Dem zu kühlenden Medium, meist ein Wasser-Glykol-Gemisch, wird mittels der Umgebungsluft die Wärme entzogen. Dies erfolgt über einen im Außenbereich aufgestellten Freikühler. Dieser kann zum Beispiel einen Lamellenwärmetauscher oder eine vergleichbare Technologie enthalten, durch den das warme Wasser strömt. Hierbei wird dem Wasser ihre Wärme entzogen. Je größer die Kontaktfläche der Lamellen ist, desto effizienter arbeitet das System. Über zusätzliche Ventilatoren lässt sich die durchströmende Luftmenge erhöhen und damit die Kühlleistung steigern. Der Lohn des Aufwands: ein geringer Energieaufwand für die Kälteerzeugung. Die erreichbare Vorlauftemperatur liegt jedoch hierbei nur knapp über der Umgebungsluft. Als Richtwert bei der Auslegung arbeiten Klimatechniker mit etwa plus drei Grad Celsius.

Direkte Freikühlung: Vor- und Nachteile
Bei der Realisierung der Freikühlung wird unterschieden in direkte und indirekte freie Kühlung. Die direkte Freikühlung nutzt das Kühlmedium möglichst direkt, um damit die entstehende Wärme im Rechenzentrum zu eliminieren. Beispielsweise nutzen große Rechenzentrumsbetreiber mit homogenen Umgebungen die Außenluft direkt zur Kühlung blasen also tatsächlich die Außenluft in das Rechenzentrum. Ein Beispiel hierfür liefert das selbstkühlende Rechenzentrum von Yahoo im US-Bundesstaat New York nahe der Grenze zu Kanada. Hier wurden die Gebäude quer zur vorherrschenden Windrichtung aufgestellt und mit einem über die Gesamtlänge laufenden Dachaufsatz versehen, ähnlich einem Hahnenkamm. Daher hat das eigenwillige Design auch den Spitznamen Hühnerstall erhalten. Über Lamellen in den Seitenwänden strömt die kalte Luft ins Gebäude, während die warme Luft über die Dachkonstruktion abgeführt wird. Im Idealfall wird bei dieser Lösung lediglich für die Luftbewegung durch Lüfter zusätzliche Energie benötigt.

So einfach wie das Prinzip klingt, so kompliziert ist es, die prinzipiellen Nachteile dieser Methode auszugleichen. Die einströmende Luft muss nämlich über Filteranlagen gereinigt werden. Außerdem sind Maßnahmen notwendig, um wetterbedingte Temperaturschwankungen auszugleichen. Über einen Mischer lässt sich beispielsweise einer zu kalten Außenluft gezielt warme Abluft aus dem Rechenzentrum zuführen. Bei zu warmen Außentemperaturen muss jedoch ein Kältekompressor hinzugeschaltet werden. Eine weitere Herausforderung ist die sich ständig verändernde Luftfeuchte, beispielsweise durch Regen. Zu feuchte, aber auch zu trockene Luft, kann die Lebensdauer der IT-Komponenten negativ beeinflussen. Die zum Ansaugen der frischen Luft notwendigen Kanäle sind meist sehr groß und verlangen einen sicheren Schutz vor Nagetieren und Insekten.

Adiabatische Kühlung: Achtung Keimbildung
Mit dem Prinzip der adiabatischen Kühlung steht eine ergänzende Technologie bereit, um die Effizienz der direkten Freikühlung zu verbessern. Noch bevor die einströmende Luft auf einen Wärmetauscher trifft, wird sie mit zerstäubtem Wasser versetzt. Die feinen Tropfen führen dazu, dass das Wasser in dem warmen Luftstrom sofort verdunstet. Bei diesem Übergang vom flüssigen in den gasförmigen Zustand findet eine thermodynamische Zustandsänderung statt, durch die das Wasser der umgebenden Luft Wärme entzieht. So ist es möglich, die Vorlauftemperatur eines Kühlsystems zusätzlich zu senken. Eine der Herausforderungen dieser Methode liegt in der Gefahr einer Keimbildung. Überall dort, wo mit Wasser gearbeitet wird, besteht die Gefahr von Legionellenbildung. Daher sind zusätzliche Schutzmaßnahmen notwendig, beispielsweise durch regelmäßige Reinigung, einen hohen Wasserdurchsatz oder die Abschirmung gegen Sonnenlicht. Insgesamt betrachtet bieten adiabate Kühlsysteme viel Potenzial für die Energieoptimierung, verlangen jedoch eine präzise Planung und einen erfahrenen Experten für die Umsetzung.

Wer viel Wasser nutzt, sollte den Verbrauch im Blick haben: Für die Verwendung im Rechenzentrum definierte der Verband "The Green Grid" daher die Kennzahl Water Usage Effectiveness (WUE). Mit dieser Kennzahl wird der jährliche Wasserverbrauch in Relation zum Stromverbrauch der aktiven IT-Komponenten gesetzt. Die Einheit der WUE-Kennzahl ist Liter pro Kilowattstunde (l/kWh). Die Auswertung dieser Angabe kann im Rahmen der Ermittlung weiterer Verbrauchswerte erfolgen und trägt so dazu bei, die laufenden Kosten für den IT-Betrieb zu optimieren.

Indirekte freie Kühlung: Saubere Lösung
Wer für eine mittlere IT-Infrastruktur von bis zu rund 200 kW ein Kühlkonzept sucht, wird sich in unseren Breitengraden meist für eine indirekte Kühlung entscheiden. Dies gilt insbesondere für Unternehmen aus dem Mittelstand, die nicht über die Ressourcen verfügen, außergewöhnliche Kühlsysteme zu entwickeln.

Bei den indirekten Systemen kühlt die Außenluft eine Wärmeträgerflüssigkeit wie Wasser, die für die Kühlung innerhalb des Gebäudes verwendet wird. Das Wasser ist also das Medium, mit dem die Kälte in das Rechenzentrum transportiert wird immerhin leitet Wasser die Wärme bis zu 4.000-mal besser ab als Luft. Ein weiterer Vorteil: Es wird keine Luftfeuchtigkeit von außen in das Gebäude getragen. Da auch keine Kühlluft von außen in das Rechenzentrum geblasen wird, sind weniger Filtersysteme notwendig. Allerdings müssen mindestens ein Luft-/Wasser-Wärmetauscher sowie Pumpen im Kaltwassersystem vorhanden sein, der zum Betrieb elektrische Energie benötigt.

Viele Unternehmen bevorzugen eine solche Lösung mit indirekter Kühlung, da diese sauber ist und stabil sowie vorhersagbar arbeitet. Schwankende Wetterbedingungen und durch die Jahreszeiten ausgelöste Temperaturänderungen fängt diese Methode sehr gut auf.

Effizientes Beispiel: Lefdal Norwegen
Ein Beispiel hierfür ist das Lefdal Mine Datacenter, ein hochskalierbares und effizientes Cloud-Rechenzentrum, das derzeit in einer stillgelegten Mine an der norwegischen Küste entsteht. Die Entwickler setzen auf eine effiziente Kühlung über Meerwasser aus dem anliegenden Fjord. Das rund acht Grad kalte Wasser kühlt in einem Wärmetauscher das Wasser im Sekundärkreis des Rechenzentrums. Da Wetter- und Temperaturbedingungen recht beständig sind, haben die Betreiber das thermodynamische System sehr stabil unter Kontrolle. Einzig das aggressive Meerwasser verlangt den Einsatz von titaniumbeschichteten Oberflächen innerhalb des primären Kühlkreislaufes.

Praxis-Tipp: Individuelles Kühlkonzept
Wie das Lefdal-Beispiel zeigt, ist für manche Systeme eine minimale Last des Rechenzentrums notwendig, um zu kaltes Wasser aufzuwärmen. Daher muss bei der Auslegung eines Kühlsystems zu Beginn eine Bewertung der minimalen Last erfolgen, die für den Betrieb notwendig ist. Ein weiterer wichtiger Punkt für die Praxis: Ein Kühlkonzept sollte immer individuell ausgelegt und berechnet werden. Anbieter wie Rittal verwenden beispielsweise aktuelle Wetterdaten, um die Temperaturen für eine Freikühlung an den jeweiligen Standorten individuell zu berechnen. Weitere bedeutende Parameter sind die Luftfeuchte und der Taupunkt. Die notwendigen Richtlinien für diese Parameter liefert der weltweit anerkannte Industrieverband ASHRAE. Gemeinsam mit den Herstellern werden hier Bedingungen definiert, unter denen eine IT-Umgebung sicher betrieben werden kann. Daher ist es beispielsweise zulässig, einen Server auch bei einer Umgebungstemperatur von 25 Grad zu betreiben.

Fazit
Die in großen Rechenzentren wie bei Facebook, Google oder anderen Hyperscalern verwendeten Kühlkonzepte kann man in der Regel nicht so einfach kaufen und adaptieren. Dies sind individuell konzipierte Lösungen, unter Berücksichtigung der IT-Infrastruktur, der Nutzung der Systeme sowie der Umgebungstemperaturen. Wer auf Nummer sicher gehen will, wählt eine geschlossene Kühllösung, die man selbst über alle Parameter des Kühlkreislaufs hinweg kontrollieren kann. Denn nur wer Unwägbarkeiten wie das Wetter aus der Gleichung streicht, bekommt eine stabile und vor allem ausfallsichere IT-Infrastruktur.
(Rittal: ra)

eingetragen: 18.12.16
Home & Newsletterlauf: 11.01.17


Rittal: Kontakt & Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps & Hinweise

Narrative Angriffe besser kommen sehen

Die Gefahr ist diffus und schwer greifbar: Während sich Unternehmen zunehmend in der komplexen Landschaft von Cyberangriffen zurechtfinden müssen, erweisen sich narrative Angriffe zusätzlich als besonders heimtückische Form, mit der Cyberkriminelle auch Unternehmen in Bedrängnis bringen können. Indem sie Fehlinformation streuen oder die Öffentlichkeit manipulieren und spalten, können diese Angriffe der Reputation und den Finanzen eines Unternehmens erheblichen Schaden zufügen.

Vorherrschaft im Ransomware-Bereich

Die Welt der Cyberkriminellen steht niemals still. Ein ständiger Wandel bringt regelmäßig neue Akteure hervor, die durch immer ausgefeiltere Technologien und Taktiken auffallen. Besonders dynamisch ist die Ransomware-Szene, in der verschiedene Gruppen miteinander im Wettbewerb um Affiliates (also kriminelle "Subunternehmer", welche ihre Erpressungs-Tools und -Dienste einsetzen) und die attraktivsten Angriffsziele stehen.

Wichtige Bereiche für die Zugriffskontrolle

Zugriffs-Zertifizierung beschreibt die unabhängige Prüfung der Zugriffsrechte durch einen Auditor. Dieser untersucht, ob die den Benutzern gewährten Rechte wirklich notwendig sind. Ein gründlicher Prozess zur Zertifizierung des Benutzerzugriffs stellt sicher, dass die digitale Identität jedes Mitarbeiters nur die Berechtigungen hat, welche für die Erfüllung seiner Aufgaben nötig sind.

Schwachstellen in Software gibt es jede Menge

Neue Schwachstellen schnellstmöglich zu schließen, ist eine zentrale Aufgabe für IT-Sicherheitsverantwortliche. Professionelle Hacker sind schnell über Lücken informiert und führen oft innerhalb von 24 Stunden Angriffe aus, um über diese neuen Einfallstore ins Unternehmensnetzwerk zu gelangen.

Besuchen Sie SaaS-Magazin.de

SaaS, On demand, ASP, Cloud Computing, Outsourcing >>>

Kostenloser Newsletter

Werktäglich informiert mit IT SecCity.de, Compliance-Magazin.de und SaaS-Magazin.de. Mit einem Newsletter Zugriff auf drei Online-Magazine. Bestellen Sie hier

Fachartikel

Grundlagen

Big Data bringt neue Herausforderungen mit sich

Die Digitale Transformation zwingt Unternehmen sich mit Big Data auseinanderzusetzen. Diese oft neue Aufgabe stellt viele IT-Teams hinsichtlich Datenverwaltung, -schutz und -verarbeitung vor große Herausforderungen. Die Nutzung eines Data Vaults mit automatisiertem Datenmanagement kann Unternehmen helfen, diese Herausforderungen auch mit kleinen IT-Teams zu bewältigen. Big Data war bisher eine Teildisziplin der IT, mit der sich tendenziell eher nur Großunternehmen beschäftigen mussten. Für kleinere Unternehmen war die Datenverwaltung trotz wachsender Datenmenge meist noch überschaubar. Doch die Digitale Transformation macht auch vor Unternehmen nicht halt, die das komplizierte Feld Big Data bisher anderen überlassen haben. IoT-Anwendungen lassen die Datenmengen schnell exponentiell anschwellen. Und während IT-Teams die Herausforderung der Speicherung großer Datenmengen meist noch irgendwie in den Griff bekommen, hakt es vielerorts, wenn es darum geht, aus all den Daten Wert zu schöpfen. Auch das Know-how für die Anforderungen neuer Gesetzgebung, wie der DSGVO, ist bei kleineren Unternehmen oft nicht auf dem neuesten Stand. Was viele IT-Teams zu Beginn ihrer Reise in die Welt von Big Data unterschätzen, ist zum einen die schiere Größe und zum anderen die Komplexität der Datensätze. Auch der benötigte Aufwand, um berechtigten Zugriff auf Daten sicherzustellen, wird oft unterschätzt.

Bösartige E-Mail- und Social-Engineering-Angriffe

Ineffiziente Reaktionen auf E-Mail-Angriffe sorgen bei Unternehmen jedes Jahr für Milliardenverluste. Für viele Unternehmen ist das Auffinden, Identifizieren und Entfernen von E-Mail-Bedrohungen ein langsamer, manueller und ressourcenaufwendiger Prozess. Infolgedessen haben Angriffe oft Zeit, sich im Unternehmen zu verbreiten und weitere Schäden zu verursachen. Laut Verizon dauert es bei den meisten Phishing-Kampagnen nur 16 Minuten, bis jemand auf einen bösartigen Link klickt. Bei einer manuellen Reaktion auf einen Vorfall benötigen Unternehmen jedoch circa dreieinhalb Stunden, bis sie reagieren. In vielen Fällen hat sich zu diesem Zeitpunkt der Angriff bereits weiter ausgebreitet, was zusätzliche Untersuchungen und Gegenmaßnahmen erfordert.

Zertifikat ist allerdings nicht gleich Zertifikat

Für Hunderte von Jahren war die Originalunterschrift so etwas wie der De-facto-Standard um unterschiedlichste Vertragsdokumente und Vereinbarungen aller Art rechtskräftig zu unterzeichnen. Vor inzwischen mehr als einem Jahrzehnt verlagerten sich immer mehr Geschäftstätigkeiten und mit ihnen die zugehörigen Prozesse ins Internet. Es hat zwar eine Weile gedauert, aber mit dem Zeitalter der digitalen Transformation beginnen handgeschriebene Unterschriften auf papierbasierten Dokumenten zunehmend zu verschwinden und digitale Signaturen werden weltweit mehr und mehr akzeptiert.

Datensicherheit und -kontrolle mit CASBs

Egal ob Start-up oder Konzern: Collaboration Tools sind auch in deutschen Unternehmen überaus beliebt. Sie lassen sich besonders leicht in individuelle Workflows integrieren und sind auf verschiedenen Endgeräten nutzbar. Zu den weltweit meistgenutzten Collaboration Tools gehört derzeit Slack. Die Cloudanwendung stellt allerdings eine Herausforderung für die Datensicherheit dar, die nur mit speziellen Cloud Security-Lösungen zuverlässig bewältigt werden kann. In wenigen Jahren hat sich Slack von einer relativ unbekannten Cloud-Anwendung zu einer der beliebtesten Team Collaboration-Lösungen der Welt entwickelt. Ihr Siegeszug in den meisten Unternehmen beginnt häufig mit einem Dasein als Schatten-Anwendung, die zunächst nur von einzelnen unternehmensinternen Arbeitsgruppen genutzt wird. Von dort aus entwickelt sie sich in der Regel schnell zum beliebtesten Collaboration-Tool in der gesamten Organisation.

KI: Neue Spielregeln für IT-Sicherheit

Gerade in jüngster Zeit haben automatisierte Phishing-Angriffe relativ plötzlich stark zugenommen. Dank künstlicher Intelligenz (KI), maschinellem Lernen und Big Data sind die Inhalte deutlich überzeugender und die Angriffsmethodik überaus präzise. Mit traditionellen Phishing-Angriffen haben die Attacken nicht mehr viel gemein. Während IT-Verantwortliche KI einsetzen, um Sicherheit auf die nächste Stufe zu bringen, darf man sich getrost fragen, was passiert, wenn diese Technologie in die falschen Hände, die der Bad Guys, gerät? Die Weiterentwicklung des Internets und die Fortschritte beim Computing haben uns in die Lage versetzt auch für komplexe Probleme exakte Lösungen zu finden. Von der Astrophysik über biologische Systeme bis hin zu Automatisierung und Präzision. Allerdings sind alle diese Systeme inhärent anfällig für Cyber-Bedrohungen. Gerade in unserer schnelllebigen Welt, in der Innovationen im kommen und gehen muss Cybersicherheit weiterhin im Vordergrund stehen. Insbesondere was die durch das Internet der Dinge (IoT) erzeugte Datenflut anbelangt. Beim Identifizieren von Malware hat man sich in hohem Maße darauf verlassen, bestimmte Dateisignaturen zu erkennen. Oder auf regelbasierte Systeme die Netzwerkanomalitäten aufdecken.

DDoS-Angriffe nehmen weiter Fahrt auf

DDoS-Attacken nehmen in Anzahl und Dauer deutlich zu, sie werden komplexer und raffinierter. Darauf machen die IT-Sicherheitsexperten der PSW Group unter Berufung auf den Lagebericht zur IT-Sicherheit 2018 des Bundesamtes für Sicherheit in der Informationstechnik (BSI) aufmerksam. Demnach gehörten DDoS-Attacken 2017 und 2018 zu den häufigsten beobachteten Sicherheitsvorfällen. Im dritten Quartal 2018 hat sich das durchschnittliche DDoS-Angriffsvolumen im Vergleich zum ersten Quartal mehr als verdoppelt. Durchschnittlich 175 Angriffen pro Tag wurden zwischen Juli und September 2018 gestartet. Die Opfer waren vor allem Service-Provider in Deutschland, in Österreich und in der Schweiz: 87 Prozent aller Provider wurden 2018 angegriffen. Und bereits für das 1. Quartal dieses Jahres registrierte Link11 schon 11.177 DDoS-Angriffe.

Fluch und Segen des Darkwebs

Strengere Gesetzesnormen für Betreiber von Internet-Plattformen, die Straftaten ermöglichen und zugangsbeschränkt sind - das forderte das BMI in einem in Q1 2019 eingebrachten Gesetzesantrag. Was zunächst durchweg positiv klingt, wird vor allem von Seiten der Bundesdatenschützer scharf kritisiert. Denn hinter dieser Forderung verbirgt sich mehr als nur das Verbot von Webseiten, die ein Tummelplatz für illegale Aktivitäten sind. Auch Darkweb-Plattformen, die lediglich unzugänglichen und anonymen Speicherplatz zur Verfügung stellen, unterlägen der Verordnung. Da diese nicht nur von kriminellen Akteuren genutzt werden, sehen Kritiker in dem Gesetzesentwurf einen starken Eingriff in die bürgerlichen Rechte. Aber welche Rolle spielt das Darkweb grundsätzlich? Und wie wird sich das "verborgene Netz" in Zukunft weiterentwickeln? Sivan Nir, Threat Analysis Team Leader bei Skybox Security, äußert sich zu den zwei Gesichtern des Darkwebs und seiner Zukunft.

Diese Webseite verwendet Cookies - Wir verwenden Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und die Zugriffe auf unsere Website zu analysieren. Außerdem geben wir Informationen zu Ihrer Verwendung unserer Website an unsere Partner für soziale Medien, Werbung und Analysen weiter. Unsere Partner führen diese Informationen möglicherweise mit weiteren Daten zusammen, die Sie ihnen bereitgestellt haben oder die sie im Rahmen Ihrer Nutzung der Dienste gesammelt haben. Mit dem Klick auf „Erlauben“erklären Sie sich damit einverstanden. Weiterführende Informationen erhalten Sie in unserer Datenschutzerklärung.