Jeder, der schon mal in einem Rechenzentrum war, weiß: Da ist es unglaublich laut – weil so viele Ventilatoren die Rechner kühlen. Und eigentlich auch kühl, weil Klimaanlagen die Räume kühlen. Doch es gibt mittlerweile erprobte Konzepte, den Aufwand für die Kühlung zu reduzieren – oder die Abwärme sogar gewinnbringend zu nutzen.
Wenn wir ein Notebook auf dem Schoß haben, dann merken wir das schon mal: Beim Arbeiten wird das Gerät ganz schön warm. Wenn es richtig arbeiten muss, auch schon mal heiß. Auch das Smartphone erwärmt sich, wenn zum Beispiel damit Spiele gespielt oder Videos geschnitten werden.
Darum werden Computer warm und heiß
Ein Naturgesetz: Computer geben Wärme ab, wenn sie arbeiten. Was jeder von an den eigenen Geräten erlebt, das ist in den Rechenzentren weltweit natürlich auch so. Mit jedem Streaming, mit jeder Onlinesuche erzeuge ich also weltweit viel Wärme!
Je schneller ein Prozessor arbeitet, desto mehr Strom fließt – und um so mehr Abwärme entsteht. Das ist ein Naturgesetz. Darum sind Computer, die gerade keine schwierigen Aufgaben bewältigen, recht kühl – etwa beim Beantworten von E-Mails oder beim Surfen.
Geht es aber richtig zur Sache und der Computer muss ordentlich rechnen und arbeiten, zum Beispiel wenn Fotos oder sogar Videos bearbeitet werden oder wenn ein anspruchsvolles Spiel läuft, das in Echtzeit aufwändige Grafiken zeigt, dann muss der Computer Höchstleistungen verbringen – und erhitzt. Mit KI-Training und maschinellem Lernen ist die Wärmeentwicklung nochmals drastisch gestiegen. In einem Rechenzentrum arbeiten unzählige Computer – und wenn die nicht nur Däumchen drehen, entsteht unheimlich viel Wärme.
Aufwändige Kühlung erfordert hohen Energieaufwand
Damit die Computer nicht überhitzen – denn Computer mögen selbst keine Wärme –, müssen Rechenzentren aufwändig gekühlt werden. Für beides – die Computer selbst und ihre Kühlung – ist ein enormer Energieaufwand nötig.
Alle Rechenzentren in Deutschland verbrauchen mittlerweile rund 18 Milliarden Kilowattstunden Strom im Jahr. Das entspricht etwa dem Energiebedarf von München und Hamburg zusammen! Tendenz: Steigend.
Und das rasant, denn wir brauchen ja immer mehr Rechenzentren. Nicht nur für Cloud-Dienste, auch für 5G- und 6G-Mobilfunknetze und vor allem für KI-Anwendungen. ChatGPT, Claude, Gemini und Co. brauchen massive Rechenkapazitäten. Hier sind überall Mini-Rechenzentren nötig. Bedeutet: Es fällt immer mehr Wärme an. Wir haben heute bereits geschätzt 15 Millionen Rechenzentren weltweit. Gesamtverbrauch aktuell: über 400 Terawattstunden im Jahr – mehr als der gesamte Stromverbrauch Deutschlands.

Project Natick, Vessel retrieval Stromness, Orkney. Microsoft – Tuesday 7th to Wednesday 15th of July 2020
Innovative Kühlungsmethoden sparen Energie
Die Klimatisierung – also Kühlung – macht rund 30% der Energiekosten aus. Die vorhandene Umgebungsluft zur Kühlung zu verwenden, ist da ein naheliegender Gedanke. Nur: Die Luft muss auch kühl sein – und darf gleichzeitig nicht zu feucht sein, das würde Probleme verursachen.
Es gibt aber Gegenden in der Welt, da ist die Luft die meiste Zeit im Jahr kühl und trocken – etwa in Island oder Norwegen. Deshalb entstehen dort eine Menge Rechenzentren. In Island wurde ein ehemaliges Nato-Gebäude zu einem Rechenzentrum umfunktioniert, das praktisch das ganze Jahr über – bei Außentemperaturen von maximal 0 bis 5 Grad – mit Außenluft gekühlt werden kann. Das spart bis zu 40% Energiekosten.
Auch Flüssigkeitskühlung hat sich durchgesetzt: Moderne Rechenzentren setzen auf Immersionskühlung, bei der die Server direkt in eine spezielle Kühlflüssigkeit getaucht werden. Das ist bis zu 95% effizienter als herkömmliche Luftkühlung.
Unterwasser-Rechenzentren: Microsofts Experiment erfolgreich
Microsofts Projekt Natick hat gezeigt: Unterwasser-Rechenzentren funktionieren. Nach zwei Jahren auf dem Meeresgrund vor den schottischen Orkney-Inseln war das Fazit positiv. Die 864 Server liefen nicht nur stabiler als an Land – die Ausfallrate war achtmal geringer –, auch die Kühlung durch das Meerwasser erwies sich als hocheffizient.
Der Grund: Konstante Temperaturen um 10 Grad Celsius und keine Temperaturschwankungen. Microsoft plant bereits größere Unterwasser-Rechenzentren. Auch andere Unternehmen wie Google experimentieren mit ähnlichen Konzepten in Fjorden und vor Küsten.
Abwärme als Goldgrube: Heizen mit Servern
Die Abwärme von Rechenzentren aktiv zu nutzen, ist längst keine Zukunftsmusik mehr. In Deutschland gibt es bereits erfolgreiche Projekte: In Frankfurt am Main beheizt die Abwärme eines Rechenzentrums über 1.300 Wohnungen. In München plant man sogar, 80.000 Haushalte mit Server-Abwärme zu versorgen.
Das Potenzial ist gigantisch: Laut aktueller Studien des Borderstep Instituts könnten alle deutschen Rechenzentren theoretisch 2,5 Millionen Haushalte mit Wärme versorgen. Das entspricht etwa 6% des gesamten deutschen Wärmebedarfs.
Besonders clever: In skandinavischen Ländern werden Rechenzentren direkt in Fernwärmenetze integriert. In Finnland heizt Facebook (Meta) die Stadt Odense mit der Abwärme seiner Server. Die Temperatur der Abwärme liegt bei 40-60 Grad – ideal für Fußbodenheizungen und Warmwasser.
Die Zukunft: Intelligente Wärmenetze
Die nächste Stufe sind intelligente Wärmenetze, die Rechenzentren, Industrie und Haushalte verknüpfen. Dabei wird überschüssige Wärme in großen Wärmespeichern zwischengelagert und bei Bedarf abgerufen.
Startups wie Cloud&Heat haben modulare Rechenzentren entwickelt, die direkt in Gebäuden installiert werden und diese gleichzeitig heizen. Ein Server-Schrank kann ein Einfamilienhaus komplett mit Wärme versorgen.
Der Trend geht klar dahin, dass neue Rechenzentren nur noch genehmigt werden, wenn sie ihre Abwärme sinnvoll nutzen. In den Niederlanden ist das bereits Pflicht, Deutschland plant ähnliche Regelungen.
Zuletzt aktualisiert am 25.02.2026








