Umleitung: Gestapo-Gefängnis im badischen Ettlingen, Klimawandel, Strom weg, CSD in Dortmund, Geheimniskrämerei in Hagen und mehr…

Meer, Strand, Dünen, Wald, Land, Himmel und Wolken (foto: zoom)

Folter und Mord: Das Gestapo-Gefängnis im badischen Ettlingen … endstationrechts

Nachgefragt: Kriegsveteranen als “Euthanasie”-Opfer … historischdenken

Es werden ein paar harte Jahre: Wir werden es dennoch schaffen, aber nicht mit Deppenpolitik … misik

Und dann war der Strom weg: Ich mache mir, wie vermutlich jede und jeder von Euch, Gedanken über den kommenden Winter. Das was mich dabei am Meisten beunruhigt ist, dass ich einen flächendeckenden, längerfristigen Stromausfall für nicht unwahrscheinlich halte … unkreativ

Klimawandel: Stadt Haarlem will als Erste auf der Welt Fleischreklame verbieten … scilogs

Mit Fotos wirksam „Übers Klima reden“: Webinar zur Bildsprache in der Klimakommunikation … klimafakten

Cookie-Banner der meistbesuchten Websites: Miese Tricks und fiese Klicks … netzpolitik

Zwischen Trauer, Stolz und Hoffnung: 7.000 Demonstrierende beim CSD Dortmund … nordstadtblogger

Hagen: Was Bürger nicht wissen dürfen … doppelwacholder

Studie des Prognos-Instituts: Rechnet sich eine energetische Gebäudesanierung nicht?

Haus ohne Dach
Hier lohnt sich die Gebäudersanierung bestimmt nicht mehr (archiv: zoom)

Rechnet sich eine energetische Gebäudesanierung nicht? Zu diesem Schluss kann man kommen, sieht man oberflächlich auf die von der KfW-Förderbank beauftragte Studie des Prognos-Instituts.

In der Prognose für Deutschland bis 2050 wird das Kosten-Nutzen-Verhältnis wie folgt dargestellt:

Kosten für die energetische Gebäudesanierung ca. 838-953 Milliarden Euro
Nutzen für die energetische Gebäudesanierung ca. 370-453 Milliarden

Zum diesem Ergebnis kommt die Studie, weil für den Betrachtungszeitraum der kommenden 38 Jahre der durchschnittlicher Heizkostenanstieg 1,1 % pro Jahr betragen soll.

Zitat:
„In der hier vorliegenden Studie wurden die Szenarien zum Energiekonzept wie folgt genutzt: Für Endkunden beträgt die mittlere jährliche Realpreissteigerung in allen Szenarien etwa 1,1%.“

Übrigens werden -laut der Studie- auch alle Schadenskosten bis 2050 bei 70 Euro pro Tonne CO2 Emissionen bleiben. Wenn also mal wieder ein Kyrill durchs Land gezogen ist, werden die Spritkosten für Maschinen zu Aufräum- und Aufforstungsarbeiten bis zum Jahre 2050 genauso konstant bleiben, wie Lohnkosten, Rentenbeiträge, Krankenversicherung, Preise zum Einkauf, Reparatur und Wartung von Maschinen, …

Ob die Rosa-Rote-Brille, durch die uns die Studie blicken lässt, ausgerechnet jetzt erschienen ist, wo Ministerien über die so genannte „Streichliste“ verhandeln, weil die Kasse des Energie- und Klimafonds auf Grund des niedrigen Emissionshandelspreises leer ist, ist natürlich spekulativ.

Ebbenfalls spekulativ ist aus meiner Sicht die Entscheidung, grundsätzlich keine energetische Sanierung zu veranlassen, in der Hoffnung, dass der durchschnittlicher Heizkostenanstieg nicht mehr als 1,1 % pro Jahr betragen wird.

Aber Prognos hat ja auch nicht mich mit der Studie beraten, sondern berät laut Vorwort europaweit Entscheidungsträger in Wirtschaft und Politik.

Die Studie ist über den Internetauftritt der KFW einsehbar.

Klimakiller Google: Zweifel bestätigt

Meine Zweifel an einem Artikel auf der ersten Seite der Süddeutschen Zeitung vom 13. Januar 2009 haben sich anscheinend bestätigt.

Gestern erschien auf  Seite 22 der SZ ein Artikel mit dem Titel: „Die Klimawirkung des Internet. Zweifel an hohem Treibgas-Ausstoß bei Suchanfragen.

Aus dem Artikel wird auch deutlich, wo sich der Autor Helmut Martin-Jung seine „Fakten“ zusammengeklaubt hatte, ohne dies kenntlich zu machen: Bei der Times. Peinlich!

Die stillschweigende Korrektur des „Hinguckers auf der ersten Seite“ folgt merkwürdigerweise recht genau den Linien des von mir in der Update Zeile verlinkten meedia-Artikels von Alexander Becker.

Der Autor des nachgeschobenen Artikels von gestern in der SZ wird namentlich nicht genannt, sondern zeichnet nur mit dem Kürzel „ma“. Vielleicht hat sich „ma“ von Alexander Becker inspirieren lassen 😉

SZ-Artikel: „Klimakiller Google“ – Effekthascherei?

Update 22.30 Uhr: Die „Geschichte“ wird auch bei „meedia“ verarbeitet.

Klimakiller Google - bitte zweimal lesen!
Klimakiller Google – bitte zweimal lesen!

Als ich heute morgen am Frühstückstisch saß, brauchte ich die Süddeutsche Zeitung erst gar nicht zu entfalten. Auf der Titelseite war der echte Hingucker eingekästelt:

Klimakiller Google.

Energieverbrauch der Internet-Suchmaschinen schädigt Umwelt.

Potzblitz! schlug es in meinen Gehirnkasten ein: schon wieder nicht selbst drauf gekommen. Dabei ist es doch sozusagen selbstevident, dass diese supertollen, arbeitserleichternden Suchmaschinen irgendeinen Haken haben müssen. Jedes Aktivkonto hat ein Gegenkonto auf der Passivseite.

Zwischen Kaffee, Käsebrot und WDR5 habe ich den Artikel nebst anderen Seiten meiner Morgenzeitung konsumiert, bevor ich ins Auto sprang um zur Arbeit zu fahren.

Es war ein stressiger Tag, aber irgendwo in meinem Hinterkopf geisterte dieser Artikel umher.

Ich habe ihn jetzt, draußen ist es schon wieder dunkel, zum zweiten Mal gelesen.

Der Artikel ist schlecht, unsauber geschrieben und um des Effektes Willen zusammengekloppt.

DerText mit meinen Anmerkungen:

Man hat sich daran fast schon gewöhnt wie an den Lichtschalter. Es dauert nur einen Sekundenbruchteil, bis sich nach dem Abschicken der Anfrage an eine Suchmaschine im Internet bereits der Bildschirm füllt mit einer Trefferliste. Vielleicht liegt es an dieser schier unglaublichen Geschwindigkeit, dass sich die meisten kaum vorstellen können, welch gigantische Maschinerie sie lostreten, wenn sie über einen Internet-Suchdienst erfahren wollen, ob Britney Spears noch verheiratet ist oder doch nicht mehr.

zoom: Bis hierhin ist noch alles in Ordnung. Der Autor will mich neugierig machen.

Alexander David Wissner-Gross, Physiker und Computerexperte an der Harvard-University, hat das nun auf eine einfache Formel gebracht. Zwei Suchanfragen an www.google.com setzen 15 Gramm CO2 frei – so viel wie auch entsteht, wenn man mit einem Kocher Wasser für eine Tasse Tee siedet.

zoom: Hier muss jeder Leser sich sofort fragen, wie Wissner-Gross auf diese Formel gekommen ist und ob sie korrekt ist.

Natürlich wurden sofort Zweifel laut an der Methodik des jungen Wissenschaftlers, der 2007 promoviert hat und als eines seiner Hauptinteressensgebiete Green IT angibt, also umweltschonende Informationstechnik. In der Tat dürfte es einfach zu viele Unbekannte geben, um diese Gleichung exakt aufzudröseln. Tatsache ist aber, dass Rechenzentren immense Mengen an Energie verschlingen.

zoom: Dies ist der Schlüsselabsatz des Artikels. Der Autor hat natürlich antizipiert, dass der Leser die oben gestellten Zweifel an der Formel haben würde. Und – oh Wunder! – er bestärkt ihn scheinbar in diesen Zweifeln. Aber nicht indem er sagt: Ich, lieber Leser, habe auch diese Zweifel gehegt und bin ihnen nachgegangen, und ich bin zu folgenden Erkenntnissen gekommen. Nein, er versteckt sich im Lieblingsgestrüpp der deutschen Sprache, dem Passiv: „Natürlich wurden sofort Zweifel laut …“ Wer hat da aus welchem Grund gezweifelt? Wie sah die Methodik des Wissenschaftlers aus? Weiter: Der Wissenschaftler gibt „als eines seiner Hauptinteressengebiete Green IT“ an. Wo gibt er dies, wem gegenüber an?

Im Folgenden scheint der Autor die „Erkenntnisse“ des jungen Wissenschaftlers zu verwerfen: „In der Tat dürfte es einfach zu viele Unbekannte geben, um diese Gleichung exakt aufzudröseln.“ Er impliziert aber mit dem Adverb „exakt“, dass vielleicht doch, wenn auch ungenau, etwas an der Formel stimmen könne. Jetzt folgt der nächste Teil des Kunstgriffs:

Eine Studie im Auftrag des Prozessorherstellers AMD ergab, dass weltweit 14 Kraftwerke der 1000-Megawatt-Klasse ausschließlich dafür arbeiten, diese Rechnerfarmen mit Strom zu versorgen. 2008 verbrauchten Rechenzentren allein in Deutschland gigantische 10,1 Terawattstunden – das entspricht der Leistung vier mittelgroßer Kohlekraftwerke. Bei den Stromkosten entfällt etwa die Hälfte auf den Betrieb der Rechner, die andere Hälfte braucht man, um sie zu kühlen.

zoom: Hier wird überhaupt nicht deutlich, ob es sich bei den Rechnerfarmen um Rechnerfarmen handelt, die ausschließlich für Suchmaschinen arbeiten oder nur allgemein um Rechenzentren, deren Ressourcen genutzt werden. Der Absatz hat erst einmal keinen eindeutigen Bezug zu Google. Den Bezug stellt der Autor durch die Beifügung des Wörtchens „diese“ im Begriff „diese Rechnerfarmen“ her. Dies ist aber ein rein sprachlicher Bezug, der inhaltlich nicht genau(s.o.) begründet wird.

Nebenbei: Ich wäre dem Autor auch dankbar, wenn er mir die Quelle der AMD-Studie nennt, so dass ich sie mir selber ansehen kann. Die Links können doch seit Erfindung des WWW zumindest in der Online-Version des Artikels eingefügt werden 😉

Ab hier wird ungebremst bis zum Schluss alles durchgelesen:

Weltweit verteilte Rechnerfarmen

Ohne den Verbund aus miteinander verschalteten Computern aber wäre beispielsweise Google niemals so erfolgreich geworden, wie es heute ist. Gibt man in seinen Computer eine Anfrage ein, werden schon während des Tippens im Hintergrund mehrere Computer befragt.

Dabei werten die Suchformeln nicht bloß allgemeine Statistiken aus – was haben alle Nutzer gesucht? -, sondern in der Regel auch die Suchhistorie des konkreten Benutzers, der da vor seinem Rechner sitzt. Ein Vorgehen, für das die Suchmaschinenbetreiber aus Datenschutzgründen gerade in jüngerer Zeit immer wieder kritisiert worden sind.

Bei komplexen Suchanfragen werden sogar tausend Rechner und mehr eingespannt, um in gewohnt kurzer Zeit eine Liste mit Treffern ausgeben zu können. Zum entscheidenden Faktor wird deshalb die Methode, wie diese Rechner zusammenarbeiten.

Schon die ersten Computer, die im Uni-Wohnheimzimmer von Google-Gründer Larry Page standen, waren keine Rennmaschinen, sondern – so zumindestens die Legende – teils aus Legosteinen gebastelt und mit Klettband zusammengehalten. Das Entscheidende war die Software, die es erlaubte, mehrere Rechenvorgänge parallel ausführen zu lassen.

Das zeichnet die interne Software von Google auch heute noch aus. Die über die gesamte Welt verteilten Rechnerfarmen des Konzerns bestehen aus gewöhnlichen Computern – Schätzungen zufolge liegt ihre Zahl bei weit über einer Million. Wie in einem Ameisenstaat ist dabei nicht der einzelne Rechner wichtig, sondern das Kollektiv, das über eine hochentwickelte Software gesteuert wird.

Als Benutzer sollte man sich daher auch beim Internet-Surfen bewusst sein, dass die Annehmlichkeiten dieser Dienste ebenso ihren Preis haben wie das elektrische Licht.

zoom: In keinster Weise gelingt es dem Autor zu zeigen, welche Teil-Ressourcen Google und andere Suchmachinen an der Gesamtheit der Rechnernetze wirklich nutzen. Es sei denn, die AMD-Studie hätte nur diejenigenTeile der Rechenzentren untersucht, die für Google und Co. arbeiten. Ich vermute, dass die AMD-Studie sämtliche Rechenzentren mit ihrem Stromverbrauch betrachtet. Ich vermute auch, dass die Suchmaschinen einen Teil der Kapazitäten dieser Rechenzentren und Rechner nutzen. Ich vermute weiterhin, dass der letzte Absatz des Artikel „irgendwie“ stimmen könnte. Ich weiß aber nicht wie. Der Autor klärt diese Frage in keinster Weise. Die Aussagen der Überschrift lesen sich interessant, bleiben aber letztendlich unbewiesen.