Klimakatastrophe

Die Klima-Alarmisten sind ratlos – Klimakatastrophe ist abgesagt

Das IPCC (Intergovernmental Panel on Climate Change, Weltklimarat) hat lange Jahre eine Erwärmung von 3,0°C pro CO2-Verdopplung angenommen (Klimasensitivität). Die jüngeren begutachteten Publikationen gehen stark in Richtung 2 Grad. Eine zunehmend große Anzahl von Fachpublikationen schätzt die Klimasensitivität auf heute deutlich unter 1°C.

 

Ab wann wird es gefährlich?

Der Wert der Klimasensitivität liegt nach Einschätzung des fünften Sachstandsberichts des IPCC wahrscheinlich zwischen 1,5 °C und 4,5°C. Ab 1,5°C bis 2°C werden vom Potsdamer Institut für Klimafolgenforschung (PIK) als gefährlich angenommen. Genaues weiß das PIK nicht.

 

Sind die Temperaturangaben überhaupt zuverlässig?

Selbst das IPCC räumt in seinem jüngsten Sachstandsbericht ein, dass es für die Erwärmungswirkung des anthropogenen CO2 wegen fehlender Übereinstimmung der angegebenen Werten keinen geeigneten Schätzwert gibt. (“No best estimate for equilibrium climate sensitivity can now be given because of a lack of agreement on values across assessed lines of evidence and studies.” (Sachstandsbericht, S. 16, Anm. 16)

Die Schätzungen der Temperaturen haben sich im Verlauf der Jahre stetig nach unten angepasst.

 

Eine Klimasensitivität unter 1°C ist ungefährlich

Eine zunehmend große Anzahl von Fachpublikationen, sagt Prof. Dr. Horst-Joachim Lüdecke, EIKE-Pressesprecher, schätze die Klimasensitivität auf heute deutlich unter 1°C.

Das heißt: Es besteht keine Gefahr einer Überhitzung der Erde und damit kein Grund für den Klima-Alarmismus. Man könnte ihn sofort beenden und nach vernünftigen Lösungen für unsere zukünftige Energieversorgung forschen. Aber ein Ende der Klima-Hysterie ist mit den derzeit an der Regierung beteiligten politischen Parteien, die sich mit der Klima-Lüge identifizieren, jedoch ausgeschlossen.

In einer möglichen Jamaika-Koalition (schwarz-gelb-grün) müsste sich die rational gegen das Erneuerbare Energien Gesetz (EEG) argumentierende FDP gegen die Grünen und die ergrünte CDU/CSU durchsetzen, damit die Regierung wieder mit den Füßen auf den Boden kommt. Das ist angesichts des erschreckend hohen Einflusses der Kirchen, der Nicht-Regierungsorganisationen, der Ökoindustrie und deren Lobbyisten im breiten Spektrum der Grünen nicht sehr wahrscheinlich.

 

Quellen:

VN:F [1.9.22_1171]
Rating: 5.0/5 (4 votes cast)
Abgas

Die Vernichtung des Diesels ist lediglich ein Etappenziel

Deutschlands Autoindustrie: Mord auf offener Straße?

Deutschlands Politik macht sich daran, die klassische Automobilindustrie im Lande zu vernichten. Die Blaupause hierfür kann man am Beispiel der Stromerzeugungsbranche sehen, wo inzwischen über eine halbe Billion € verschleudert wurden, ohne dass es gelungen wäre, den CO2-Ausstoss des Landes in der beabsichtigten Weise zu verringern. Deshalb wird jetzt mit verdoppelter Kraft auf den Diesel eingeschlagen, den man mit List und Gewalt von der Straße zu drängen versucht. Die Vernichtung des Diesels ist lediglich ein Etappenziel, das man gewählt hat, um den zu erwartenden Widerstand der Bevölkerung in Einzelfraktionen zu zersplittern, die man gegeneinander ausspielen kann. Wenn die Wahl vorbei ist und der Diesel tot, wird es auch den Benzinern an den Kragen gehen.

Die faktische Konsequenz der Visionen deutscher Politiker zur Zukunft der Automobilindustrie…

Wer wissen will, wie perfide das Spiel ist, das unsere Politiker derzeit mit dem Recht des Bürgers auf individuelle Mobilität spielen, dem sei empfohlen, in der Mediathek des ZDF die um 19.00 Uhr ausgesandte „Heute“-Nachrichtensendung des ZDF vom 9.8.2017 anzusehen.

Unter „Strategien gegen Luftverschmutzung“ wird das Beispiel Düsseldorfs vorgestellt, wo die Stadt die „grüne Welle“ mancherorts unterbricht. Damit sollen, so der Kommentar, die Autofahrer gezwungen werden, abzubremsen und neu anzufahren, obwohl das mehr Schadstoffe bedeutet. Dies sei „Verkehrserziehung in Richtung Zukunft“.

Mit überlegenem Lächeln erläutert anschließend Thomas Geisel, SPD-Oberbürgermeister der Stadt Düsseldorf, seine Motive zu dieser bewussten Erhöhung der Luftbelastung in seiner Stadt wie folgt: „Das mag jetzt unter Schadstoffgesichtspunkten an der einen individuellen Stelle nachteilig sein, aber insgesamt geht es natürlich darum, die Menschen zu motivieren, die Bahn zu benutzen eher als das Auto…“

Das wurde so nonchalant dahergesagt, dass man sich der Ungeheuerlichkeit dieser Aussagen im ersten Moment gar nicht bewusst wird. Hier erklärt ein Oberbürgermeister einer Landeshauptstadt, dessen Stadt von der DUH („Deutsche Umwelthilfe“, manchmal auch als Toyotas ’Ndrangheta bezeichnet) wegen zu hoher Abgaswerte verklagt wird, dass er bewusst Maßnahmen ergreift, welche diese Belastung noch ansteigen lassen. Dabei halten Spitzenvertreter seiner Partei zudem Schauermärchen über „zehntausend Tote durch Autoabgase jedes Jahr in Deutschland“ für glaubwürdig und fordern mit dieser Begründung Fahrverbote.

 

Wenn ein SPD-Politiker zugleich willentlich eine Steigerung dieser Abgasbelastung herbeiführt, kann man vermuten, dass er hier bewusst Leben und Gesundheit von Bürgern gefährdet. Für Juristen dürfte die Frage von Interesse sein, ob hier die Staatsanwaltschaft aufgrund eines begründeten Anfangsverdachts von sich aus tätig werden müsste oder ob Bürger der Stadt Düsseldorf selbst Klage erheben sollten.

Es scheint berechtigt, hier von einem Bubenstück der besonderen Art zu sprechen.
Interessanterweise gibt es auch aus Stuttgart Hinweise darauf, dass die grün geführte Stadtverwaltung dort zu ähnlichen „Tricks“ greift. In einem Kommentar zu einem Bericht im „Spiegel Online“ ist zu lesen, dass an einer besonders kritischen Messstelle (Am Neckartor) die Straße Richtung Fellbach von zwei auf eine Spur verengt wurde, um einen Fahrradstreifen anzulegen, so dass sich dort die Pendler aufstauen. Zudem gibt es dort jetzt eine Abzweigung zu einem neuen Einkaufszentrum, dessen Parkhaus jeden Samstag komplett voll ist. Und last but not least gibt es direkt neben dem Neckartor eine riesige Baustelle, bei der regelmäßig schwere Nutzfahrzeuge hin- und herfahren.

Die NOx-Emissionen des Straßenverkehrs in Deutschland sind seit 1990 sowohl absolut (von 1,46 auf 0,491 Mio. t) als auch prozentual (von 50,7 auf nur noch 40,1 %) zurückgegangen (Grafik: Umweltbundesamt)

Meister der Doppelzüngigkeit

Mit seiner Haltung steht der SPD-OB Geisel selbstverständlich nicht alleine da, sondern befindet sich, wie man so schön sagt, im Mainstream. Auch seine Art des „Nudging“, also des hinterhältigen Manipulierens, hat größere Vorbilder.

Es gibt in Deutschland Politiker, die ihre Schulung in einer Zeit und einer Republik erhalten haben, in der Grenzwachen „Republikflüchtlingen“ in dem gutem Glauben in den Rücken geschossen haben, die Obrigkeit habe dies befohlen. Hinterher hieß es, dass ein solcher Schießbefehl niemals existiert haben soll.

Eine solche Fähigkeit, Menschen zu manipulieren und sie zu Handlungen zu veranlassen, zu denen sie sich bei klarer Kenntnis der Sachlage vermutlich nicht bereitgefunden hätten, war schon eine Meisterleistung. Politiker, die diese Kunst in verantwortlicher Position des Regimes verinnerlicht haben, sind es gewohnt, ihre wahren Absichten zu verstecken und wenn möglich andere vorzuschieben, damit diese die Drecksarbeit machen. Wer sich in diesem Dschungel zurechtfinden will, muss lernen, dem gesprochenen oder geschriebenen Wort nicht blind zu vertrauen, zwischen den Zeilen zu lesen und vor allem die Fakten zu beachten.

Der Rückgang der transportbedingten Schadstoffemissionen ist auch europaweit zu beobachten (Grafik: [THAL])

Das eigentliche Ziel heißt „Dekarbonisierung“

Die politische Elite, die Deutschland im Moment führt, hat sich voll und ganz dem Ziel der „Dekarbonisierung“ unserer Volkswirtschaft verschrieben. Dies ist eine der wesentlichsten Triebkräfte des Handelns insbesondere der Mehrheitsparteien, ein Ziel, an dem sie seit mindestens einem Jahrzehnt geduldig und mit allen ihr verfügbaren Mitteln und Methoden arbeiten. Autos, deren Verbrennungsmotoren fossiles CO2 ausstoßen, haben in diesem Weltbild keinen Platz. Entsprechende Aussagen tätigten maßgebliche PolitikerInnen bereits 2009: „Während die Autobranche mit der 63. IAA mühsam versucht aus der Krise zu fahren, fordert Bundeskanzlerin Merkel nichts geringeres als die Neuerfindung des Automobils“ und verlangte „von den deutschen Herstellern einen Entwicklungsschub hin zu umweltfreundlicheren Motoren“. Es gelte, „das Auto fast wieder neu zu erfinden, nämlich völlig neue Antriebstechnologien zu entwickeln“ [SUED].

Bereits damals gab es Planungen, bis 2020 mindestens eine Million Elektromobile auf deutsche Straßen zu bringen, die von höchster Stelle als „ehrgeizig, aber notwendig“ bezeichnet wurden. Da die Kfz-Hersteller sich jedoch halsstarrig zeigten, wurden im Rahmen einer Langfristplanung geeignete „erzieherische Maßnahmen“ auf den Weg gebracht. Die faulen Ausreden der unwilligen Automanager, dass es keine ausreichende Nachfrage nach E-Fahrzeugen gebe und der Markt von ihnen andere Fahrzeuge verlange, durften schließlich nicht ungestraft bleiben. Die Umsetzung der gewünschten „Erziehungsmaßnahmen“ erforderte jedoch die Ausarbeitung einer ausgeklügelten und langfristig angelegten Strategie.

Die historischen Karten der NO2-Jahresmittelwerte in Deutschland belegen den ständigen Rückgang der NO2-Gehalte in der Luft (Grafik: Umweltbundesamt)

Grünlinke Traumwelten

Zum Leidwesen solcher „verantwortungsbewusster“ Politiker ist es im heutigen Deutschland jedoch schwieriger, die Bevölkerung zum „richtigen“ Konsumverhalten zu motivieren, als noch vor einigen Jahrzehnten im östlichen Deutschland. Dort konnte es solche Flausen der Untertanen erst gar nicht geben, weil es nur ein einziges Automodell gab, und selbst das konnte man nicht mal so eben kaufen. Aber die Politikerkaste ist flexibel und wächst mit ihren Aufgaben. Zunächst galt es, sich die Deutungshoheit zu sichern. Der Bevölkerung musste klargemacht werden, dass ganz Deutschland eine Art Naturparadies zu sein hat. Dabei wird einfach ausgeklammert, dass Zivilisation nicht nur Vorteile wie warme Wohnungen, Kleidung und Nahrung sowie Antibiotika und moderne Medizin ermöglicht, sondern unabdingbar auch gewisse Belastungen mit sich bringt. Dazu gehört die Beanspruchung durch körperliche Arbeit ebenso wie Beeinträchtigungen der Gesundheit durch Gift- und Reizstoffe sowie Schäden an Natur und Umwelt.

Früher gab es in den westlichen Gesellschaften einen gewissen Grundkonsens darüber, dass man hier Kompromisse einzugehen hatte. Es galt, die zivilisatorisch gewünschten Vorteile nicht zu gefährden, dabei jedoch die zu akzeptierenden Nachteile auf ein vertretbares Minimum einzugrenzen.

Heute geht dieser Konsens jedoch immer weiter verloren, insbesondere bei den großstädtischen Eliten. Hier tummeln sich alle möglichen grünen und linken Ideologien, welche dem Glauben anhängen, man habe ein Anrecht darauf, die Vorteile einer technologisch fortgeschrittenen Industriegesellschaft uneingeschränkt zu genießen, ohne dafür irgendwelche Kompromisse eingehen zu müssen. Diese moderne urbane Spaßgesellschaft wünscht sich eine Fahrradrepublik mit bedingungslosen Grundeinkommen und einer Umwelt wie in einem hochalpinen Luftkurort, ergänzt um eine schrankenlose Willkommenskultur für Wirtschaftsflüchtlinge aus jedem „failed state“ dieser Welt. Diese Ideologien werden von einem Großteil der Medien mit großer Verve unterstützt. Hierdurch erhalten sie einen überproportional großen Einfluss auf die öffentliche Meinung und damit auf die Politik.

Die Lebenserwartung der deutschen Bevölkerung ist mit der Weiterentwicklung unserer technischen Zivilisation ständig gestiegen (Grafik: Statistisches Bundesamt)

Die beste Luft seit 100 Jahren

Die deutsche Bevölkerung atmet heute die beste Luft seit mindestens 100 Jahren. Früher gab es in den Häusern offene Kamine und Herde, geheizt wurde überwiegend mit Holz, dessen schädlicher Rauch karzinogene Substanzen in der Raumluft verteilte. Auch Kerzen sowie Petroleumlampen sind massive Quellen schädlicher Luftschadstoffe, denen die Bevölkerung tagein, tagaus ausgeliefert war.

In den Städten und Industriegebieten gab es keinerlei Abgasbehandlung. Noch in den 60er Jahren kam es im Ruhrgebiet zu Todesfällen durch Smog, einer giftigen Mischung aus unbehandelten Abgasen (Ruß, Staub, SO2) und Nebel. Mit der Einführung entsprechender Gesetze und der Installation von Abgasbehandlungsanlagen hat sich die Qualität der Luft seither ständig und in erheblichem Umfang verbessert, wie sich anhand langjähriger Vergleiche des Umweltbundesamts unschwer dokumentieren lässt.

Woran liegt es also, dass man derzeit von fast allen Parteien und aus allen Medien den Eindruck erhält, die Luft in unseren Städten werde durch gierige und rücksichtslose Automanager so verpestet, dass jährlich abertausende Menschen an den Folgen sterben. Es sei deshalb unausweichlich, dass man um der Volksgesundheit willen so schnell wie möglich ein Verbot von Verbrennermotoren anstreben müsse? Wobei der Diesel zwar derzeit die meisten Prügel abbekommt, der Benziner jedoch ebenfalls bereits zum Tode verurteilt wurde.

Auf europäischer Ebene ist der Straßentransport nur mit 13 % an der Emission des besonders kleinteiligen Feinstaubs PM2.5 beteiligt (Grafik: [THAL])

Verleumdungen statt Tatsachen

Wenn man sich die Vorwürfe gegen den Diesel, der im Moment als Sündenbock herhalten muss, einmal genauer ansieht, so stellt man fest, dass diesem Dinge unterstellt werden, die gar nicht den Tatsachen entsprechen. So wird in den Medien häufig suggeriert, dass Diesel-PKW Hauptquelle sowohl von Feinstaub als auch von Stickoxiden (NOx) seien und ihre Abgase Krebs sowie Lungen- und Kreislauferkrankungen auslösen würden. Dabei stimmt dies für Diesel-PKW spätestens ab der seit 2009 geltenden Schadstoffklasse Euro 5 nicht, weil sie seitdem mit einem Rußpartikelfilter ausgerüstet sein müssen.

Der Diesel unterscheidet sich vom Benziner lediglich durch einen höheren Ausstoß von Stickstoffoxid (NO), das sich an der Atmosphäre dann zu Stickstoffdioxid (NO2) umwandelt. Über die Gesundheitsgefahr dieser Mischung, die unter dem Sammelbegriff NOx zusammengefasst wird, werden alle möglichen abstrusen Behauptungen in die Welt gesetzt. Dabei sind diese vergleichbar einfachen chemischen Substanzen der Wissenschaft seit gut 100 Jahren bekannt. Auch ihre gesundheitlichen Auswirkungen sind seit vielen Jahrzehnten immer wieder sorgfältig untersucht worden. In den Konzentrationen, in denen sie in der Atmosphäre unserer Städte vorkommen, sind sie höchstens lästig bis irritierend, keinesfalls aber gefährlich. Da sie auch an Arbeitsplätzen – z.B. im Bereich der chemischen Industrie – auftreten, wurden hierzu nach umfassenden Untersuchungen durch Fachgremien sogenannte MAK-Grenzwerte festgelegt. Diese MAK-Werte werden als unbedenklich für Gesunde eingestuft, selbst wenn diese dem Grenzwert über Jahre hinweg an 8 Stunden jeden Arbeitstags ausgesetzt sind. In Deutschland galt für NO2 noch 1994 ein MAK-Wert von 9 mg/m3 [NIEM], in der Schweiz sind es bis heute 6 mg/m3.

Die Anzahl der Überschreitung des Ozon-Grenzwerts von 180 µg/m3 ist seit Jahrzehnten rückläufig (Grafik: Umweltbundesamt)

Inzwischen wurde – vermutlich aufgrund von Pressionen linksgrüner politischer Kräfte – der MAK-Wert für NO2 in Deutschland drastisch um einen Faktor von fast 10 auf nur noch 0,950 mg/m3 heruntergesetzt. Für die beiden Einzelbestandteile gelten weiterhin auch separate MAK-Werte. Beim NO liegt dieser in Deutschland bei 0,63 mg/m3, in der Schweiz dagegen bei 3 mg/m3 [NOMA].

Die oft vertretene Ansicht, dass Asthma-Patienten und Menschen mit chronischer Bronchitis auf erhöhte NO2-Werte empfindlicher reagieren als Gesunde, wird in relevanten Datensammlungen zu den Gesundheitsrisiken nicht unterstützt [NO2GE].

Auch in den Empfehlungen des Wissenschaftlichen Komitees der EU für Grenzen beruflicher Exposition gegenüber NO2 [NOAEL] ist nachzulesen, dass trotz intensiver Überprüfung der Literatur keine eindeutigen Erkenntnisse bezüglich einer nachteiligen klinischen Wirkung von NO2 auf Personen mit Asthma, chronischen Lungenerkrankungen oder Bronchitis vorliegen. In der dort aufgeführten Literatur finden sich Studien über Bergarbeiter in einem Salzbergwerk. Diese waren Dieselabgasen (Ruß + NO + NO2) in Kombination mit den im Bergbau üblichen Belastungen (Staub) unter bergbautypischen körperlichen Belastungen bei NO2-Gehalten bis zu 7,6 mg/m3 ausgesetzt waren. Dabei konnte kein Zusammenhang mit Atembeschwerden oder Husten festgestellt werden.

Noch ungefährlicher als NO2 ist das NO, das im primären Dieselabgas den weit überwiegenden Anteil des NOx ausmacht. NO bewirkt keine Reizerscheinungen an den Schleimhäuten und ist zudem ebenso wie NO2 weder reproduktionstoxisch noch mutagen oder krebsauslösend [NOMA]. Es stellt sich daher die Frage, warum man überhaupt NOx-Werte (d.h. die Summe aus NO und NO2) heranzieht, statt lediglich den NO2-Gehalt zu bestimmen. Möglicherweise vor allem deshalb, weil die gemessenen Werte dadurch im „grünen“ Sinne aufgebläht werden und man leichter zu Grenzwertverletzungen kommt.

Fasst man das ungefährlichere NO mit NO2 zu NOx zusammen, so erhält man deutlich höhere Werte als bei reiner Betrachtung des NO (Grafiken: [UBA])

Konzentrierte Dieselabgase im Tierversuch

Dass die Abgase moderner Dieselfahrzeuge mit Feinstaubfilter bei weitem nicht so schädlich sind wie vielfach behauptet, wurde in den USA 2015 von McDonald et al. durch eine eingehende experimentelle Untersuchung an Ratten nachgewiesen [MCDO]. Hierbei wurden die Versuchstiere über Zeiträume von bis zu 30 Monaten für 16 Stunden am Tage und an 5 Tagen in der Woche in einer kontrollierten Abgasatmosphäre gehalten, die auf der höchsten Stufe einen NO2-Gehalt von 8,4 mg/m3 aufwies, das ist rund das neunfache des deutschen MAK-Werts. Dabei ergaben sich kaum Hinweise auf karzinogene Wirkungen. Selbst bei den höchsten Abgaskonzentrationen zeigten sich an den Lungen der Versuchstiere nur minimale bis leichte Schädigungen.

Was ist von Horrorzahl-Studien zu halten?

Eines der schlagkräftigsten Argumente für die Gegner des Verbrennungsmotors sind zahlreiche Studien, in denen angeblich nachgewiesen wurde, dass Abgase und Feinstaub jährlich zigtausende Tote verursachen würden. Schaut man sich diese Untersuchungen jedoch genauer an, so fällt auf, dass es sich oft um sogenannte Kohortenstudien handelt. Dabei werden nicht etwa eindeutige Ursache-Wirkungsbeziehungen auf experimenteller Basis untersucht, sondern beispielsweise die Entfernung des Wohnorts von stark befahrenen Straßen.

Die schrittweise Einengung der zulässigen Gehalte von Kohlenwasserstoffen (HC) und Stickoxiden in den Abgasen von Diesel-PKW im Verlauf der verschiedenen Stufen der Euronorm (Quelle: [KIT])

Bei diesen Kohortenstudien kommt es jedoch häufig zu offensichtlich gravierenden Falschinterpretationen. In manchen Fällen scheint eine gleichzeitige Betrachtung anderer Risikofaktoren wie Rauchen, Alkoholkonsum, sozialer Status oder Ernährungsgewohnheiten nicht einbezogen zu werden. Anwohner stark befahrener Straßen leben in der Regel in einem anderen sozialen Umfeld als Eigenheimbesitzer in verkehrsfernen Wohnvierteln. Die Relevanz von Studien, die dies nicht ausreichend berücksichtigen, ist daher anzweifelbar.

In anderen Fällen wird beispielsweise häufig ein Zusammenhang zwischen NOx und Krebs behauptet, was ganz offensichtlich im Widerspruch zum klassisch experimentell ermittelten Stand des Wissens steht. Solche Studien sind daher zur Beurteilung der Risiken der Abgase moderner Dieselfahrzeuge ungeeignet.

Weitergehende Vorwürfe, die sich auch auf Feinstaub beziehen, wirken so alarmistisch, dass ihre Glaubwürdigkeit dadurch stark in Frage gestellt wird. So finden sich Aussagen wie die, dass Nanopartikel das Gehirn schädigten. Sie seien möglicherweise sogar Ursache für bestimmte Alzheimer-Erkrankungen, Kinder entwickelten systematische Entzündungen des Gehirns sowie frühe Anzeichen der Alzheimer-Erkrankung und es komme zu einem reduzierten Intelligenzquotienten [HEIS]. In anderen Studien werden sogar Risiken bezüglich Herz-Kreislauferkrankungen sowie Diabetes erwähnt [CIRC]. Besonders alarmistisch bezüglich selbst geringer Werte von NOx in der Atemluft ist beispielsweise eine Metastudie der italienischen Epidemiologin Annunziata Faustini im European Respiratory Journal. Sie hat die wichtigsten Studien zum Thema analysiert und errechnet, dass die Zahl der jährlichen Todesfälle in der Bevölkerung um jeweils vier Prozent zunehme, wenn die jährliche Durchschnittsbelastung weitere zehn Mikrogramm NO₂ pro Kubikmeter ansteigt. Nun beträgt die jährliche Stickstoffkonzentration in städtischen Wohngebieten im Mittel zwanzig bis dreißig Mikrogramm.

An vielbefahrenen Straßen sind Anwohner jedoch nach Messungen des Umweltbundesamts manchmal Konzentrationen ausgesetzt, die bis zu vierzig oder sogar sechzig Mikrogramm pro Kubikmeter darüberliegen. Mit jeden weiteren zehn Mikrogramm NO2 soll die Zahl der tödlichen Herzattacken und -infarkte um dreizehn Prozent ansteigen [FAZ]. Dies müsste eigentlich zu einer signifikant sinkenden Lebenserwartung der Bevölkerung großer Städte führen. Da das Gegenteil der Fall ist, kann man solcherlei Studien als widerlegt abhaken.

Anzahl der Stunden, in denen die Grenzwerte für NO2 an verschiedenen Messstellen überschritten wurden (Quelle: [LUST])

Eine Schlüsselrolle bei solchen Untersuchungen kommt auch den beiden Instituten für Epidemiologie (EPI I/II) am Helmholtz Zentrum München unter der Leitung von Prof. Dr. Annette Peters zu. Sie ist hochdekorierte Beraterin in wissenschaftlichen und beratenden Gremien auf nationaler wie auch auf internationaler Ebene und hat großen Einfluss auf Politik und Presse bis hin zur World Health Organisation (WHO) der UNO. Dort vertritt sie Ansichten wie die, dass die aktuell geltenden Grenzwerte für NOx aus gesundheitlicher Sicht deutlich zu hoch seien. Die Weltgesundheitsorganisation WHO (in der sie ebenfalls Einfluss hat) überarbeite gerade ihre Empfehlungen, weil neuere Daten zeigten, dass die Sterblichkeit bereits weit unterhalb dieses Wertes ansteige. Aus gesundheitlicher Sicht sei der in Europa erlaubte Jahresmittelwert für Stickstoffdioxid von 0,04 mg/m3 zu hoch. Wahrscheinlich gebe es für Stickoxide überhaupt keinen „sicheren“ Schwellenwert [PETE]. Dies steht in diametralem Widerspruch zu den Erkenntnissen z.B. der Arbeitsmedizin. Wer wissen will, woher ein nicht unerheblicher Teil der durch öffentliche Gelder geförderten Meinungsmache gegen unsere technische Zivilisation stammt, dem sei empfohlen, sich die beeindruckende Liste der Institutionen und politischen Gremien anzusehen, in denen Fr. Prof. Dr. Peters in führender Position vertreten war oder ist [PETE2].

Bei all diesen Schreckensmeldungen fragt man sich, wie die Menschheit in früheren Jahrzehnten und Jahrhunderten überhaupt überleben konnte, denn die Luft des Mittelalters war in den Stuben und Werkstätten sicherlich um ganze Größenordnungen stärker mit Schadstoffen z.B. aus der Holzverbrennung belastet als heute.

Bei vielen dieser Untersuchungen hat man den Eindruck, dass die Verfasser vor allem darauf aus sind, das Auto als Wurzel jedes nur denkbaren Übels darzustellen. Statt sich von dem hochwissenschaftlichen Wortgeklingel dieser Studien einschüchtern zu lassen, sollte man lieber auf den eigenen gesunden Menschenverstand vertrauen. Tut man dies, so erkennt man schnell, dass diese Art von epidemiologischen Studien in deutlichem Widerspruch zur Erhöhung des Lebensalters in Deutschland generell und speziell in den großen Städten steht. Die Menschen in den höher mit Abgasen belasteten großen deutschen Städten leben länger als der Durchschnitt der deutschen Bevölkerung, und ihr Lebensalter steigt immer weiter an [MUEL]. Demnach ist den Aussagen solcher Kohortenstudien gegenüber eine gehörige Portion Misstrauen angebracht.

Der führende Toxikologe Professor Helmut Greim von der TU München, von 1992 bis 2007 Vorsitzender der MAK-Kommission, hält die heute geltenden Grenzwerte für Stadtluft und insbesondere Forderungen nach ihrer weiteren Absenkung für übertrieben [GREI]. Auch Prof. Matthias Klingner, Leiter des Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme IVI in Dresden, sagte in einem Interview mit den Dresdner Neueste Nachrichten: „In der Feinstaub-Debatte, wo von 80.000 Toten im Jahr die Rede war, hatten wir ausgerechnet, dass der Grenzwert von 50 Mikrogramm Feinstaub am Tag, der nur 35 mal im Jahr überschritten werden darf, den eingeatmeten Partikeln einer halben nikotinfreien Zigarette entspricht. Nun kann man natürlich sagen, man soll überhaupt nicht rauchen, aber an der großen Gruppe der Raucher statistisch nachgewiesen sind gesundheitliche Folgen erst nach einem sehr, sehr viel höherem Zigarettenkonsum“ [KLIN].

Entwicklung der Lebenserwartung von Einwohnern verschiedener deutscher Großstädte sowie für Deutschland insgesamt für die Geburtsjahrgänge 1995 und 2010 (Daten: [LEBE], Statista)

Abgas-Beurteilung: Eine zweigeteilte Welt

Bezüglich der Beurteilung der Gefährlichkeit von Abgasen ist die Fachwelt offensichtlich zweigeteilt. Da gibt es auf der einen Seite Fachgremien, deren Zusammensetzung zumindest früher hauptsächlich nach ärztlicher bzw. arbeitsmedizinischer Qualifikation erfolgte. In der Schweiz ist dies die SUVA (Schweizer Unfall Versicherung), die in der Schweiz Aufgaben wahrnimmt, die denjenigen der Berufsgenossenschaften in Deutschland entsprechen. In Deutschland ist hierfür die Ständige Senatskommission zur Prüfung gesundheitsschädlicher Arbeitsstoffe (MAK-Kommission) der Deutschen Forschungsgemeinschaft [DFG] verantwortlich, der aktuell 36 hochrangige Fachleute angehören. Wer sich einen Eindruck davon verschaffen will, wie sorgfältig und verantwortungsbewusst diese Gremien an ihre Aufgaben herangehen, dem sei ein Blick in das Factsheet: Schweizer Grenzwerte am Arbeitsplatz [MAKW] empfohlen.

In Deutschland erscheint jedes Jahr eine neue Ausgabe der MAK-Liste mit den erfolgten Änderungen. Dabei finden sich interessante und teils dramatische Verschiebungen. Noch 1994 findet sich in der MAK-Liste zu NO2 ein Grenzwert von 9 mg/m³, heute sind es nur noch 0,95mg/m³.

Die Bestimmung erfolgt folgendermassen: Zunächst wird der Stand der Erkenntnisse aus der Literatur gesammelt und ausgewertet. Dazu zählen sowohl Tier- als auch Menschenversuche sowie Studien z.B. an Mitarbeitern, die entsprechenden Auswirkungen ausgesetzt sind oder waren. So wird ermittelt, wo die Dosisgrenze für NO2 in der Atemluft ist, bei der mit Sicherheit keine Wirkung auf den Organismus erfolgt. Dieses nennt man den NOAEL-Wert (no observed adverse effect level). Oft wird dieser Wert als MAK-Wert festgelegt. Da der Mensch sich nicht Rund-um-die-Uhr am Arbeitsplatz befindet, bedeutet die Festlegung vom NOAEL-Wert als MAK-Wert eine zusätzliche Sicherheit. Oft wird noch ein zusätzlicher Sicherheitsfaktor (häufig zwischen 0,1 bis 0,25) eingeführt. Letzteres könnte auch zur Herabsetzung des deutschen MAK-Wertes für NO2 von 9 mg/m3 auf nur noch 0,95 mg/m3 geführt haben [NIEM].

Der Erfolg der ergriffenen Maßnahmen zur Reinhaltung der Luft zeigt sich besonders deutlich an der Entwicklung der Werte für Schwefeldioxid vor allem im Bereich der neuen Bundesländer (Grafik: [UBA])

Auf der anderen Seite gibt es die „Fachwelt“ der grünlinken Aktivisten, die heute nicht nur in Parteien, NGO’s, zahllosen finanzstarken Stiftungen und den Medien, sondern auch in den meisten staatlichen und halbstaatlichen Gremien einschliesslich der Forschung eine dominante Rolle spielen. Diese Kräfte verfügen nicht nur über Milliardensummen aus Steuergeldern, sie üben auch dank ihrer Dominanz in Gremien, die über die Vergabe von Forschungsbudgets entscheiden, einen unglaublichen starken und zugleich negativen Einfluss auf alle Bereiche der Wissenschaft aus. Wer nicht mit ihrer Ideologie konform geht, geht bei der Beantragung von Geldern für Forschungsprojekte solange leer aus, bis er seine Lektion gelernt hat. Hier bestimmen längst nicht mehr Fachleute, sondern politisch gestützte Ideologen den Gang der Dinge, hier werden Gefälligkeitsgutachten initiiert, die dann in geeigneten politischen Gremien – gern auch auf EU- oder UNO-Ebene – ohne Rücksicht auf toxikologische Erkenntnisse und unter souveräner Missachtung jeglicher ökonomischen Vernunft durchgepeitscht werden. Von diesen Kräften, die oft auf gesicherten und hoch dotierten Beamtenpöstchen sitzen, wird die Festlegung rein „politisch-ideologischer“ Grenzwerte für Autos und die Luft in Städten gesteuert, die bei weniger als einem Zweihundertstel dessen liegen, was noch vor etwas mehr als zwei Jahrzehnten als unbedenklich für ständige jahrelange Exposition am Arbeitsplatz galt.

Hier liegen die Ursprünge der nicht nur gegen das Automobil, sondern im Prinzip gegen unsere ganze technische Zivilisation gerichteten Kampagnen, die derzeit vor allem das Automobil im Visier haben. Wenn es nicht gelingt, diesen Kräften die Deutungshoheit über die von ihnen okkupierten Bereiche im Gesundheits-, Arbeits- und Umweltschutz wieder zu entreißen, wird unsere Bevölkerung für deren Eskapaden noch einen sehr hohen Preis zu zahlen haben.

Todesurteile auf dem Umweg über die EU

Bei vielen der alarmistischen Studien über die angeblich zu hohen Risiken von Abgasen für die Bevölkerung finden sich auffallend häufig Formulierungen wie „werden diskutiert“, „nähere Angaben zu obiger Quelle sind nicht verfügbar“, „möglicherweise“, „Hinweise“ oder „kann“. Ein weites Feld für politisch dominierte Verbotsgremien, in denen Ideologen die Fachleute jederzeit mühelos überstimmen können. Diese Entwicklung kann man seit Jahren sowohl auf nationaler Ebene als auch auf internationaler Ebene beobachten.

Insbesondere in EU-Gremien kommen zu den „grünen“ Motiven noch die üblichen Grabenkämpfe der EU-Staaten untereinander. Hier kann man den ungeliebten deutschen Klassenprimussen, deren Industrie stark automobillastig ist, mal so richtig vor das Schienbein treten. Die aktuelle Dauerkanzlerin hat schon öfters bewiesen, dass sie es meisterhaft versteht, solche Gremien mit den „richtigen“ Leuten zu besetzen. Diese helfen bei der Durchsetzung ihrer eigentlichen Ziele, ohne dass sie sich im eigenen Land zu sehr in die Nesseln setzen müsste. Wenn dann die eigene Industrie mit Grenzwerten auf EU-Ebene konfrontiert ist, gegen die man selbst als deutsche Regierung nichts mehr ausrichten kann, kann man sich immer noch dadurch profilieren, dass man gegenüber der „übermächtigen“ EU ein bisschen auf Widerstand mimt und nach „hartem Verhandeln“ ein paar Brosamen mitbringt, während die beschlossenen Grenzwerte längerfristig von vornherein das Todesurteil für die Automobilindustrie bedeuten.

Das funktionierte vor allem deshalb besonders gut, weil die Regierung und damit die Vertreter unseres Landes insgeheim sowieso der Meinung waren, der Verbrenner sei nicht mehr zeitgemäß und in einigen Jahrzehnten werde es nur noch selbstfahrende Autos geben. Allen voran unsere Klimakanzlerin, die überraschend kurz vor der aktuellen Bundestagswahl ihre Linie des Versteckens und des Agierens über das Ziehen von Strippen im Hintergrund aufgegeben hat. So hat sie sich in einem Interview mit der „Super-Illu“ klar auf die völlige Abkehr vom Verbrennungsmotor festgelegt [MERK] und in einer weiteren Stellungnahme auch für das Ende des Individualverkehrs ausgesprochen, da sie überzeugt sei, dass man „in 20 Jahren nur noch mit Sondererlaubnis selbstständig Auto fahren“ dürfe [SELB]. Das Lenken wird aus ihrer Sicht dann der Staat übernehmen. Halt so, wie sie es von Kindesbeinen an gewohnt war. Und wen kümmern schon die paar Rentner, die durch diese Manöver enteignet werden, weil sie ihren alten Wagen nicht mehr benutzen dürfen, ihnen aber das Geld für die Beschaffung der teuren neuen Modelle mit ihrem ganzen nur bedingt erforderlichen Schnickschnack fehlt.

Die etwas überraschende Selbstdemaskierung der Bunddeskanzlerin lässt darauf schließen, dass sie glaubt, die „Festung Automobil“ sei dank der pausenlosen Attacken einer breiten Front von Gegnern – von der US-Regierung über die EU und die grünlinken Kräfte in Politik und Medien bis zur öffentlichen Meinung – inzwischen so diskreditiert und sturmreif geschossen, dass man mit ihr dasselbe veranstalten könne wie mit der Kernkraft im Jahre 2011. Es würde nicht verwundern, wenn sie unmittelbar nach ihrem alternativlosen Wahlsieg wieder so ein Gremium wie die damalige „Ethikkommission“ ins Leben rufen würde, um der wichtigsten deutschen Exportindustrie und zugleich dem Individualverkehr beschleunigt den Garaus zu machen.

Die CO2-Würgeschlinge

Dass die Weichen längst gestellt wurden, kann man auch an einem weiteren Punkt erkennen: Den CO2-Grenzwerten. Zwar ziert sich die Kanzlerin bei der Festlegung von Endterminen, aber das ist nur Show. Nach dem großen Getue um die angebliche „Vergasung der Bevölkerung“ [DOE] durch „kriminelle, von Gier getriebene Manager der Automobilbranche“ haben sich die etablierten politischen Parteien von grün über rot bis schwarz beim „Dieselgipfel“ auf eine vorübergehende Entschärfung der aufgeheizten Stimmungslage verständigt. Den Politikern ist klar, dass dieses Thema so kurz vor den Wahlen nicht weiter hochkochen sollte, weil dann die Gefahr bestünde, dass die betrogene Bevölkerung ihnen die ersehnten Stimmen verweigern könnte. Denn das Manöver, das langfristig durchgezogen wird, erfordert langsames, schrittweises Vorgehen, damit die Opfer nicht unruhig werden.

Das Ziel bleibt natürlich unverändert: Während man derzeit im Rahmen einer Scheibchenstrategie nur auf den Diesel einprügelt, wird es ab 2020 alle Verbrenner treffen. Das ist bereits jetzt festgeschrieben, und zwar durch die Vorgaben für den CO2-Ausstoss des sogenannten Flottenverbrauchs, der auf EU-Ebene von den derzeit noch rund 130 g CO2/100 km schon ab 2020 auf 95 g CO2/ 100 km gesenkt werden soll. So gilt derzeit ein Limit von 130 g CO2/km, was beim Diesel-Pkw 4,9 l/100 km und beim Benziner 5,5 l/100 km entspricht. Es wird von der aktuellen deutschen Neuwagenflotte knapp eingehalten. Mit dem neuen Grenzwert 95 g CO2/100 km darf ein Diesel nur noch 3,6 l/100 km verbrauchen, ein Benziner nur noch 4,0 l/100 km [NIEM]. Bei den für 2025 avisierten Werten von 68 oder 78 g CO2/100km [CO2V] wären beim Diesel nur noch 2,6 bzw. 3,0 l/100 km zulässig, beim Benziner entspräche dies 2,86 bzw. 3,3 l/100 km.

Dass schon die Werte für 2020 und erst recht die Vorgaben für 2025 nicht einzuhalten sein werden, ist selbst für Laien leicht einzusehen. Diese Grenzen können nur als Ausdruck des festen Willens der EU interpretiert werden, den PKW mit Verbrennungsmotor zum Tode zu verurteilen. Das ganze Gehampel mit den Grenzwerten und die Dieseldiskussion bzw. die „Dieselgipfel“ sollen davon nur ablenken, um den Widerstand durch die übliche Salamitaktik aufzusplittern. Und diese bereits vor vielen Jahren getroffenen Entscheidungen hätten niemals gegen den entschlossenen Widerstand Deutschlands gefällt werden können.

Auch beim Feinstaub PM10 zeigt die Langzeitauswertung, dass die Luftqualität immer besser geworden ist. Umso misstrauischer sollte man gegenüber der aktuellen Panikmache sein (Grafik: [UBA])

LKW verursachen den Löwenanteil der Dieselabgase

Ein besonders wichtige Quelle von NOx-Emissionen im Straßenverkehr sind die Diesel-LKW sowie Autobusse. Alleine LKW emittieren in einer Stadt wie Ulm dreimal soviele Abgase wie die Diesel-PKW. Kaum etwas dokumentiert die Verlogenheit der aktuellen Kampagne gegen Diesel-PKW sowie der angekündigten Fahrverbote ausgerechnet gegen Diesel-PKW deutlicher als solche Tatsachen.

Besonders klar erkennbar sind die Falschbehauptungen zu Abgasen neuer Dieselautos ab Euro 5 auch am Vorwurf der angeblich von ihnen ausgehenden „Krebsgefahr“ festzumachen: Diese besteht definitiv weder bei NO noch bei NOx, und Feinstaub ist seit Einführung des Dieselpartikelfilters kein spezifisches Problem des Diesel-Pkw, sondern entsteht aus einer Vielzahl von Quellen, wozu insbesondere auch die Benziner gehören. Gegenteilige Behauptungen in sogenannten epidemiologischen Studien sind lediglich der Beweis, dass die Verfasser Probleme damit hatten, bei ihrer Analyse die Einflüsse multipler Quellen bzw. Ursachen sauber zu trennen. Auch am Gesamtaufkommen des Feinstaubs haben Diesel-PKW nur einen untergeordneten Anteil. Verkehrswissenschaftler wie Prof. Klingner weisen darauf hin, dass dem Verkehr keinesfalls die behauptete dominierende Rolle bei den Feinstaubemissionen zukommt [KLIN].

Unerwartete Auswirkungen „stickoxid-gereinigter“ Dieselabgase

Auf eine ebenso interessante wie ungewollte Nebenwirkung der Verringerung des Stickoxid-Ausstoßes moderner Dieselfahrzeuge der Euro 5 und Euro 6- Kategorie verweist eine Meldung der Neuen Osnabrücker Zeitung vom 23.10.2015 [NOZ]. Zwar bildet das indirekt von Autos stammende NO2 , das sich aus dem zunächst ausgestoßenen NO bildet, bei Sonnenlicht zusammen mit organischen Substanzen und Sauerstoff Ozon, das in entsprechender Konzentration Schleimhäute, Augen und Lungen reizt und zu Atemwegsbeschwerden führen kann. Da das von Autos primär emittierte NO nachts jedoch Ozon abbaut, haben zwar mit der Abgasverbesserung die Ozon-Spitzenwerte abgenommen, dafür ist wegen des verringerten nächtlichen Ozonabbaus jedoch die durchschnittliche Belastung angestiegen. Somit führt ausgerechnet die Verringerung des NO-Ausstosses moderner Dieselfahrzeuge zur erhöhten Bildung eines anderen Luftschadstoffs.

In seiner hervorragenden Analyse hat R. Leistenschneider nachgewisen, dass der Anteil der Diesel-PKW an den realen NO2-Emissionen sehr viel geringer ist als von der Politik behauptet (Grafik: [LEIS2])

Natürlicher NOx-Kreislauf

Angesichts der lauten und völlig überzogenen Diskussion über die vom Menschen und insbesondere vom Auto erzeugten NOx-Abgase ist den meisten Menschen gar nicht bewusst, dass diese Teil natürlicher Kreisläufe sind, deren wahre Dimensionen bisher kaum beachtet wurden. In der Atmosphäre hat das NOx nur eine kurze Verweildauer von typischerweise 2-5 Tagen. Zum Aufkommen aus natürlichen Quellen gab es bereits im Jahre 1994 detaillierte Erkenntnisse:

 

Demnach entsprangen damals rund 40 % des in der Atmosphäre vorhandenen NOx natürlichen Quellen, wobei dies sowohl regional als auch zeitlich starken Schwankungen unterworfen ist. Zudem kommt nur ein Bruchteil der aus anthropogenen Quellen stammenden Mengen tatsächlich von modernen Diesel-PKW, siehe auch bei [LEIS, LEIS2].

Stickstoff ist essentiell für alles Leben und ist wesentlicher Bestandteil z.B. von Eiweißen. Daher muss unsere Nahrung Stickstoff enthalten. Mit der Ernte wird dem Boden Stickstoff entzogen, das sind in Deutschland etwa 1,5 bis 2 Mill. t Stickstoff pro Jahr. Der Stickstoffaustrag durch die Ernte muss dem Boden durch Düngung wieder zugeführt werden. Die Pflanzen können den Stickstoff jedoch nicht direkt aus den Stickstoffmolekülen der Luft aufnehmen, sondern erst aus NO2, das aus der Luft z.B. durch Regen in den Boden gewaschen wird. Deshalb nehmen auch die in Kraftwerken und im Verkehr erzeugten Stickoxide am Stickstoffkreislauf der Natur teil, so dass schließlich ein Teil dieses aus dem Auspuff stammenden Stickstoffs auch auf unserem Teller landet [NIEM].

Auch ein Skript der TU Darmstadt unterstreicht die grosse Bedeutung natürlicher Quellen für den Stickstoffkreislauf zwischen Atmosphäre, Boden und Gewässern (Grafik: [TUDA])

Eine weitere, neuere Untersuchung belegt, dass die aus natürlichen Quellen stammenden Stickoxidmengen diejenigen aus modernen Diesel-PKW um ein Vielfaches übertreffen [LEIS]. Behauptungen mancher Epidemiologen, dass es für Stickoxide wahrscheinlich überhaupt keinen „sicheren“ Schwellenwert gebe, sollte man angesichts dieser „unbequemen Wahrheit“ skeptisch begegnen.

Die Qual der Wahl

Deutschland und mit ihm Europa haben ein Problem. Wir haben ein Staatsoberhaupt, das schon in einer anderen Republik im goldenen Käfig lebte. Das ist auch heute noch so, wozu braucht man ÖPNV oder Fahrrad, wenn man Fahrer und Regierungsjet hat. Dieses Staatsoberhaupt huldigt Visionen, die den Realitäten der Naturgesetze sowie der Ökonomie zuwiderlaufen, und ihm ist in seinem Lauf zu dieser visionären heilen Welt das Schicksal des eigenen Volks ganz eindeutig ziemlich egal. Unglücklicherweise verfügt ebendieses Staatsoberhaupt trotz nahezu flächendeckender Lern- und Faktenresistenz über großmeisterliche Fähigkeiten im Bereich der politischen Manipulation und hat es geschafft, nicht nur die eigene Partei, sondern auch alle sogenannten etablierten anderen Parteien in ihr Macht- und Ideologiegespinst einzubinden. So, wie es halt auch in der ehemaligen „Demokratischen Republik“ mit ihren Schein-„Oppositionsparteien“ war, die im Volk ironisch als „Blockflöten“ bezeichnet wurden.

Die aktuell an der Regierung beteiligte zweite angebliche deutsche „Volkspartei“ hat sich von den Zeiten ihrer ehemals bodenständigen Anführer wie Helmut Schmidt inzwischen weit entfernt. Während die alte Garde sich damals noch Gedanken über die Daseinsvorsorge der eigenen Bevölkerung machte, kommen von den heutigen Anführern nur noch reflexhaft hohle Phrasen über die angebliche „Gier der Manager“ und deren „hochnäsige“ Weigerung, sich planwirtschaftlichen Diktaten unfähiger politischer Spinner nach nicht verkaufsfähigen E-Autos widerspruchslos zu beugen. Leute wie Schulz, Hendricks oder Dobrindt werden nie bereit sein anzuerkennen, dass unhaltbare politische Vorgaben die Ursache des Problems sind. Lieber erheben sie Forderungen, die darauf hinauslaufen, das Ende der Autoindustrie schon in den nächsten ein bis zwei Jahren herbeizuführen. Dem Verfasser ist heute noch erinnerlich, wie Mitarbeiter eines Industrieunternehmens in einer Diskussion mit kommunistischen Aktivisten der damaligen Studentenbewegung auf den Firmenparkplatz wiesen und sagten: „Da seht ihr den Unterschied zwischen unserer Situation hier und derjenigen in der DDR“.

Die SPD hat heute keinen Helmut Schmidt mehr, der lapidar feststellte: „Wer Visionen hat, soll zum Arzt gehen“. Die Gesamtheit der heutigen etablierten Parteien gehört mit ins Wartezimmer. Mit Blick auf die kommende Wahl ist das passendste Zitat vermutlich das von Heine: „Denk ich an Deutschland in der Nacht, so bin ich um den Schlaf gebracht“. Man sollte wirklich genau überlegen, wohin man sein Kreuzchen auf dem Wahlzettel setzt.

Fred F. Mueller

Quellen:

[BLIE] Umweltchemie. Von C. Bliefert. VCH Verlagsgesellschaft, Weinheim, 1994. 453 S., Broschur 68.00 DM. – ISBN 3-527-28692-6
[CIRC] https://doi.org/10.1161/CIRCULATIONAHA.116.026796 Circulation. 2017;136:618-627
[CO2V] http://www.spiegel.de/auto/aktuell/co2-grenzwerte-flottenverbrauch-steigt-erstmals-wieder-an-a-1162063.html
[DOE] https://www.eike-klima-energie.eu/2017/08/01/moralischer-bankrott-ard-energieexperte-juergen-doeschner-luegt-hemmungslos-die-vergasung-von-10-000-unschuldigen-herbei/
[FAZ] http://www.faz.net/aktuell/wissen/leben-gene/studie-was-zu-viel-feinstaub-mit-unserem-koerper-macht-15151548.html
[GREI] http://www.focus.de/finanzen/karriere/berufsleben/politik-ignoriert-zweifel-am-grenzwert-40-mikrogramm-dieselpanik-wegen-grenzwertluege-in-ihrem-buero-ist-20-mal-so-viel-stickstoff-erlaubt_id_7378545.html
[HEIS] https://www.heise.de/forum/heise-online/News-Kommentare/2018-koennen-Elektroautos-fuer-Endkunden-guenstiger-sein-als-Verbrenner/Re-430-000-Europaeer-sterben-jaehrlich-an-Feinstaub/posting-14242020/show/
[KIT] http://www.ifkm.kit.edu/Abgasmessung-Fragen-und-Antworten.php
[LEIS] https://www.eike-klima-energie.eu/2017/08/20/das-kartell-der-dummheit-irrenhaus-deutschland-wie-wir-mit-dem-diesel-unsere-grundfesten-demontieren-teil-1-stickoxide-der-grosse-anteil-natuerlichen-ursprungs/
[LEIS2] https://www.eike-klima-energie.eu/2017/08/21/das-kartell-der-dummheit-irrenhaus-deutschland-wie-wir-mit-dem-diesel-unsere-grundfesten-demontieren-teil-2-stickoxide-die-fehler-des-umweltbundesamtes-der-t/
[LUST] https://www.stadtklima-stuttgart.de/index.php?luft_luftinstuttgart
[MAKW] https://safety.physik.unibas.ch/Downloads/Factsheet-grenzwerte.pdf
[MCDO] https://www.ncbi.nlm.nih.gov/pubmed/25842615
[MERK] http://www.spiegel.de/auto/aktuell/merkel-haelt-ende-von-verbrennungsmotoren-fuer-richtigen-ansatz-a-1162820.html
[MUEL] https://www.eike-klima-energie.eu/2016/07/22/einsatz-der-oeko-garotte-gegen-das-auto-dieselverbote-der-vernichtungsfeldzug-gegen-eine-deutsche-top-industrie/
[NIEM] https://www.eike-klima-energie.eu/2016/01/21/dieselgate-was-sagen-uns-die-zahlen/#comment-184943
[NOAEL] Empfehlungen des Wissenschaftlichen Komitees der EU für Grenzen beruflicher Exposition gegenüber NO2 SCOEL/SUM/53 vom Juni 2013 (Ref. Ares(2013)2611731 – 09/07/2013, GSW 1421 82-48
[NOZ] https://www.noz.de/deutschland-welt/vermischtes/artikel/629895/gefahrliche-stoffe-kommen-aus-dem-auspuff
[NO2GE] http://gestis.itrust.de/nxt/gateway.dll/gestis_de/001090.xml?f=templates$fn=default.htm$3.0
[NOMA] https://de.wikipedia.org/wiki/Stickstoffmonoxid
[NO2MA] https://de.wikipedia.org/wiki/Stickstoffdioxid
[PETE] http://www.stern.de/gesundheit/diesel-abgase–grenzwerte-fuer-stickoxide-und-feinstaub-zu-hoch-7569076.html
[PETE2] https://www.helmholtz-muenchen.de/epi2/the-institute/staff/staff/ma/362/Prof.%20Dr.-Peters/index.html
[SELB] http://derstandard.at/2000059138106/Merkel-Selbstfahrende-Autos-in-zwanzig-Jahren-Pflicht
[SPIE] Kommentator #7 HansGustor in http://www.spiegel.de/spiegel/stuttgart-eine-autostadt-auf-der-suche-nach-einer-neuen-mobilen-zukunft-a-1161847.html#js-article-comments-box-pager
[SUED] http://www.sueddeutsche.de/auto/internationale-automobil-ausstellung-merkels-motorvisionen-1.29734
[THAL] European Environment Agency EEA Report No28/2016 Air Quality in Europe – 2016 report https://www.eea.europa.eu/publications/air-quality-in-europe-2016
[TUDA] http://indigo.meteor.tu-darmstadt.de/umet/script/Kapitel1/kap01.html#%C3%BCber1-6-3
[UBA] UBA Bericht Entwicklung der Luftqualität in Deutschland UBABerichtLuftqualität3760-6 (2009)


Versand kostenfrei. Der Ingenieur Michael Limburg und der Wissenschaftsjournalist Fred F. Mueller erklären in einfachen, auch für Laien leicht verständliche Weise, wie unser Stromversorgungssystem funktioniert.

Versand kostenfrei

Der Ingenieur Michael Limburg und der Wissenschaftsjournalist Fred F. Mueller erklären in einfacher, auch für Laien leicht verständlicher Weise, wie unser Stromversorgungssystem funktioniert.

VN:F [1.9.22_1171]
Rating: 3.0/5 (2 votes cast)
Annahmen

Tom Harris: Grundlegende Annahmen zum Klimawandel müssen überprüft werden

Wissenschaftler, egal welcher Fachrichtung, fürchten sich nicht vor “Untergrabungen” der Wissenschaft, sondern vor einem Stillstand der Diskussion. Um den Stillstand zu verhindern, befürworten politisch unabhängige Institutionen wie International Climate Science Coalition (ICSC), Kanada, die von der Trump-Regierung vorgeschlagene öffentliche Debatte durch zwei Teams: “Rotes Team / Blaues Team”. In einer öffentlichen Diskussion sollen die wissenschaftlichen Erkenntnisse zum Thema Klimawandel dargelegt werden. Dieser Vorschlag stößt bei arrivierten Klimaforschern auf massive Ablehnung. Für sie sind das “gefährliche Versuche, den Status der Minderheitenmeinungen zu erhöhen und die Legitimität, Objektivität und Transparenz der bestehenden Klimaforschung zu untergraben.”

 

In der Wissenschaft gibt es keine “bekannte Tatsache”

In einem Artikel in Citizens Journal geht Tom Harris, Executive Director der International Climate Science Coalition (ICSC), davon aus, dass grundsätzlich nichts in der Wissenschaft “eine bekannte Tatsache” sei, vor allem nicht in einer Disziplin, die so unreif sei und sich so schnell entwickelt habe wie die Klimaforschung. Es handle sich lediglich um die Meinungen von Experten, die auf ihren Interpretationen der Beobachtungen und ihrem Verständnis der heutigen Theorie basieren, sagt Harris. Und verschiedene Experten hätten unterschiedliche Meinungen, auch über Fragen, die viele Wissenschaftler als gesichert annehmen. Er begrüßt die Gründung eines “Red Team / Blue Team”. Sie sollten jede Vermutung zum Thema Klimawandel sorgfältig untersuchen, sagt er.

Nach Ansicht des ehemaligen Vizepräsidenten Al Gore gehen die Wissenschaftler “in einem hohen Maß an Sicherheit” davon aus, dass unsere Emissionen von Treibhausgasen einen gefährlichen Klimawandel verursachen, sagt Harris. Die Lösung sehe Al Gore in einer drastischen Reduzierung des Einsatzes fossiler Brennstoffe, die Quelle von 86% der weltweiten Energieversorgung. Al Gore erwarte,  dass wir glauben, dass die Klimawandel-Wissenschaft gefestigt sei.

 

Fragen an “Rotes Team / Blaues Team”

Wissenschaftler, die an der Debatte “Rotes Team / Blaues Team” teilnehmen, werden zweifellos untersuchen, inwieweit der jüngste Klimawandel gegenüber dem von Menschen verursachten Klimawandel natürlichen Ursprungs ist, sagt Tom Harris. Außerdem würden die Wirksamkeit der Computermodellierung für die Prognose des zukünftigen Klimas und die Trends bei extremen Witterungen und andere Themen der aktuellen Debatte untersucht.

Worüber wahrscheinlich nicht diskutiert werde, aber werden sollte, seien die grundlegenden Bedenken zum Klimawandel. Die Experten sollten zum Beispiel aufgefordert werden, genau zu untersuchen, ob sich die Erde im vergangenen Jahrhundert wirklich erwärmt hat. Sie sollten den CO2-Rekord genauer betrachten und darlegen, ob die Levels seit den 1800er Jahren wirklich gestiegen sind und ob die menschlichen Aktivitäten als Hauptursache für den angenommenen CO2-Anstieg bewiesen sind.

 

Tim Ball: Grundfragen sind nicht geklärt

Im Gegensatz zu den Behauptungen von Gore seien diese Art von Grundfragen nicht gelöst, sagt Tom Harris. Professor Dr. Tim Ball, ehemaliger Klimatologe an der Universität von Winnipeg, sei ein Beispiel für einen gut qualifizierten Fachmann, der die Grundlagen der Klimadebatte in Frage stellt.

Ball widerspreche zum Beispiel der Behauptung, dass es einen 0.7 Grad Celsius Temperaturanstieg im vergangenen Jahrhundert gab. Es sei nicht wirklich möglich, dies zu wissen.

“Die besten Wetterstationen in der Welt, in Bezug auf die Dichte des Netzwerks, die Qualität der Instrumente und die Überwachung der Standorte, stehen in den Vereinigten Staaten”, sagte Ball. “Aber auch dort, wie eine Studie des Meteorologen Anthony Watts zeige, erreichen nur 7,9% der bestehenden Stationen Genauigkeiten, die besser sind als +/- 1 Grad Celsius. Also, wie kann man behaupten, dass ein 0.7-Grad-Anstieg über 100 Jahre irgendeinen Sinn hat?”

Während viele Menschen davon ausgehen, dass die CO2 -Konzentrationen in den letzten Jahrzehnten gestiegen sind, bestreiten einige Wissenschaftler dies. Ball sagt: “Der CO2 -Gehalt aus vorindustriellen Zeiten wurde vollständig manipuliert, um einen stetigen Anstieg von 270 Teilen pro Million [ppm] auf die aktuellen 400 ppm zu zeigen. Wissenschaftlich gültige chemische Messungen über CO2-Werte, die über denen von heute liegen, wurden einfach ignoriert.“

Der Anstieg des CO2-Niveaus könne einfach nur ein Resultat des Ausgasens von den Ozeanen sein, die durch Veränderungen der Sonne erwärmt wurden. Ball weise darauf hin, dass der geschätzte Gesamtbeitrag zur atmosphärischen CO2-Konzentration geringer ist als die Ungewissheit der Schätzung des CO2 aus den Ozeanen, so dass die Ermittlung des menschlichen Beitrags derzeit nicht möglich ist.

Es gibt Wissenschaftler, die natürlich nicht mit Ball einverstanden sind, sagt Harris. Aber sie können nicht rational begründen, dass ihre Position zu 100% sicher sei. Die “Rotes Team / Blaues Team”-Teilnehmer müssen bei der Klimawandel-Debatte jeden Stein umdrehen und die grundlegendsten Annahmen der Klimawandel-Debatte Wahrscheinlichkeiten zuordnen. (“The red team-blue team participants must leave no stone unturned and assign probabilities to even these, the most basic assumptions of the climate change debate.”)

 

Quelle:

Gore’s basic climate assumptions must be challenged


Ruhrkultour Leseempfehlung:

Thüne

VN:F [1.9.22_1171]
Rating: 0.0/5 (0 votes cast)
Strom

Der deutsche Strom war im Jahr 2016 fast zehnmal schmutziger als Frankreichs

Der deutsche Strom war nach einer neuen Analyse des Umweltprogresses (EP) fast zehnmal schmutziger als Frankreichs im Jahr 2016. Environmental Progress (EP) bezeichnet sich als eine Forschungs- und Politikorganisation. Sie ist eine kanadische Graswurzel-Bewegung, die nach eigenen Angaben “für saubere Energie- und Energiegerechtigkeit kämpft, um Natur und Wohlstand für alle zu erreichen”.

Schmutziger Strom in Deutschland, im Musterland der Erneuerbaren Energien

Environmental Progress stellt fest: “Im Jahr 2016 erzeugte Deutschland 545 Terawattstunden (TWh) Strom mit einem durchschnittlichen Anteil von ca. 560 Gramm Kohlendioxid pro kWh. Im Gegensatz dazu erzeugte Frankreich 530 TWh Strom mit einem durchschnittlichen Anteil von ca. 58 Gramm Kohlendioxid pro kWh. Bei den Kohlendioxidemissionen aus der Elektrizität bedeutet dies, dass Deutschland fast genau zehnmal so viel wie Frankreich – über 300 Millionen metrische Tonnen – ausstößt.”

Als Quelle der Analyse gibt EP die deutschen Stundensatzdaten des Fraunhofer ISE und der RTE-France am 6. Februar 2017 an. Deutschlands Gesamtemissionen seien im Jahr 2016 gestiegen, als das Land seine Kernkraftwerke geschlossen und durch Kohle und Erdgas ersetzt habe. Die Emissionen in Deutschland hätten sich verringert, wenn kein Kernkraftwerk abgeschaltet worden wäre.

Die neue Sonnen- und Windenergie habe die verlorene Kernenergie nicht ausgleichen können. EP weist darauf hin, dass darüber hinaus der Anteil des Solar- und Windstroms 2016 im Vergleich zu 2015 trotz neuer und umfangreicher Kapazitätserweiterungen gesunken sei.

Bundesumweltministerin Barbara Hendricks (SPD):
“Der globale Siegeszug der Erneuerbaren Energien ist unaufhaltsam”

Das Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB) hat eine eigene Sicht der Dinge. Die Bundesumweltministerin Barbara Hendricks (SPD) teilte am 25.1.2017 auf ihrer Facebookseite den Lesern mit: “Der globale Siegeszug der Erneuerbaren Energien ist unaufhaltsam – jetzt geht es vor allem darum, dass Deutschland seine Spitzenposition nicht aufs Spiel setzt, sondern den Umbau der Energieversorgung konsequent vorantreibt und gleichzeitig sozialverträglich gestaltet. Und genau das wollen wir mit dem Klimaschutzplan 2050 erreichen: Er zeigt die Grundzüge für einen wirtschaftlich erfolgreichen Übergang zu einer modernen und weitgehend treibhausgasneutralen Gesellschaft bis Mitte dieses Jahrhunderts auf!”
Ihre vollständige Rede auf der der Jahrestagung des Handelsblatt zur Energiewirtschaft kann nachgelesen werden: www.bmub.bund.de/N53940

Greenpeace verteidigt das Pariser Klimaabkommen

US-Präsident Donald Trump drohe, das Pariser Klimaabkommen zu kündigen. Greenpeace ist empört. “Was heißt das für den Kampf gegen die globale Klimaüberhitzung”?, fragt die Nichtregierungsorganisation. Deren Mitgründer Patrick Moore hat bereits vor vielen Jahren Greenpeace verlassen. Sein Hauptgrund war der Wandel der Organisation von einer wissenschaftlich-analytischen zu einem politischen Lobbyverband. Greenpeace verweigert den Blick auf die Realität. Er wäre sicher geschäftsschädigend für die Spendeneinnahmen und für Greenpeace Energy, unter dessen Namen in Deutschland acht Windparks betrieben  werden.

 

Quellen:

VN:F [1.9.22_1171]
Rating: 0.0/5 (0 votes cast)

Wie ein Bauer aus Peru hilft, die globalen Finanzströme umzulenken

Ein Bauer aus Peru klagt gegen der Energiekonzern RWE und beschuldigt ihn, ein großer Verursacher des Klimawandels zu sein. Diese Nachricht machte nicht nur in Deutschland Schlagzeilen. Worum geht es in diesem außergewöhnlichen Fall? Geht es wirklich um David (gut) gegen Goliath (böse), wie einige Medien das gerne sehen möchten? Armer Bauer gegen reichen Energiekonzern? Das zu glauben, wäre naiv.

Verblüffend ist das Schweigen des Energiekonzerns. Er ist allerdings nicht der einzige, dessen Führungskräfte auf eine grüne Tauchstation gegangen zu sein scheinen. Es gibt eine Besonderheit: 25% der RWE-Aktien gehören verschiedenen Kommunen in Nordrhein-Westfalen, das heißt, bei einem wirtschaftlichen Niedergang des Energiekonzerns wären die Bürger direkt betroffen, und RWE kämpft bereits um sein Überleben.

Es ist unwahrscheinlich, dass ein Bauer aus Peru den Energiekonzern RWE zum Schweigen gebracht hat. Wer ist es dann?

 

Richtlinien für die Offenlegung von Klimarisiken

Die G20-Staaten hatten 2015 eine Arbeitsgruppe beauftragt, Richtlinien für die Offenlegung von Klimarisiken auszuarbeiten. Sie fürchten, dass Klimawandel und Klimaschutz eine Finanzkrise auslösen könnten. Klimaretter berichtet darüber in einem ausführlichen Artikel.

In Zukunft sollen Unternehmen erklären, wie sie sich den “Weg zu einer Null-Emissions-Wirtschaft” vorstellen. Autohersteller müssten sich in Zukunft überlegen, so Klimaretter, ob ihre Investitionen in Verbrennungsmotoren noch etwas wert sind. Nestlé und Co würden angehalten, ihre Lieferketten auf die Auswirkungen von Dürren oder schweren Stürmen zu überprüfen. Und Banken, Versicherer und institutionelle Anleger sollten offenlegen, wie viel CO2 in ihren Anlage-Portfolios steckt und was diese noch wert sind, wenn Regierungen einen angemessenen CO2-Preis festlegen.

Denn: “Ohne die richtigen Informationen könnten Investoren Anlagen falsch bewerten, was zu einer Fehlallokation von Kapital führt”, wie der in dieser Woche vorgelegte Abschlussbericht der Arbeitsgruppe warnt. Dafür sei nicht zuletzt die Finanzkrise 2008 ein “wichtiger Weckruf” gewesen.

Das politisch festgelegte 2-Grad-Ziel hat tiefgreifende Auswirkungen auf die Wirtschaft und wird als Allzweckwaffe zur Durchsetzung politischer Ziele genutzt. Unter anderem hat sich das “Klima Manifest Heiligenroth” mit dem 2-Grad-Ziel auseinandergesetzt.

 

Umlenkung der globalen Finanzströme

Die Unternehmen werden nach und nach am Klimaschutzziel globaler Finanzinteressen ausgerichtet. Ziel sei letztlich eine Umlenkung der globalen Finanzströme, sagt Klimaretter, allerdings nicht in erkennbarer kritischer Absicht.

“Um die nötigen Investitionen in Klimaschutz zu mobilisieren, muss die Datenlage zu Klimarisiken und Klimastrategien verbessert werden”, zitiert Klimaretter etwa die Schweizer Großbank UBS.

Der Klimaschutz ist ein Steuerungsinstrument, zunächst für Großunternehmen, mit dessen Hilfe Ratings vorgenommen und der Werteverfall von Unternehmen eingeleitet werden können. Der erste Schritt dazu ist: “Ich freue mich besonders, dass die Klimadiskussionen nun in die Geschäftsleitungen und Finanzabteilungen gehoben wurden”, zitiert Klimaretter Koushik Chatterjee vom indischen Stahlhersteller Tata.

 

Die Autoren der neuen Richtlinien für die Offenlegung von Klimarisiken

Die Autoren der neuen Richtlinien sind Mark Carney, der Chef der britischen Nationalbank, der die Schirmherrschaft übernommen hat, und Michael Bloomberg, der ehemalige Bürgermeister von New York und Gründer des Finanznachrichtendienstes Bloomberg, der die Arbeitsgruppe geleitet hat. Der Chef des britischen Versicherers Aviva, Mark Wilson, ist einer von vielen, dem die vorerst freiwilligen Richtlinien nicht weit genug gehen. Seine Forderung: “Wir sollten diesen Offenlegungs-Regeln echten Biss verleihen, indem wir sie verbindlich machen”, markiert aber deren wahrscheinlichen zukünftigen Werdegang.

Es gibt einen wachsenden Druck auf Investoren, der aus der Sicht von Klimaretter dazu führen werde, dass sie mittelfristig kaum um die neuen Richtlinien herum kommen werden: “Um ihrer “treuhänderischen Pflicht” zu genügen, müssen sie alle infrage kommenden Risiken berücksichtigen. Tun sie dies nicht, werden sie für Verluste haftbar.”

Die Androhung der Haftbarkeit dürfte einer der Gründe für das kollektive Schweigen der Wirtschaftsführer sein. Der Weg für die totale Beherrschung der wirtschaftlichen und gesellschaftlichen Prozesse durch das internationale Finanzkapital ist durch die Richtlinien geebnet. Ihnen spielen die Aktivitäten der Nicht-Regierungsorganisationen wie zum Beispiel der gemeinnützige Verein Germanwatch in die Hände.

 

Ein Bauer aus Peru gegen RWE

“Klimawandel” und “Klimagerechtigkeit” sind globale Finanz- und Wirtschafts-Steuerungselemente, die inzwischen von den meisten Regierungen zumindest verbal und von nahezu sämtlichen Nicht-Regierungsorganisationen unterstützt werden.

Als ein Vorbote für diese Entwicklung kann die Zivilklage des peruanischen Bauern Saúl Luciano Lliuya gegen RWE, die von Germanwatch unterstützt wird, verstanden werden. Er macht den Energiekonzern für den globalen CO₂-Anstieg verantwortlich. Durch das Abschmelzen des Gletschers könnten riesige Eismassen plötzlich in den Palcacocha See stürzen und eine riesige Flutwelle ins Tal den Tod von 30.000 Menschen verursachen. Luciano Lliuyas Haus liegt in der am massivsten bedrohten Risikozone. Lliuya will erreichen, dass der Energiekonzern teilweise Schutzmaßnahmen oberhalb der Andenstadt Huaraz vor Klimawandelfolgen in seiner Heimat bezahlt. „Die großen Verursacher des Klimawandels wie RWE müssen endlich Verantwortung für die Folgen ihrer Emissionen übernehmen. Wir in Peru haben kaum etwas zum Klimawandel beigetragen, leben aber mit den schlimmsten Konsequenzen”, sagte Saúl Luciano Lliuya laut Germanwatch.

Die Klage hat eine grundsätzliche Bedeutung. Sie ist die erste Klage einer Einzelperson gegen einen angeblich Verantwortlichen des angeblichen Klimawandels und könnte weltweit weitere Klagen gegen “Mitverursacher des Klimawandels” nach sich ziehen, hofft Germanwatch. Die Rechtsanwältin Dr. Roda Verheyen (Hamburg) sagt: “Um den rechtlichen Anspruch zu belegen, müssen wir dem Gericht im Detail beweisen, dass RWE sehr wohl eine Mitverantwortung trägt für die Gefährdung des Eigentums meines Mandanten – und das werden wir auch tun. Zum ersten Mal habe ein Richter erklärt, dass solche Verfahren im Prinzip möglich sind und der Fall verhandelt werden kann, heißt es auf einem Aktivistenblog.

Die Umwelt- und Entwicklungsorganisation Germanwatch unterstützt Saúl Luciano Lliuyas Anliegen und berät ihn. Für die Anwalts- und Gerichtskosten des Klägers in diesem Musterverfahren tritt die Stiftung Zukunftsfähigkeit ein und ruft zu Spenden auf. Das Landgericht Essen hat am 15. Dezember 2016 die Zivilklage des peruanischen Bauern Saúl Luciano Lliuya gegen RWE abgewiesen, aber die Kläger prüfen derzeit eine Berufung.

Noah Walker-Crawford erklärt in einem Interview die Gründe der Klimaklage und skizziert, wie es jetzt weiter geht, wobei die Kampagne mit der Herstellung von “Klimagerechtigkeit” begründet wird. “Klimaklagen” könnten zu einen neuen, zentralen Instrument im Streit für “Klimagerechtigkeit” werden.

Im Video mit Noah Walker-Crawford wird zu folgenden Fragen Stellung genommen:

Wird Saúl Luciano Lliuya Widerspruch einlegen?
Warum verklagt ein Bergführer aus Peru einen nordrhein-westfälischen Energiekonzern?
Werden Klimaklagen zu einem neuen, zentralen Instrument im Streit für Klimagerechtigkeit?
Sollten die UN-Klimaverhandlungen Grundlagen schaffen für internationale Klimaklagen?
Warum unterstützt die Organisation Germanwatch die Klage von Saúl Luciano Lliuya?
Wie können Privatpersonen die Klimaklage gegen RWE unterstützen?

Das Video wurde am 15.12.2016 veröffentlicht.

Wer ist Germanwatch?

Germanwatch ist federführend bei dieser Klimawandel-Kampagne mit dabei. Deren Leitspruch lautet: “Wir setzen uns für globale Gerechtigkeit und den Erhalt der Lebensgrundlagen ein.” Ein Loblied auf die Organisation singt Gesine Schwan, die die „Humboldt-Viadrina Governance-Platform“ leitet. Die Plattform kümmere sich um “nachhaltige Politik durch bessere Governance” sagt die ehemalige Präsidentschaftskandidatin. Die Liste von Politikern, die sich freundlich über Germanwatch äußern, ist recht lang, international, kirchlich und rot-grün. Germanwatch hält mehr als 40 haupt- und ehrenamtliche Mitarbeiter und Mitarbeiterinnen in Lohn und Brot und bietet für Praktikanten “und junge Menschen” ein Freiwilliges Ökologisches Jahr.

Die Einnahmen von Germanwatch betrugen im Jahr 2015 rund 3.179.920 Euro. Die Mitgliedsbeiträge beliefen sich auf rund 75.075 Euro, die Spendeneinnahmen lagen bei rund 148.257 Euro. Der größte Anteil der Einnahmen stammte 2015 aus “ideellen Zuschüssen” für Germanwatch (2.031.705,47 Euro) und ein erheblicher Betrag resultiert aus einem “steuerpflichtigen wirtschaftlichen Zweckbetrieb” (500.769,12 Euro). Die Reisekosten betrugen 146.971,61 Euro, die Kosten der Öffentlichkeitsarbeit 135.467, 74 Euro

Wieviele der “mehr als 40 haupt- und ehrenamtlichen Mitarbeiter und Mitarbeiterinnen” fest und in welchem Stundenumfang eingestellt sind, geht aus dem Rechenschaftsbericht nicht hervor. Die Kosten für Gehälter und Honorare betrugen 1.842.974,60 Euro – davon wurden 439.566,99 Euro für Fremdhonorare ausgegeben.

Zuwendungen an Germanwatch. Einblick in den Rechschaftsbericht 2015.

zuschuesse_1
zuschuesse_2
zuschuesse_3

Die Energieagentur NRW, ein privates Unternehmen, das im Auftrag des Landes Nordrhein-Westfalen zu allen Fragen aus dem Themenkreis Energieeffizienz, erneuerbare Energie und Klimaschutz arbeitet, hat Germanwatch mit über 63.000 Euro unterstützt.

Germanwatch ist Teil eines auf gegenseitige Unterstützung basierenden gigantischen, kaum durchdringbaren Geflechts aus Kirchen, Parteien und Organisationen, die wiederum ihre jeweils eigenen, sich untereinander überschneidenden Netzwerke haben, mit zum Teil in Personalunion besetzten Vorständen, heißt es bei Journalisten, die versucht haben, die Verbindungen aufzudecken. Ein nicht demokratisch legitimiertes Monster, das Einfluss auf die gewählten Vertreter nimmt. Eine der möglichen Ursachen dafür, dass Regierung und Bevölkerung sich immer weiter voneinander entfernt haben.

Eine “starke Lobby für eine nachhaltige Entwicklung”, beansprucht Germanwatch zu sein, eine “unabhängige Entwicklungs- und Umweltorganisation, die sich für eine zukunftsfähige globale Entwicklung einsetzt”, sagt die Organisation. Zukunftsfähig heiße für sie “sozial gerecht, ökologisch verträglich und ökonomisch tragfähig.” Sie sei für faire Handelsbeziehungen, einen verantwortlich agierenden Finanzmarkt, die Einhaltung der Menschenrechte und die Vermeidung eines “gefährlichen Klimawandels”.

Kritiker, wie zum Beispiel der Seniorenblog “ad-infinitum”, sagen, Germanwatch sei “eine Formation, die überall mit einspringe, wenn es ums Abkassieren unter dem Vorwand Klima und Gerechtigkeit gehe. “Hohlfloskeln wie Nachhaltigkeit, fair und globale Klimagerechtigkeit strömen den Germanwatch-Jüngern nur so über die Lippen. Schon ziemlich viel von diesem Vokabular des Schönen und Guten ist in der Forderung »Bildung für nachhaltige Entwicklung« enthalten, und unter »globaler Gerechtigkeit« und den »Erhalt der Lebensgrundlagen« tut diese Kirche es nicht.”

Perubauer vs RWE

Germanwatch bestimmt anmaßend den “Welthandel und Ernährung, Klimaschutz und Anpassung, Unternehmensverantwortung, Nachhaltigkeit im Finanzsektor sowie Entwicklungsfinanzierung ” als ihre Themen. Die Organisation legt damit eine umfassende Auflistung von Eckpunkten einer Neuen Weltordnung (NWO) vor, die sie alleine mit nur rund 40 Mitarbeitern niemals bewältigen könnte. Ein wichtiger, grundlegender Teil des nirgendwo schriftlich manifestierten NWO-Programms wurde soeben durch die Richtlinien für Unternehmen beigetragen, sodass die NWO allmählich deutlichere Konturen annimmt.

Mit Formeln hat sich Germanwatch einen Platz in der ersten Reihe auf dem Weg in eine scheinbar moralisch einwandfreie Zukunft gesichert – gleichzeitig auch dafür, “Gelder in die eigenen Kassen umzuleiten” (ad-infinitum): “Immer das Wichtigste: Spenden Sie hier! Denn es ist die »letzte Chance«, Klima und Menschheit zu retten.” Um sich die Einkünfte unabhängig von Spenden dauerhaft sichern und das Netzwerk verstärken zu können, war der Bauer aus Peru, jedenfalls bisher, eine wichtige Hilfe.

 

Quellen:

  • http://www.klimaretter.info/wirtschaft/hintergrund/22415-klima-kommt-in-den-geschaeftsbericht
  • https://germanwatch.org/de
  • http://www.achgut.com/artikel/die_deutschen_medien_und_ein_bauer_aus_peru_im_dienst_eines_versicherungsko
  • http://donnerunddoria.welt.de/2016/11/24/jetzt-soll-ein-landgericht-ueber-den-klimawandel-richten/

 

Foto: idealclima, “Netzwerk”, © www.piqs.de
VN:F [1.9.22_1171]
Rating: 5.0/5 (1 vote cast)

Alle heutigen Klimaprognosen sind falsch

CO2: Statt „Klima-Tiger“ lediglich ein Bettvorleger

Ein Kartenhaus aus Unwahrheiten

Entscheidender Dreh- und Angelpunkt der ganzen Klimahysterie ist die Behauptung, das CO2, welches wir durch Verbrennung fossiler Rohstoffe freisetzen, bedrohe als „Treibhausgas“ die Zukunft der Welt. Deshalb raten zahllose „Weltenretter“ mit griffigen Schlagworten wie „Dekarbonisierung“, „Klimagerechtigkeit“ oder „Ende des Fossilzeitalters“ dazu, den Industriestandort Deutschland, der heute über 80 Mio. Menschen Arbeit, Wohnung und Nahrung gibt, regelrecht zu vernichten. Die angeblich wissenschaftlichen Argumente, die hierbei angeführt werden, entpuppen sich bei genauer Betrachtung schnell als raffinierte Mischung aus Halbwahrheiten, Verdrehungen und Unterschlagungen. Die wichtigsten Tricks werden in diesem Artikel leicht verständlich erläutert.

Wolken und Wasserdampf werden durch die heute verfügbaren Programme zur Simulation des Klimas gar nicht, falsch oder mit viel zu geringer Genauigkeit berücksichtigt. Somit sind alle heutigen Klimaprognosen falsch.

Foto: Aidina Voicu

Foto: Aidina Voicu

Die Theorie von der menschengemachten globalen Erderwärmung (AGW, Anthropogenous Global Warming) ist, wenn man ihre Auswirkungen auf Politik und Zivilisation betrachtet, tatsächlich schon per se eine Katastrophe. Hinzu kommt, dass sie aus einer bösen Tat – der Verbreitung von Unwahrheiten – resultiert. Auf diese Unwahrheiten trifft sehr exakt das zu, wovor bereits Schiller mit seinem berühmten Spruch aus dem Wallenstein-Drama gewarnt hatte: „Das eben ist der Fluch der bösen Tat, dass sie, fortzeugend, immer Böses muß gebären“. Im Fall der angeblichen Bedrohung des Weltklimas durch CO2 bedeutet dies, dass man zur Deckung der ersten Lüge immer neue zusätzliche Ausflüchte erfinden muss, um die Widersprüche, die sich aus der ursprünglichen Unwahrheit ergeben, „wegzuerklären“. Kriminalbeamten ist diese Vorgehensweise aus Verhören „kreativer“ Verdächtiger bestens bekannt, wenn diese versuchen, Unstimmigkeiten ihrer ersten Aussage durch immer neue Falschbehauptungen zu maskieren.

 

Die Strahlungs-Energiebilanz der Erde

abb_01

Bild 1. Intensität der Sonnenstrahlung bei AM0 (erdnaher Weltraum) und AM1,5 (etwa zum Zenit in Karlsruhe) im Vergleich zur Emission eines idealen Schwarzen Körpers bei einer Temperatur von 5900 K (Grafik: Degreen/ Baba66, Wikimedia Commons [WIC1])

Nahezu die gesamte Energie, welche die Erde mit der Sonne und dem Weltall austauscht, wird durch Strahlung transportiert. Die Gesetze der Physik legen fest, dass jeder Körper, der im Vakuum des Weltalls Energie in Form von Strahlung empfängt, diese irgendwann wieder durch Strahlung abgeben muss. Anderenfalls würde seine Temperatur immer weiter ansteigen, da er wegen des Vakuums die zugeführte Energie nicht durch Wärmeleitung abführen kann. Die entsprechende Energieabstrahlung erfolgt bei festen und flüssigen Körpern bei jeder Temperatur oberhalb des absoluten Nullpunkts ständig. Das Wellenlängenspektrum der ausgesandten Strahlung hängt vor allem von der Temperatur der Körperoberfläche ab. Falls keine nennenswerte Energiezufuhr von innen erfolgt, stellt sich an der Oberfläche dasjenige Temperaturniveau ein, bei dem empfangene und abgegebene Strahlungsenergie gleich groß sind. Ein solcher Körper befindet sich dann im Strahlungsgleichgewicht mit seinem Umfeld. Im Falle der Erde besteht dieses aus einer sehr heißen Sonne, einem unbedeutenden Mond sowie einem ziemlich „kalten“ Weltraum. Bei der Sonne führt die hohe Oberflächentemperatur dazu, dass deren Intensitätsmaximum im Bereich des sichtbaren Lichts liegt. Bild 1. Etwas mehr als die Hälfte der Gesamt-Strahlungsenergie wird im Bereich des sichtbaren Spektrums sowie von UV-und Röntgenstrahlung emittiert, rund 47 % als Infrarotstrahlung.

abb_02

Bild 2. Die IR-Absorptionsbanden der „Treibhausgase“ überlagern sich im Wellenlängenbereich von 3,5 – 30 µm so dicht, dass nur ein schmales „atmosphärisches Fenster“ zwischen ca. 8 und 12 µm offen bleibt (Grafik: [TREA])

Die Erde strahlt dagegen aufgrund ihrer wesentlich niedrigeren Temperatur fast ausschließlich im infraroten Bereich ab Wellenlängen von etwa 3,5 µm. Für diesen Spektralbereich ist die Atmosphäre wesentlich weniger transparent als für sichtbares Licht. Dies liegt nicht an den Hauptbestandteilen Sauerstoff, Stickstoff und Argon: Diese sind auch für Infrarotstrahlung zumeist ziemlich transparent. In der Atmosphäre gibt es jedoch eine Reihe von Spurengasen wie CO2, Wasserdampf und Methan, deren Moleküle mit jeweils bestimmten Wellenlängen des infraroten Spektrums Energie austauschen können. Diese Gase wirken deshalb wie Filter, die den Strahlungsfluss der IR-Strahlung in jeweils spezifischen Wellenlängenbereichen verringern, indem sie entsprechende Strahlungsquanten absorbieren. Die absorbierte Energie wird in den Gasmolekülen in Form mechanischer Energie (Molekülschwingungen) zwischengespeichert und später wieder abgegeben, oft nicht als Strahlung, sondern als kinetische (thermische) Energie an die Moleküle anderer Gase. Andererseits können diese Moleküle auch kinetische Energie, die ihnen z.B. durch elastische Stöße anderer Moleküle zugeführt wird, in Form von Strahlung wieder aussenden. Die IR-Absorptionsbanden dieser Gase überlagern sich im wichtigen Wellenlängenbereich von 3,5 – 30 µm so dicht, dass nur ein kleines Strahlungsfenster zwischen etwa 8 – 12 µm offen bleibt, Bild 2.

Bild 3 zeigt die Energieflüsse, die sich aus Sicht des IPCC aufgrund dieses Strahlungsaustauschs im Bereich der Erdatmosphäre und der obersten Boden- und Wasserschichten ergeben.

abb_03

Bild 3. Strahlungs- und Energiebilanz der Erde laut IPPC (Grafik: [IP02])

Zum Verständnis ist anzumerken, dass die Zahlenangaben sich auf globale Durchschnittswerte beziehen, also keine Unterschiede zwischen Äquator und Polen berücksichtigen. Ausgangspunkt ist die durchschnittliche Intensität der Sonneneinstrahlung an der Grenze der Erdatmosphäre, die ziemlich konstant bei rund 1.367 W/m2 liegt. Da die Sonne jedoch jeweils nur auf die Tagseite einwirkt und die pro Quadratmeter empfangene Energie aufgrund der Kugelgestalt der Erde zu den Polen hin bis auf Null absinkt, erhält jeder Quadratmeter der oberen Atmosphäre im zeitlichen und räumlichen Mittel lediglich 340 W/m2. Hiervon werden – ebenfalls im Mittel – rund 100 W/m2 direkt zurück ins Weltall reflektiert. Diese reflektierte Strahlungsenergie hat keinen Anteil an den Umwandlungs- und Transportvorgängen an der Erdoberfläche oder in den tieferen Schichten der Atmosphäre.
Die Reflexion ist abhängig von den optischen Eigenschaften der jeweiligen Oberflächen. Charakterisiert wird sie durch Fachbegriffe wie Albedo oder Reflektivität. Dies ist eine dimensionslose Größe zwischen 0 und 1. Die Erde hat einen Albedo-Wert von 0,29. Dies bedeutet, dass sie 71 % der auftreffenden Strahlungsenergie absorbiert und 29 % reflektiert. Für die vom Kürper selbst ausgehende Strahlung gibt es einen vergleichbar definierten Begriff, die Emissivität (Emissionsgrad). Eine Emissivität von 0,29 besagt deshalb, dass der betreffende Körper beim Aussenden nur 0,29 x so viel Strahlungsenergie abgibt wie einer, der eine solche von 1 aufweist. Zu beachten ist hierbei zusätzlich, dass diese Werte von der jeweiligen Wellenlänge abhängen. Ein Körper, der im Bereich des sichtbaren Lichts eine Albedo von 0,29 hat, kann bei Abstrahlung im Infrarotbereich unter Umständen eine Emissivität von 0,8 oder sogar nahe an 1 aufweisen. Deshalb sollte man sich bei der Kalkulation von Strahlungsbilanzen vergewissern, wie die konkreten Werte für Reflektivität und Emissivität für die jeweils betrachtete Wellenlänge aussehen. Einen Überblick über Albedowerte wichtiger Strukturen auf der Erde und in der Atmosphäre gibt Bild 4.

abb_04

Bild 4. Verschiedene Oberflächen haben eine unterschiedliche Rückstrahlung: Anhand der Landschaft werden ausgewählte Albedowerte dargestellt (Grafik: eskp.de, Creative Commons, [WIME])

Den Löwenanteil der direkt in der Atmosphäre erfolgenden Reflexion (Bild 3) bewirken mit rund 47 W/m2 die Wolken [STEP]. Von der restlichen Strahlung verbleiben noch weitere Anteile in der Atmosphäre oder werden von Boden und Wasser reflektiert, so dass letztlich nur rund 161 W/m2 der solaren Strahlungsenergie auf Bodenniveau absorbiert werden. Die Erdoberfläche gibt diese Energie nahezu vollständig wieder nach oben in die Atmosphäre ab, zum größten Teil in Form von infraroter Strahlung, den Rest in Form fühlbarer Wärme durch atmosphärische Konvektion oder als latente Wärme aufgrund der Verdunstung von Wasser. Die Infrarotstrahlung vom Boden und vom Wasser gelangt wegen des kleinen offenen Strahlungsfensters der Atmosphäre nur zu einem vergleichsweise geringen Anteil direkt in den Weltraum. Ein Großteil wird von den sogenannten Treibhausgasen, vom Wasserdampf sowie von Wolken abgefangen. Ein Teil hiervon wird – häufig mit geänderter Wellenlänge – wieder in Richtung Erdboden zurückgestrahlt, während der Rest letztlich ins Weltall abgegeben wird. Dieser Energietransport erfolgt meist über zahlreiche Einzelschritte mit zwischengeschalteter Umwandlung in andere Energieformen oder Wellenlängen. Auch kommt es zu Reflexionen und Richtungswechseln. Zu diesem „Strahlungskreislauf“ tragen auch die bereits erwähnten Wärme- und Verdunstungsanteile sowie die in der Atmosphäre direkt absorbierten Anteile der Sonnenstrahlung bei, welche den Energiegehalt der unteren Atmosphäre erhöhen. Auch diese Energie muss letztlich, wenn sie sich nach oben „durchgearbeitet“ hat, in Form von Wärmestrahlung abgeführt werden.

Entscheidend ist aus Sicht der AGW-Theorie das behauptete Ungleichgewicht der Strahlungsbilanz (Imbalance). Gemeint ist ein kleiner, im Bild 3 unten links eingezeichneter Energiefluss von 0,6 W/m2 (mit einer Streuung zwischen 0,2 und 1,0 W/m2), der nach Auffassung des IPCC langfristig im System Erdoberfläche/ Wasser/ Atmosphäre verbleibt und die behauptete „Klimaerwärmung“ bewirken soll.

 

Da die reine AGW-Lehre besagt, dass nur das CO2 der Haupt-Bösewicht sein kann und darf…

Eine zentrale Tatsachenverdrehung der gesamten AGW-Theorie ist Leugnung des wesentlichen Beitrags des Wassers (als Dampf, Flüssigkeit oder Eis) zum gesamten Klimageschehen. Stattdessen wird das CO2 als Hauptursache dargestellt. Zur Begründung schreiben die AGW-Propheten Rahmstorf und Schellnhuber in ihrem Buch zum Klimawandel: „Das insgesamt wichtigste Treibhausgas ist der Wasserdampf. Es taucht in der obigen Diskussion nur deshalb nicht auf,weil der Mensch seine Konzentration nicht direkt verändern kann“ [RASE]. Diese Behauptung, dass nämlich das vom Menschen durch Verbrennung fossiler Rohstoffe in die Atmosphäre eingebrachte CO2 die Hauptursache für eine katastrophale Veränderung des Weltklimas sei, ist grob unwissenschaftlich. Das lässt sich leicht erkennen, wenn man sich die hierzu präsentierten Darstellungen des IPCC (Bild 5) genauer ansieht. Hier wird für die Wirkung der einzelnen Gase bzw. Aerosole ein „Strahlungsantrieb“ (radiative forcing) angegeben. Damit ist die von den „Treibhausgasen“ angeblich durch vermehrte Reflexion infraroter Wärmestrahlung zurück auf die Erdoberfläche verursachte dauerhafte Veränderung der abwärts gerichteten Energieeinstrahlung in Oberflächennähe gemeint.

abb_05

Bild 5. Bezeichnung und angeblicher Strahlungsantrieb der wichtigsten „Treibhausgase“ laut IPCC (Grafik: IPCC AR 2007, [IP01])

In der Summe wird den im Bild 5 aufgeführten Treibhausgasen ein kumulierter „Strahlungsantrieb“ von 1,6 W/m² (Streubereich 0,6 – 2,4 W/m²) zugeordnet. Grundlage der entsprechenden Theorie ist der sogenannte „Treibhauseffekt“ der Atmosphäre. Dieser soll dafür sorgen, dass die Gleichgewichtstemperatur der Erdoberfläche bei 15 °C statt bei lediglich -18 °C (255 K) liegt. Hervorgerufen werden soll dies durch die Rück-Reflexion der von der Erde ausgehenden infraroten Wärmestrahlung durch die „Treibhausgase“, wodurch das Temperaturniveau um 33 °C ansteigen soll. Durch menschengemachte Erhöhung des Anteils dieser „Treibhausgase“ soll die Temperatur jetzt noch deutlich stärker ansteigen. An dieser Stelle sei der Vollständigkeit halber angemerkt, dass dies eine Hypothese ist. Viele Wissenschaftler bestreiten diesen Ansatz und führen aus, dass hierfür bisher noch kein Beweis erbracht werden konnte.

 

….wird die Rolle des Wassers als entscheidender Faktor einfach unterschlagen

Ein genauerer Blick auf Bild 5 offenbart die klaffende Lücke, für die Rahmstorf und Schellnhuber mit ihrem obigen Zitat die Rechtfertigung liefern. Die Umsetzung in Bild 5 wirft ein Schlaglicht auf die wissenschaftliche Redlichkeit des IPCC bzw. auf den Mangel an derselben: Das Wasser bzw. der in der Atmosphäre befindliche Wasserdampf fehlt gänzlich, dem „cloud albedo effect“ wird ein lachhaft geringer Wert von lediglich ca. -1,5 W/m² zugestanden. Dies ist geradezu grotesk, wenn man es mit den Zahlen vergleicht, die weiter unten noch aufgeführt werden. Schließlich ist Wasserdampf ebenso wie CO2 ein infrarotaktives Gas. Seine Wirkung übertrifft sogar nach den Worten von Rahmstorf/ Schellnhuber diejenige des CO2 sowie auch die aller anderen „Treibhausgase“ zusammengenommen ganz erheblich. Doch obwohl je nach Quelle zugegeben wird, dass Wasserdampf für 36 bis >85 % des „Treibhauseffekts“ verantwortlich sei, wird es vom IPCC sowie von meinungsführenden Institutionen wie Wikipedia oder der US-Umweltschutzbehörde EPA im Zusammenhang mit dem „Klimawandel“ noch nicht einmal in der Kategorie „Treibhausgase“ geführt. Wichtiger Grund für seine starke Wirksamkeit ist der im Vergleich zu allen anderen „Treibhausgasen“ sehr viel höhere Gehalt in der Atmosphäre. Der Mengenanteil des CO2 in der Atmosphäre liegt nach aktueller Lehrmeinung bei ziemlich genau 400 ppm. Den Unterschied zum Wasserdampfgehalt verdeutlicht die folgende Tabelle:

tabelle_1

Aus der Tatsache, dass Wasserdampf vom IPCC trotz seiner IR-Eigenschaften nicht als „klimawandelwirksames“ Treibhausgas gewertet wird, folgt für zahlreiche Vertreter der AGW-Hypothese, die sich möglicherweise noch einen gewissen Rest an Schamgefühl beim Vorbringen wissenschaftlich klar erkennbarer Unwahrheiten bewahrt haben, ein Gewissenskonflikt, der zu einer Vielzahl teils lächerlicher und oft sehr plump vorgetragener Ausflüchte führt. So überschreibt man in der deutschen Ausgabe von Wikipedia den Absatz im Treibhausgas-Beitrag, in dem Wasserdampf behandelt wird, lediglich mit „Weitere zum Treibhauseffekt beitragende Stoffe“. Doch schon im ersten Satz sahen sich die Redakteure anscheinend außerstande, die unwürdige Scharade weiterzuführen, und sagen klipp und klar: „Wasserdampf ist das wichtigste Treibhausgas. Sein Beitrag zum natürlichen Treibhauseffekt wird auf etwa 60 % beziffert“ [WITR].
Ihre englischsprachigen Kollegen rechnen den Wasserdampf dagegen bereits in der Einleitung zu den wichtigsten Treibhausgasen und stellen fest: „Wasserdampf trägt am meisten zum Treibhauseffekt bei, und zwar zwischen 36 % und 66 % bei klarem Himmel und zwischen 66 % und 85 %, wenn Wolken mit berücksichtigt werden“ [WITE].
Besonders knapp gehalten ist die Erläuterung der US-Umweltschutzbehörde EPA (Environmental Protection Agency), einer Bastion der US-Grünen. Auch auf deren Webseite werden Grafiken über den Einfluss wichtiger, vom Menschen verursachter Treibhausgase gezeigt [EPA], und auch hier wird Wasser(dampf) nicht aufgeführt. Hierzu steht nur lapidar: „Wasserdampf ist ein Gas: Wasser kann als unsichtbares Gas vorkommen, das als Wasserdampf bezeichnet wird. Wasserdampf kommt in der Atmosphäre als natürlicher Bestandteil vor und hat einen starken Einfluss auf Wetter und Klima“. Anschließend folgt noch eine kurze Erläuterung zu seinem angeblich positiven Rückkopplungseffekt aufgrund der verstärkten Verdunstung in einer wärmer werdenden Atmosphäre, was aufgrund der Treibhausgaswirkung des Wasserdampfs zu noch mehr Erwärmung und damit zu einer immer weiter voranschreitenden Erwärmung führen soll.

Eine ganz andere Einschätzung findet man dagegen bei einer Untergliederung der NASA. Zur Erinnerung: Das ist der frühere Arbeitgeber des Dr. Michael E. Mann, der mit seiner hoch umstrittenen „Hockeystick“-Kurve zu einem der prominentesten Frontmänner der AGW-Theorie avancierte. Es gibt dort aber anscheinend auch noch integre Wissenschaftler. Im Goddard Institute for Space Studies (GISS) der NASA beschäftigt man sich im Rahmen des International Satellite Cloud Climatology Project (ISCCP) intensiv mit Klimasimulationen [WONA]. In dieser Veröffentlichung findet sich die bemerkenswerte Aussage, dass Wasserdampf den größten Teil der von der Oberfläche aufsteigenden langwelligen Wärmestrahlung absorbiere und dadurch auch den größten Anteil am Treibhauseffekt habe – der jetzt durch menschengemachte Verschmutzung verstärkt werde. Ohne den Wasserdampf in der Atmosphäre wäre die Erdoberfläche im Mittel um 31 °C (!) kälter als heute. Damit werden dem Wasser mindestens 90 % am gesamten atmosphärischen „Treibhauseffekt“ zugesprochen.

 

Der angebliche Verstärkungseffekt…

abb_06

Bild 6. Die AGW-Modellvorstellung der verstärkenden Wirkung von Wasserdampf auf die vom CO2 nebst den anderen „Klimagasen“ hervorgerufene Erwärmung (Grafik: [NOAA])

Nächste zentrale Unwahrheitsbaustelle am Kartenhaus der AGW-Theorie ist die sogenannte „Wasserdampfverstärkung“. Dieser behauptete positive Rückkopplungseffekt des Wasserdampfs ist ein entscheidender Dreh- und Angelpunkt der AGW-Hypothese, weil die Wirkung der „offiziell anerkannten“ Treibhausgase nicht ausreicht, um den bisher beobachteten Temperaturanstieg zu erklären. Auf dieser Verstärkungs-Fiktion bauen dann weitere unwissenschaftliche Scheinargumente auf, mit denen versucht wird, die Rolle des eigentlich dominierenden Wassers im Strahlungs- und Wärmehaushalt der Erdoberfläche zu leugnen. Stattdessen wird dessen Einfluss dem CO2 sowie den anderen „Klimagasen“ zugesprochen, obwohl sie bei weitem nicht die gleiche Wirksamkeit haben. Hauptgrund für diese seltsam anmutende Argumentation ist sicherlich, dass man die Fiktion vom Menschen als Ursache des behaupteten Klimawandels auf Biegen und Brechen aufrechterhalten will. Deshalb werden wir uns das Argument der „Wasserdampfverstärkung“, das in unzähligen Variationen ständig wiederholt wird, etwas genauer anschauen. Eine grafische Darstellung dessen, was dabei ablaufen soll, zeigt Bild 6.

Diese Modellannahme ist schon vom Ansatz her unsinnig, denn sie würde darauf hinauslaufen, dass sich das Klimasystem bereits nach einem kleinen „Stupser“ von selbst immer weiter hochschaukeln würde, bis es schließlich gegen eine Art Anschlag liefe. Bei dieser Argumentation wird zudem ein wichtiger zusätzlicher Aspekt unterschlagen, denn eigentlich müsste man berücksichtigen, dass in den Ozeanen nicht nur enorme Wassermengen, sondern auch rund 38.000 Gigatonnen (Gt) Kohlenstoff als CO2 gespeichert sind *). Das ist rund das 50-60fache dessen, was in der Atmosphäre vorhanden ist. Träfe die Theorie von der „Wasserdampfverstärkung“ zu, so würde mit steigenden Temperaturen ein erheblicher Teil dieses CO2 ebenfalls in die Atmosphäre entweichen und seinerseits den Effekt weiter verstärken **). Dies wäre unvermeidlich, weil die Löslichkeit des CO2 mit steigender Temperatur stark abnimmt. Ein sich erwärmendes Klima würde, wenn die Hypothese von der „Wasserdampfverstärkung“ zuträfe, gleich zwei parallele Mechanismen aktivieren, die unser Klimasystem in eine sich katastrophal immer weiter steigernde Erwärmung katapultieren würden. Dieser Prozess würde solange voranschreiten, bis alles CO2 und alles Wasser aus den Ozeanen entwichen bzw. verdunstet wäre, um dann in einem lebensfeindlichen Endzustand zu verharren. Der C-Inhalt der Atmosphäre läge dann bei rund 40.000 Gt statt der heutigen rund 750 – 850 Gt***), und sie bestünde hauptsächlich aus Wasserdampf.
Diese Hypothese ist demnach offenkundig schon dann wenig glaubhaft, wenn man sie lediglich als Gedankenexperiment durchspielt. Träfe sie zu, dann gäbe es wohl kaum höheres Leben auf der Erde, wir hätten Zustände, die stark denjenigen der Venus-Atmosphäre ähnelten. Dass so etwas auch in der Realität zumindest in den letzten 550 Mio. Jahren nie vorgekommen ist, beweist der Blick in die Erdgeschichte. Als sich damals aufgrund der Photosynthese unsere heutige „moderne“ Atmosphäre mit ihrem hohen Sauerstoffanteil gebildet hatte, lag deren CO2-Gehalt bis zum 20fachen höher als vor Beginn des Industriezeitalters. Seither ist er unter großen Schwankungen nur ganz allmählich auf das heutige Niveau von 300-400 ppm abgesunken, siehe Bild 7.

abb_07

Bild 7. Entwicklung des CO2-Gehalts der Atmosphäre in den letzten ca. 570 Mio. Jahren. Der Parameter RCO2 bezeichnet das Verhältnis des Massenanteils an CO2 in der Atmosphäre des jeweiligen Zeitpunkts im Vergleich zum vorindustriellen Wert von ca. 300 ppm (Grafik: W. H. Berger, [CALU])

Wer dies berücksichtigt, kann die Theorie der Überschreitung eines „Kipppunktes“ in der Temperaturentwicklung aufgrund einer „Wasserdampfverstärkung“ der CO2-Wirkung nicht mehr ernst nehmen. Unterstrichen wird ihre Unhaltbarkeit zusätzlich durch die grafische Auftragung der in verschiedenen Erdzeitaltern seither aufgetretenen Kombinationen aus CO2-Gehalt und Temperatur, Bild 8.

abb_08

Bild 8. Im Verlauf der Erdzeitalter vom Kambrium (vor etwa 541 bis 485,4 Mio. Jahren) bis heute gab es keine erkennbare Kopplung zwischen atmosphärischem CO2-Gehalt und Temperaturniveau (Daten: Wikipedia)

Als weitere Widerlegung der AGW-Theorie vom CO2 als entscheidendem „Klimagas“ können die recht massiven Schwankungen der Temperaturen im Verlauf vergangener Eiszeiten und Zwischeneiszeiten herangezogen werden. Schließlich haben nach aktuellem Stand der Untersuchungen an Eisbohrkernen die CO2-Gehalte in diesem Zeitraum nicht einmal entfernt an heutige Pegel herangereicht. Dennoch schwankten die Temperaturen seit 450.000 Jahren um insgesamt 15 °C um das heutige Niveau, Bild 9.

abb_09

Bild 9. Im Verlauf der letzten 450.000 Jahre schwankten die Temperaturen im Verlauf mehrerer Eiszeiten und Zwischeneiszeiten bei wenig veränderlichem CO2-Gehalt der Atmosphäre mit einer Spanne von bis zu 15 °C (zwischen etwa – 9 und + 6 °C) um die heutigen Werte (Grafik: Langexp, GNU Wikimedia Commons, [WIC2])

Diese Fakten beweisen eindeutig, dass es egal ist, wie viele Seiten voller einfacher oder auch komplexer mathematisch-physikalischer Herleitungen und Begründungen die Vertreter der AGW-Hypothese zur Untermauerung ihrer Theorien über Wasserdampfverstärkung und Kipppunkte vorbringen: Sie werden durch die Realität der Erdgeschichte ad absurdum geführt.

 

…und andere Gutenachtgeschichten zum Thema Wasserdampf

Wie bereits dargelegt, wird Wasserdampf ungeachtet seiner starken „Klimawirksamkeit“ seitens des IPCC nicht als „Treibhausgas“ eingestuft. Eine Erklärung für diese seltsam anmutende Haltung finden sich u.a. auf der Webseite der American Chemical Society [ACS]. Zwar wird auch dort zunächst die starke Wirkung von Wasserdampf anerkannt, die in diesem Fall mit 60 % beziffert wird. Dann wird jedoch behauptet: „Allerdings bestimmt der Wasserdampf nicht die Erdtemperatur, stattdessen wird der Wasserdampf durch die Temperatur bestimmt“. Der Treibhauseffekt werde ausschließlich durch nicht-kondensierende Gase bestimmt. Die entscheidende Rolle spiele das CO2, ergänzt um kleinere Beiträge durch Methan, Stickstoffmonoxid, Lachgas und Ozon. Hinzu kämen kleinere Anteile durch die menschliche Zivilisation erzeugter Gase auf Basis von Chlor- bzw. Fluorverbindungen. Schließlich wird die Katze aus dem Sack gelassen: Als Begründung für den Ausschluss des Wasserdampfs dient auch den US-Chemikern ausschließlich die im vorigen Absatz bereits umfassend widerlegte Theorie von der „Wasserdampfverstärkung“. In die gleiche Kerbe schlagen sowohl das deutschsprachige Wikipedia als auch die englische Version [WITR, WITE].

In der englischen Fassung findet sich allerdings noch ein weiteres und besonders abenteuerliches Argument: Man vergleicht die Verweildauer von CO2 in der Atmosphäre von „Jahren oder Jahrhunderten“ mit der viel kürzeren durchschnittlichen Verweildauer eines H2O-Moleküls in der Atmosphäre von lediglich 9 Tagen. Das wird dann als Begründung dafür angeführt, dass Wasserdampf lediglich „auf die Wirkung anderer Treibhausgase reagiere und diese verstärke“. Dieses Argument ist an Lächerlichkeit kaum zu überbieten. Im Mittel tritt ja bei Vorliegen geeigneter Bedingungen ebenso viel Wasserdampf durch Verdunstung neu in die Atmosphäre über, wie durch Kondensation ausgefällt wird, so dass die Konzentration im Großen und Ganzen unverändert bleibt. Das an den Haaren herbeigezogene Argument von der geringen Verweildauer ist somit hinfällig. Bei geschlossenen Kreisläufen wie dem des Wassers zwischen Gewässern, Atmosphäre und Land ist es völlig unerheblich, ob ein einzelnen Molekül nur fünf Sekunden oder 5.000 Jahre in einem der Stadien des Kreislaufs verbleibt. Das einzige was zählt ist die Gesamtmenge bzw. der jeweilige Anteil des betreffenden Stoffs in diesem Stadium, und diese bleiben im statistischen Mittel unverändert oder driften höchstens vergleichsweise langsam über längere Zeiträume nach oben oder unten. Das kann schon ein Gymnasiast im Physikunterricht leicht nachvollziehen.
Von entscheidender Bedeutung wäre dieses Argument dagegen bei Stoffen, die durch bestimmte Ereignisse mehr oder weniger plötzlich in großen Mengen in die Atmosphäre freigesetzt und von der Natur entweder schnell, langsam oder gar nicht resorbiert bzw. in Senken abgelagert werden. Dies ist beim CO2 z.B. nach dem Ausbruch von Supervulkanen der Fall. Hier ist eine möglichst genaue Kenntnis der zugrundeliegenden Kreisläufe, ihrer Stoffflüsse und deren Gesetzmäßigkeiten unabdingbar. Doch auch hier wird von den AGW-Propheten massiv geschummelt. Aus Platzgründen wird hierauf in einem weiteren Artikel noch detailliert eingegangen.

 

Die Wolken sind der Hund, das CO2 ist höchstens der Schwanz

Der nächste Aspekt, bei dem sich die AGW-Vertreter mit ihren Theorien regelrecht an Strohhalme klammern, ist das Thema Wolken. Zunächst sei angemerkt, dass es sich auch hierbei um Wasser handelt, allerdings liegt es im flüssigen (Wassertröpfchen) bzw. festen (Eiskristalle) Aggregatzustand vor. Und diese Wolken haben es in sich. Das IPCC behauptet ja, dass ein angenommener Energiefluss (siehe Bild 3) von 0,6 W/m2 das Erdklima bedrohen soll. Das sind jedoch gerade mal etwa 1,3 % des Betrags von 47 W/m2, den die Wolken direkt wieder ins Weltall reflektieren [STEP]. Nun weiß jeder Mensch aus eigener Erfahrung, dass kaum ein Wetterphänomen so unstet ist wie die Wolken. An einem schönen Sommer-Sonnentag kann es sein, dass ihre Abschattung kaum ins Gewicht fällt, bei Unwettern kann es dagegen selbst mitten am Tage so dunkel werden, dass man im Haus das Licht einschalten muss. Ihre Wirkung auf den Energie- und damit Temperaturhaushalt der Erde ist daher ebenso erratisch wie gewaltig. Diese Phänomene konnten früher mangels geeigneter Instrumente nicht gemessen werden. Eine Erfassung durch Satelliten ist erst seit wenigen Jahrzehnten möglich, doch deckt diese wesentliche Aspekte wie die Transparenz für verschiedene Wellenlängen nur unvollständig ab. Hier ist eine Erfassung vom Boden aus nicht zu ersetzen, wird aber bis heute nicht flächendeckend durchgeführt.
Ein weiterer, ebenso wichtiger Aspekt ist der, dass Wolken eine ganz besondere Eigenschaft haben: Sie absorbieren und emittieren Licht aus allen Bereichen des Spektrums, also auch die infrarote Strahlung, die von der Erdoberfläche ebenso ausgeht wie von den IR-strahlungsfähigen Gasen in der Atmosphäre. Zudem geben sie als flüssige Körper mit Masse und Temperatur selbst IR-Strahlung in einem annähernd kontinuierlichen Spektralbereich sowohl nach oben als auch nach unten ab. Während sie also einerseits die Erde nach oben gegen die Sonnenstrahlen abschirmen, sorgen sie „nach unten“ dafür, dass mehr Strahlungsenergie wieder Richtung Erdoberfläche reflektiert wird als bei freiem Himmel. Hinzu kommt der nicht unerhebliche Anteil „Eigenstrahlung“ in alle Richtungen. Die entsprechenden Energiebeträge liegen um zwei Größenordnungen über dem angenommenen „Imbalance“-Betrag und um mehr als anderthalb Größenordnungen über dem Beitrag, der den angeblichen „Klimagasen“ insgesamt zugeordnet wird. Schon geringe Unsicherheiten bei der Erfassung der Wirkung der Wolken reduzieren daher den „Imbalance-Effekt durch Klimagase“ auf den Rang einer nicht maßgeblichen Störgröße. Wenn man sich dies vergegenwärtigt, kann man nur staunen, auf welch wackliger Grundlage die AGW-Theoretiker ihre Gedankengebäude aufgebaut haben.

 

Die Uneinigkeit der Wissenschaft beim Thema Wolken

Eines der meistgebrauchten Totschlag-Argumente gegen die sogenannten Klimaskeptiker ist bekanntlich die Behauptung, „die Wissenschaft“ sei sich in der Frage der menschengemachten Klimaerwärmung zu 97 % einig und diejenigen, die nicht damit übereinstimmten, seien Querulanten, Spinner oder Laien ohne die erforderliche wissenschaftliche Qualifikation. In Anlehnung an die rechtlichen Regelungen bezüglich des Verbots der Leugnung von Nazi-Vergehen wird besonders gerne der diskriminierende Begriff „Klimaleugner“ verwendet. Für diese fordern manche besonders forsche Exponenten der Mehrheitsmeinung teils bereits die Todesstrafe, teils bereiten sie wie einige US-amerikanische Staatsanwälte Strafverfolgungsverfahren auf der Grundlage von Gesetzen vor, die für die Bekämpfung des organisierten Verbrechens geschaffen wurden. Angesichts dieser massiven Drohungen und Diskriminierungen macht es daher Sinn, sich mit dem angeblichen „Konsens der Wissenschaft“ beim Thema Wolken und ihrer Wirkung auf das Klima etwas näher zu beschäftigen.

In der englischen Fassung von Wikipedia [WITE] werden Wolken unter Berufung auf eine Untersuchung von Schmidt et al. aus dem Jahre 2010 [SCHM] als Hauptverursacher der Klimaerwärmung eingestuft. Die Autoren ordnen dem Wasserdampf rund 50 % des Treibhauseffekts zu, die Wolken sollen weitere 25 % ausmachen, 20 % kommen demnach vom CO2 und die restlichen 5 % werden Aerosolen und den sogenannten „minor greenhouse gases“ zugeschrieben.
Weniger sicher ist man sich dagegen bei den Redakteuren der deutschen Fassung von Wikipedia [WITR]. Dort wird zunächst erläutert, dass Wolken als kondensierter Wasserdampf streng genommen kein Treibhausgas darstellten. Sie absorbierten aber IR-Strahlung und verstärkten dadurch den Treibhauseffekt ****). Zugleich reflektierten sie jedoch auch die einfallende Sonnenenergie und hätten daher auch einen kühlenden Einfluss. Die Frage, welcher Effekt überwiege, hänge von Faktoren wie der Höhe, Tageszeit/Sonnenhöhe, Dichte oder geografischen Position der Wolken ab. Inwieweit eine Erderwärmung die beim gegenwärtigen Klima insgesamt kühlende Wirkung der Wolken abschwäche oder verstärke, sei die unsicherste Rückkopplungswirkung der derzeitigen globalen Erwärmung. Der letzte Satz ist übrigens so geschickt formuliert, dass man ihn erst genauer lesen muss. Erst dann erkennt man, dass hier den Wolken in der jetzigen klimatischen Situation de facto eine kühlende Wirkung zugesprochen wird. Die Unsicherheit bezieht sich lediglich auf den Fall, dass es in Zukunft tatsächlich zu einer Erwärmung des Klimas kommen sollte.
Ziemlich eindeutig in die Gegenrichtung gehen dagegen die Angaben des Wiki-Bildungsservers [WIBI]. Dort wird ausgesagt, dass Wolken einerseits die planetare Albedo um ca. -50 W/m2 erhöhten, auf der anderen Seite jedoch auch durch Absorption und Emission der langwelligen Wärmestrahlung mit etwa + 30 W/m2 zum Treibhauseffekt beitrügen. Der Netto-Strahlungseffekt liege damit bei ungefähr -20 W/m2, was eine deutliche Abkühlung des gegenwärtigen Klimas bewirke. Nach Umrechnung der beiden gegenläufigen Energieflüsse in resultierende Temperaturänderungen ergebe sich aus einer Abkühlung um -12 °C und einer Erwärmung um +7 °C eine netto-Abkühlung von -5 °C.
Eine sehr detaillierte Betrachtung findet man bei dem bereits erwähnten International Satellite Cloud Climatology Project (ISCCP) der NASA [WONA], wo man sich intensiv mit den extrem komplexen Zusammenhängen der Bildung von Wolken und ihres Einflusses auf das Klima beschäftigt. Dabei kommt man zu sehr klaren Aussagen: So wird im Zusammenhang mit Strahlungs- und Niederschlagswechselwirkungen von Wolken lapidar festgestellt, dass man derzeit nicht wisse, wie groß diese Effekte seien. Deshalb sei eine korrekte Vorhersage eventueller Auswirkungen auf den Klimawandel nicht möglich. Und dann kommt es (zumindest für die AGW-Vertreter) knüppeldick, findet sich dort doch die Einschätzung, dass die aktuell verwendeten Programme zur Simulation des Klimas insbesondere mit Blick auf die Vorhersagegenauigkeit bezüglich Wolkenbildung und Regenmengen viel zu ungenau seien. Für eine vertrauenswürdige Klimavorhersage müsse die diesbezügliche Vorhersagegenauigkeit um den Faktor 100 (!) besser werden. Dies setze auch entsprechend verbesserte Messverfahren voraus. Damit ist im Prinzip alles, was bisher an Klimasimulationen präsentiert wurde, aus berufenem Munde (NASA/GISS) für unbrauchbar erklärt worden.
Auf Satellitenmessungen des „Earth Radiation Budget Experiment“ (ERBE) stützt sich die Einschätzung von Prof. Walter Roedel in seinem Buch über Physik der Atmosphäre [ROED]. Diese Daten zeigten nach Ansicht des Autors, dass global die Abkühlung durch die Erhöhung der planetaren Albedo (immer im Vergleich zu einer wolkenfreien Atmosphäre) gegenüber der Erwärmung durch die Reduzierung der langwelligen Abstrahlung weit überwiege, wenn auch mit starker regionaler Differenzierung. Einem globalen Verlust von etwa 45 bis 50 W/m² aufgrund der erhöhten Albedo stehe nur ein Gewinn von etwas über 30 W/m² durch die Reduktion der thermischen Abstrahlung gegenüber; die Strahlungsbilanz wird also durch Wolkenbildung um 15 bis 20 W/m² negativer. Das liegt etwa um den Faktor 10 über dem behaupteten Einfluss des CO2.
Interessante Erkenntnisse zur Größe und Variation der IR-Strahlung aus der Atmosphäre zum Boden liefern Messungen von E.I. Nezval et al. [NEZV] bei Untersuchungen in Russland über mehrere Jahre. Obwohl hierbei nur die abwärtsgerichteten Strahlungskomponenten erfasst wurden, sind die Daten sehr aufschlussreich, da sie die erhebliche Größenordnung sowie die enorme Variabilität der von Wolken und Wasserdampf gelieferten Beiträge zum Energiehaushalt der Atmosphäre verdeutlichen, Bild 10.

abb_10

Bild 10. Messdaten zur abwärtsgerichteten IR-Strahlung in der Region Moskau über drei Jahre. Der Beitrag aller „offiziellen Klimagase“ (vergl. Bild 5) ist nur etwa halb so groß wie die Strichdicke der Achseinteilung, auf die der Pfeil zeigt (Grafik: E.I. Nezval et al. [NEZV])

Die höchste abwärtsgerichtete IR-Strahlungsintensität wurde an einem wolkenreichen Juliabend 2009 mit 424 W/m2 gemessen, der niedrigste Wert von 169 W/m2 wurde bei klarem Himmel in den Morgenstunden eines Februartags registriert. Vergleicht man diese Zahlen und ihre Variationsbreite mit dem vom IPCC angegebenen „Strahlungsantrieb“ der Klimagase von lediglich 1,6 W/m2, so kommt man auf einen Multiplikator von bis zu 265 (!). In Sommermonaten variierte der nach unten gerichtete IR-Strahlungsanteil innerhalb eines Tages um bis zu 33 W/m2. Man vergleiche dies mit aktuellen Simulationen, die mit festen Mittelwerten von beispielsweise ganzjährig 1,6 W/m2 arbeiten. Zudem werden die atmosphärischen Eingangsdaten wie Temperatur oder Luftfeuchtigkeit bis heute oft nur mit einstelliger Genauigkeit gemessen. Daher ist die Nonchalance, mit der die Creme der „Klimawissenschaft“ meint, dem Einfluss des „anthropogenen CO2“ die Hauptrolle zuordnen zu müssen und Simulationen auf der Grundlage von solch unsicheren Daten vertrauen zu dürfen, selbst für jemanden ohne wissenschaftlichen Hintergrund nur sehr schwer nachvollziehbar. Stattdessen sollte man besser darangehen, zunächst einmal die Hauptfaktoren des Wetter-und Klimageschehens flächendeckend mit ausreichender Genauigkeit und zeitlicher Auflösung zu ermitteln, bevor man Klimasimulation betreibt.

 

Mangelnde Wissenschaftlichkeit: Das Dilemma der AGW-Vertreter

Die hier aufgeführten Beispiele zeigen, dass die ganze auf dem angeblichen Effekt des „wichtigsten Treibhausgases CO2“ basierende AGW-Theorie wissenschaftlich kaum haltbar ist. Hier wird vor allem Ideologie unter wissenschaftlichem Mäntelchen verpackt und dem Volk mit dem dicken Knüppel der Medien (Prof. Lesch, Schellnhuber und Konsorten) und der Politik (massive Einflussnahme auf Stellenbesetzungen und Fördergelder) schon ab Kindergartenalter in die Gehirne geprügelt. Kritische Meinungen versucht man nicht nur durch Verweis auf einen angeblichen „Konsens der Wissenschaft“, sondern zunehmend auch durch Einschüchterung, Verleumdung sowie direkte Diskriminierung zu unterdrücken. Und das, obwohl sich die Aussagen der AGW-Vertreter schon bei elementaren Grundlagen teils diametral widersprechen.
Präzise auf den Punkt gebracht hat dies der emeritierte Associate Professor für Meteorologie vom Geophysikalischen Institut der Universität in Fairbanks (Alaska, USA), Dr. rer. nat. Gerhard Kramm, in einer kürzlichen Stellungnahme zur Klimadiskussion [KRAM]: „Der sogenannte atmosphärische Treibhauseffekt beruht auf pseudowissenschaftlichem Müll. Mit Physik hat dieser Müll nichts zu tun. Wäre es ein physikalischer Effekt, dann wäre er eindeutig definiert. Das Gegenteil ist der Fall. Es gibt eine Vielzahl von unterschiedlichen Definitionen und Erklärungen, die sich z.T. sogar widersprechen. Selbst die Esoterik stellt höhere Ansprüche als die sogenannte Klimaforschung“.
Fred F. Mueller

Fußnoten:

*) Bei der Quantifizierung von CO2-Kreisläufen wird aus praktischen Erwägungen nur der Kohlenstoffanteil im CO2 berücksichtigt, weil der Kohlenstoff in Reservoirs wie z.B. Pflanzen oder Humus auch in völlig anderen Verbindungen vorliegen kann, aus denen sich erst später wieder CO2 bildet.
**) In der Regelungstechnik entspräche dies einer „Mitkopplung“, also einem Effekt, den man z.B. dann erlebt, wenn man mit dem Mikrofon eines Verstärkers zu nahe an die Lautsprecher kommt: Es kommt zu einem immer lauter werdenden Brummen oder Pfeifen, das solange zunimmt, bis die Anlage an ihre Grenzen gekommen ist. Die Geowissenschaften beweisen jedoch, dass Temperaturen und Klimaentwicklung der Erde seit hunderten Millionen von Jahren trotz gelegentlicher schwerer Katastrophen (Vulkane oder Meteoreinschläge) stets innerhalb vergleichsweise vernünftiger Grenzen verblieben sind und die Effekte solcher Katastrophen ausbalanciert werden konnten. Statt einer katastrophalen Mitkopplung wurde unser Klima demnach offensichtlich von einer sehr gutmütigen Gegenkopplung erstaunlich stabil auf einem lebensfreundlichen Kurs gehalten.
***) Je nach Quelle 700-800 Gt. Eigene Berechnungen ergaben 850 Gt.
****) Diese Erklärung hätte bei Physiklehrern alter Schule noch die Bemerkung „Sechs, setzen“ ausgelöst, verbunden mit einer Strafarbeit zum Thema, dass nicht die Absorption, sondern höchstens die (Re-)Emission von IR-Strahlung einen Beitrag zu einem „Treibhauseffekt“ leisten könne. Aber Wikipedia als angeblich seriöses Nachschlagewerk mit dem Anspruch wissenschaftlicher Korrektheit ist schon längst fest in der Hand einer neuen Generation „moderner“ Wissenschaftler, denen ideologische Überzeugungen wichtiger sind als Mathematik, Physik oder Naturwissenschaften.

Quellen:

[ACS] https://www.acs.org/content/acs/en/climatescience/climatesciencenarratives/its-water-vapor-not-the-co2.html
[CALU] Berger, W. H.: Carbon Dioxide through Geologic Time, http://earthguide.ucsd.edu/virtualmuseum/climatechange2/07_1.shtml
[CDIA] http://cdiac.ornl.gov/trends/co2/recent_mauna_loa_co2.html
[EPA] https://www3.epa.gov/climatechange/kids/basics/today/greenhouse-gases.html
[IP01] spm2 https://www.ipcc.ch/report/graphics/index.php?t=Assessment%20Reports&r=AR4%20-%20WG1&f=SPM
[IP02] Climate Change 2013: The Physical Science Basis. Working Group I contribution to the IPPC Fifth Assessment Report
[KRAM] http://www.eike-klima-energie.eu/climategate-anzeige/klimaforschung-eine-spielvariante-der-zukunftsforschung-was-ist-zukunftsforschung-was-kann-sie-leisten/#comment_8
[NEZV] E. I. Nezval, N. E. Chubarova, J. Gröbner, and A. Omura. Influence of Atmospheric Parameters on Downward Longwave Radiation and Features of Its Regime in Moscow. ISSN 00014338, Izvestiya, Atmospheric and Oceanic Physics, 2012, Vol. 48, No. 6, pp. 610–617. © Pleiades Publishing, Ltd., 2012.DOI: 10.1134/S0001433812060102
[NOAA] Image provided by NOAA ESRL Chemical Sciences Division, Boulder, Colorado, USA http://www.esrl.noaa.gov/csd/news/2013/144_0930.html
[RASE] Rahmstorf, S.; Schellnhuber, H.-J.: Der Klimawandel. H.C. Beck. ISBN 978 3 406 63385 0
[ROED] Walter Roedel. Physik unserer Umwelt: Die Atmosphäre. ISBN 978-3-540-67180-0
[SCHM] Schmidt, G. A.; R. Ruedy; R. L. Miller; A. A. Lacis (2010), “The attribution of the present-day total greenhouse effect” (PDF), J. Geophys. Res., 115, Bibcode:2010JGRD..11520106S, doi:10.1029/2010JD014287
[STEP] Stephens et al. The albedo of Earth. http://webster.eas.gatech.edu/Papers/albedo2015.pdf
[TREA] http://www.theresilientearth.com/files/images/Greenhouse_Gas_Absorption-dlh.png
[WIC1] https://commons.wikimedia.org/wiki/File:Sonne_Strahlungsintensitaet.svg abgerufen am 10.9.2016
[WIC2] https://commons.wikimedia.org/wiki/File:Ice_Age_Temperature_de.png…abgerufen am 11.9.2016
[WILU] https://de.wikipedia.org/wiki/Luft …abgerufen am 30.8.2016
[WIME] https://commons.wikimedia.org/wiki/File:Albedo-R%C3%BCckstrahlung_Infografik.png ….heruntergeladen am 4.9.2016
[WITE] https://en.wikipedia.org/wiki/Greenhouse_gas abgerufen am 30.8.2016
[WITR] https://de.wikipedia.org/wiki/Treibhausgas….abgerufen am 30.8.2016
[WONA] http://isccp.giss.nasa.gov/role.html….abgerufen am 4.9.2016


Ruhrkultour Leseempfehlung:

Versand kostenfrei. Der Ingenieur Michael Limburg und der Wissenschaftsjournalist Fred F. Mueller erklären in einfachen, auch für Laien leicht verständliche Weise, wie unser Stromversorgungssystem funktioniert.

Versand kostenfrei.

 

VN:F [1.9.22_1171]
Rating: 5.0/5 (1 vote cast)

Ist der Klimawandel menschengemacht? Ganz klar nein, sagen Wissenschaftler

earth-366722_640Kein anderes Thema dürfte durch Übergriffe der Politik auf die Wissenschaft ähnlich verheerende Auswirkungen auf die Gesellschaft haben wie die Energiewende. Zur wissenschaftlichen Legitimierung der Energiepolitik existiert ein Pool von Wissenschaftlern, den die Bundesregierung über Fördermittel finanziert und der, will er weiter bestehen, der Politik politisch korrekte Ergebnisse liefert. Die wissenschaftlichen unversitären und außeruniversitären Einrichtungen verhalten sich im Prinzip wie jedes Wirtschaftsunternehmen, das mit Blick auf die lebenserhaltenden oder profitmaximierenden Subventionen durch Unterwürfigkeit gekennzeichnet ist. Das Anpasseritis-Virus verbreitet sich über die Medien und trägt nachhaltig zu Fehlinformationen auch in der Bevölkerung bei. Der Klimawandel ist eine der  folgenreichsten Fehlinformationen, die durch ein irrationales Zusammenspiel zwischen Politik, Ökowirtschaft, Wissenschaft und Medien zustande gekommen ist. Über die Entstehung dieser Fehlinformation haben wir berichtet: Die fabelhaften 97 % – der Mythos vom Klima-Konsens der Wissenschaftler.

Ist der Klimawandel menschengemacht? Ganz klar nein, sagt Prof. Dr. Werner Kirstein

Als Klimageograph kennt Prof. Dr. Werner Kirstein die Daten der Klimaaufzeichnungen sehr genau. Und so weiß er auch, dass der Gehalt von CO2 in unserer Atmosphäre nicht nur einen historischen Tiefstand aufweist, welcher nahezu kritische Auswirkungen auf die Flora habe, heißt es im Begleittext zu seinem  Vortrag, sondern die Temperatur keinesfalls beeinträchtige. Viel mehr ergäben die Daten, dass der Prozess genau umgekehrt ist. Der CO2-Gehalt passe sich an die Temperatur an. Der Vortrag wurde am 11.04.2016 bei Youtube veröffentlicht wurde.

“Im Dezember 2015 trafen sich in Paris mehr als 50.000 Menschen, um an dem Weltklima-Gipfel teilzunehmen. Besonders stolz war man darauf, dass sich alle teilnehmenden Nationen für eine Reduzierung von Kohlenstoffdioxid (CO2) ausgesprochen und sich verpflichtet haben zu Reduzieren. Wieviel und nach welchen Maßstäben wurde nicht definiert.
Ziel des Ganzen sei, durch den verminderten Aussoß von CO2 zu bewirken, dass sich die Erde nicht mehr als 2 Grad im Vergleich zum Beginn des Industrie-Zeitalters (ab Mitte des 19. Jhd.) erhöht. Ein Grad davon haben wir bereits erreicht, so dass das Ergebnis des Klimagipfels letztlich die Absicht aussprach, dass der Mensch, nicht weiterhin das Klima so stark beeinflusst.
Klimawissenschaft und Klimapolitik stehen sich diametral gegenüber. In diesem Vortrag zeigt Prof. Dr. Werner Kirstein auf, weshalb die Debatte um das Senken von CO2 ausschließlich politischen Zielen dient und keinesfalls der Umwelt, dem Weltklima oder den Menschen.”

VN:F [1.9.22_1171]
Rating: 0.0/5 (0 votes cast)

EEG und Klimaschutz: Bis zu den Radnaben im Sumpf

Wenn Illusionen an der Realität zerplatzen

Im Bereich der deutschen Klimapolitik deutet sich eine drastische Zuspitzung an. Aus Sicht der Bundesregierung ist der „Klimarettungsgipfel“ COP 21 in Paris erfolgreich verlaufen und hat genau das von Merkel, Schellnhuber und ihren Verbündeten gewünschte Ergebnis gebracht: Die Lizenz zur Deindustrialisierung der westlichen Welt, blumig als „Dekarbonisierung“ bezeichnet. Mit Unterzeichnung des entsprechenden Abkommens in New York glaubt man, jetzt die Samthandschuhe ausziehen und die große Brechstange herausholen zu können. Die Planungen von Barbara Hendricks laufen auf eine Zerschlagung der meisten Schlüsselindustrien hinaus. Danach wäre Deutschland keine Industrienation mehr. Doch im Hintergrund versteift sich der versteckte Widerstand auf der Fachebene der Ministerien.

Beleuchtung anstatt Erleuchtung in Deutschland. Bild 1. Feuer unter dem Dach: Die dänische Regierung hat bei ihrer bisher auf Windenergie ausgerichteten Energiepolitik bereits die Notbremsung eingeleitet [DAEN]

Bild 1. Beleuchtung anstatt Erleuchtung. Im Unterschied zu Deutschland hat die dänische Regierung bei ihrer bisher auf Windenergie ausgerichteten Energiepolitik bereits die Notbremsung eingeleitet [DAEN]

Wenn man sich die Absichten der Regierung ansieht, beschleicht einen ein beklemmendes Gefühl von déjà-vu: Manches erinnert an jenen aufgeräumt wirkenden Erich Honecker, der am 14. August 1989 vor laufenden Kameras tönte: „Den Sozialismus in seinem Lauf hält weder Ochs noch Esel auf“. Nur wenige Tage danach begann Ungarn, Botschaftsflüchtlinge via Luftbrücke in den Westen zu evakuieren. Der geradezu extreme Grad an Realitätsverlust, den Honecker und mit ihm die gesamte DDR-Führung in jenen Tagen offenbarte, wird im kollektiven Gedächtnis Deutschlands noch über Generationen erhalten bleiben.

Einen vergleichbaren Realitätsverlust kann man heute erneut bei einer deutschen Regierung bewundern. Pikanterweise stammt deren entscheidende Führungspersönlichkeit just aus dem gleichen Umfeld wie der mittlerweile verblichene Ex-Chef der DDR. Im Unterschied zu damals ist es der heutigen politischen Führung jedoch gelungen, das Gebäude aus falschen Versprechungen und Illusionen, das sie mit ihren Sprüchen von unbegrenzt „erneuerbarer“ Energie und der erforderlichen Rettung des Weltklimas errichtet hat, sehr fest in den Köpfen der Menschen zu verankern. So fest, dass man sich schon etwas intensiver mit den entsprechenden Zahlen beschäftigen muss, um den Betrug zu erkennen.

Die bisherige „Klimapolitik“ ist gescheitert…

Abb_02

Bild 2. Trotz aller Maßnahmen einschließlich der „Energiewende“ sind die Bemühungen, die CO2-Emissionen unter die Marke von 800 Mio. t/a zu senken, gescheitert (Daten: Statista (rot), Projektionsberechnung (blau))

Dreh- und Angelpunkt der seit fast zwei Jahrzehnten immer aggressiver betriebenen „Klimapolitik“ Deutschlands ist das Bestreben, den Ausstoß des als angeblichen Klimakillers verrufenen CO2 stark einzudämmen. Trotz zahlreicher Einsprüche renommierter Wissenschaftler gegen die oft dubiosen Argumente derjenigen, welche die These vom „menschengemachten Klimawandel“ propagieren, wird diese Hypothese inzwischen bereits Schülern in Grundschulen als „Stand der Wissenschaft“ eingebläut. Beim Versuch, diesen Unsinn in die Praxis umzusetzen, ist die Politik allerdings bereits jetzt mit dem Vorhaben, den CO2-Ausstoss signifikant zu senken, gescheitert, wie Bild 2 beweist.

Nach den bisher geltenden Planungen sollten die Emissionen bis 2020 auf ca. 625 Mio. t/a gesenkt werden. Der Verlauf der Trendlinie zeigt jedoch, dass dies mit den üblichen Lenkungsmitteln der Politik nicht erreicht werden kann. Zugleich kann dies als Beweis dafür gewertet werden, dass das künftige Ziel von < 210 Mio. t/a bis 2050 nur mit massiven Zwangsmaßnahmen und tiefen Einschnitten in Wohlergehen und Wohlstand der Bürger erreichbar wäre.

Immense und weiter stark steigende Kosten…

Einen großen Anteil der Kosten, den der Kampf gegen das CO2 bisher verursacht hat, mussten die Stromverbraucher schultern. Dieses angebliche„Treibhausgas“ ist in Wirklichkeit Grundlage des Lebens, denn ohne CO2 in der Luft gäbe es kein Pflanzenwachstum, keine Lebensmittel und kein Leben. In ihrer sinnbefreiten Anti-CO2-Kampagne haben aufeinanderfolgende Regierungen stets die Umstellung der Stromversorgung auf angeblich „erneuerbare“ Energien als wichtigstes Instrument angesehen. Um das Angebot an diesen eigentlich nicht konkurrenzfähigen Stromerzeugungstechnologien zu erhöhen, wurden den entsprechenden Investoren im sogenannten „Erneuerbare-Energien-Gesetz“ (EEG) Traumkonditionen angeboten: Extrem hoch über den Marktpreisen liegende, auf 20 Jahre garantierte Abnahmepreise, Vorrang bei der Stromeinspeisung vor den günstigeren konventionellen Anbietern und sogar die Bezahlung „hypothetischen“ Stroms, der mangels ausreichender Netzkapazitäten gar nicht erzeugt wurde. Zu den größten Unverschämtheiten gehört hierbei, dass diese Privilegien durch Zwangsabgaben auf die von jedem Verbraucher genutzte Elektrizität finanziert werden. Aufgrund dieses cleveren juristischen Tricks kann man nicht von Subvention sprechen.

Abb_03

Bild 3. Kumulierte Gesamtverpflichtung aufgrund des EEG. 2015 und 2016 Prognosen, ab 2017 Trendberechnung (Daten: [BMWI])

Das erlaubt es den Vertretern dieser Branchen, mit frecher Stirne vor der Öffentlichkeit zu behaupten, sie würden gar nicht subventioniert.

Dem von rasant steigenden Strompreisen gebeutelten Verbraucher ist es jedoch egal, ob man ihm das Geld in Form eines Aufschlags oder durch Subventionierung aus der Tasche zieht: Betrug ist Betrug. Die Summen haben inzwischen geradezu astronomische Größenordnungen erreicht (Bild 3), obwohl der Anteil EEG-geförderten Stroms an der Gesamterzeugung im Jahr 2015 erst rund 26 % erreichte. Um die Darstellung zu verstehen, muss man berücksichtigen, dass hier die noch kommenden, auf 20 Jahre festgeschriebenen Verpflichtungen einbezogen wurden. Die Säulen beinhalten deshalb nicht nur das Geld, um das die Verbraucher bisher betrogen wurden, sondern auch die Summen, die man ihm auch noch in den nächsten Jahren aus der Tasche ziehen wird.

Die Gesamtverpflichtung ergibt sich aus der 20jährigen Abnahme- und Preisgarantie des EEG. Die 883 Mio. € EEG-Auszahlungen, die im Jahre 2000 fällig waren, müssen auch noch für die folgenden 19 Jahre gezahlt werden, so dass es sich in Wirklichkeit um 17,7 Mrd. € handelt. Insgesamt summiert sich dies bis einschließlich 2016 bereits auf mehr als 580 Mrd. €. Besonders beängstigend ist der ungebrochene Trend nach oben. Bereits im Jahre 2021 dürfte die Billion € knapp erreicht werden.

Hinzu kommen noch erhebliche verborgene Kosten. Man hat immer größere Zusatzkosten in den Netzentgelten versteckt, so z.B. die Milliardenaufwendungen für die Stabilisierung der Stromnetze aufgrund der Störimpulse durch die „Erneuerbaren“. Diese müssen nämlich durch teure Gegenmaßnahmen – das sogenannte „Redispatching“ – aufgefangen werden. Auch die enormen Kosten für neue Fernleitungen wie „Südlink“ müssen hinzugerechnet werden, denn ohne die „Energiewende“ würde man diese gar nicht benötigen. Südlink ist nichts weiter als ein extrem „großzügiges“ Geschenk des Staates an die Windbarone im Norden auf Kosten der Verbraucher.

…die quasi ins Unendliche steigen werden

Abb_04

Bild 4. Berechnung der EEG-bedingten Kosten für die Einsparung von jeweils einer Tonne CO2 in den Jahren seit 2000

Vergleicht man die Bilder 1 und 2, so fällt sofort ins Auge, dass der „Kampf gegen CO2-Emissionen“ von vornherein nicht gewonnen werden kann. Die Kosten werden immer steiler nach oben gehen, während sich das Ergebnis gleichzeitig mehr und mehr der Null nähert. Lassen wir in diesem Zusammenhang erst einmal die Tatsache unberücksichtigt, dass es die Regierung selbst ist, die durch Stilllegung von Kernkraftwerken dafür sorgt, dass eine wesentliche CO2-arme Technologie, die noch im Jahr 2000 rund 30 % zur deutschen Stromerzeugung beitrug, zum Niedergang verurteilt ist. Stattdessen wurde und wird dem Bürger das EEG samt seiner Kosten als Mittel zur Reduzierung der CO2-Emissionen verkauft. Doch gebracht hat es nichts, wie der Blick auf das Ergebnis beweist. Durch Kombination der jährlichen Zahlen – Steigerung der EEG-bedingten Kosten einerseits und im jeweils gleichen Jahr zu verzeichnende Verringerung des CO2-Ausstoßes andererseits – lässt sich leicht ermitteln, was uns im betreffenden Jahr die Einsparung jeder Tonne CO2 in Euro allein schon durch das EEG gekostet hat, s. Bild 4.

Die der Grafik zugrundeliegenden Zahlen wurden anhand von geglätteten Trendanalysen der Bilder 2 und 3 berechnet. Während der Beitrag des EEG zur Verringerung der deutschen CO2-Emissionen im Jahre 2000 bei „lediglich“ 116,- €/ t lag, stiegen diese Belastungen in den Folgejahren exponentiell an. Im laufenden Jahr wird die Verringerung der CO2-Emissionen den deutschen Stromverbraucher bereits 2764,- €/t kosten, und für 2021 dürfte dies auf 4556,- €/ t steigen. Beim Betrachten der drei Diagramme wird sofort klar, dass ohne Änderung der bisherigen Politik die Kosten in den nächsten Jahren in unkontrollierbarer Weise immer weiter durch die Decke gehen werden. Sowohl die „Energiewende“ als auch die „Dekarbonisierung“ sind weder technisch realisierbar noch finanziell tragbar. Dem Wähler gegenüber kann bzw. will die Politik das jedoch nicht zugeben und sucht verzweifelt nach Auswegen und Ausreden. Man hat sich in eine ausweglose Lage manövriert, in der es weder vorwärts noch rückwärts gehen kann, ähnlich wie bei einem Auto, das sich bis über die Radnaben im Morast festgefahren hat.

Anzeichen von Widerstand?

Die Regierung plant, ihren drastischen neuen Klimaschutzplan bis Mitte des Jahres zu verabschieden. Neueste Meldungen z.B. im Handelsblatt schienen zunächst Hinweise zu liefern, dass sich hiergegen Widerstand regte. Einer Meldung des „Handelsblatts“ vom 19.5. zufolge lehnen die Länder den Klimaschutzplan 2050 ab [HAND]. Bemängelt wird, dass „der bislang vorliegende Maßnahmenkatalog aus dem Bundesumweltministerium hohe Risiken für den Wirtschaftsstandort (berge). Er müsse daher mit den betroffenen Verbänden und den Bundesländern abgestimmt werden, ehe das Bundeskabinett ihn beschließen könne. Sowohl die Wirtschaft als auch die Länder seien bisher nicht ausreichend eingebunden worden. Der Plan enthalte eine Vielzahl kritisch zu beurteilender Maßnahmenvorschläge.“

Allerdings dürfte es den Ländern auch hierbei lediglich darum gehen, für sich etwas bessere Bedingungen herauszuholen. Bisher konnte die Bundesregierung sie noch jedesmal mit der einen oder anderen Milliardenzusage aus Schäubles „nie versiegendem“ Steuertopf letztlich ruhigstellen.

Auch von der Wirtschaft, selbst von den unmittelbar existenziell betroffenen Energieerzeugern oder den großen Verbrauchern, ist kein Einspruch zu erwarten. Zu sehr hat sich in deren Managementebenen ein Typus festgesetzt, der sich vor allem durch Anpasseritis und eine Vorliebe für Bücklingsgerichte auszeichnet. Langfristiges strategisches Denken und die Bereitschaft, auch einmal die ureigenen Interessen des Unternehmens zu vertreten, muss man dort mit der Lupe suchen. Persönlichkeiten wie von Brauchitsch, Ackermann oder Grossmann sucht man heute vergeblich: Die letzten ihrer Art wurden von NGO’s, Politik, Medien und einer Bütteljustiz systematisch aus ihren Funktionen gemobbt.

Wie geht es weiter?

Kurzfristig ist keine Änderung des Kurses zu erwarten. Die Regierung hat sich auf Gedeih und Verderb auf die Fortführung der „Klimarettung“ festgelegt Das Gleiche gilt auch für die Linken und die Grünen, und auch die FDP hat in Rheinland-Pfalz gezeigt, dass ihr einziges Bestreben darin besteht, endlich wieder an die Fleischtöpfe der Macht zu gelangen. Daher ist es ziemlich sicher, dass wir ab Mitte des Jahres ein selbstmörderisches „Klimaschutzgesetz“ bekommen werden, dessen Umsetzung insbesondere „Burning Barbara“ sicherlich mit missionarischem Eifer vorantreiben wird.

Beim EEG geht es nur noch um Schadensbegrenzung

Einen Sondereinfluss gibt es allerdings bei der Stromerzeugung. Bei der Neufassung des EEG steht die Regierung ganz offensichtlich mit beiden Füßen auf der Bremse. Die jetzt bekanntgewordenen Zahlen sind nämlich weit von den Werten entfernt, die zur Erreichung des ursprünglich gesetzten Ziels erforderlich wären. Die Behauptung, wir hätten dank des EEG bereits einen Anteil von rund 33 % „EE“-Strom an der Gesamtproduktion, ist eine der zahlreichen bewussten Irreführungen der Politik.

Bild 5. Zum Jahresende 2015 befanden sich in Deutschland Windenergieanlagen mit einer Gesamt-Typenschildleistung von knapp 45 GW am Netz (Daten: Rolf Schuster)

Bild 5. Zum Jahresende 2015 befanden sich in Deutschland Windenergieanlagen mit einer Gesamt-Typenschildleistung von knapp 45 GW am Netz (Daten: Rolf Schuster)

Dabei wird verschwiegen, dass eine wichtige Erzeugungsart – die Wasserkraft – schon lange vor Einführung des EEG existierte. Die rund 19,5 TWh, die diese im letzten Jahr zur Gesamtproduktion beisteuerte, werden zwar gerne in der „Erfolgsbilanz“ aufgeführt, müssten aber eigentlich als separate Position geführt werden. Die knapp 7,7 % Biomasse und Hausmüll sind zwar aktuell noch vorhanden, doch wird man schon in wenigen Jahren keines der entsprechenden Kraftwerke mehr am Markt finden, wenn man hierzulande endlich begreift, dass jede zur Stromerzeugung verschwendete Tonne Mais soundsoviele zusätzliche Hungerflüchtlinge nach Europa schwemmen wird. Auf längere Sicht werden wir „EE“-Strom wohl nur aus Fotovoltaik – wo ein „Deckel“ von etwa 52 GW im Gespräch war – sowie durch Windenergie erhalten. Bei der Windenergie standen Ende 2015 rund 45 GW Kapazität zur Verfügung, Bild 5.

Zurzeit geht die Bundesregierung davon aus, dass der Strombedarf des Landes rückläufig sein wird. Wie geradezu kriminell amateurhaft das ist, kann man schon allein daran erkennen, dass man schlicht „vergessen“ zu haben scheint, dass man für die jetzt massiv geförderten Elektrofahrzeuge ja zusätzlich Strom benötigen wird, und zwar rund 130 TWh allein für den PKW-Bereich.

Bild 6. Bis zum Jahre 2050 mindestens erforderliche Kapazitäten an Windenergieanlagen zur Sicherstellung eines „EE“-Anteils von 80 %. Blau: Ist-Daten (Rolf Schuster), Rot: Projektion aufgrund eigener Berechnungen

Bild 6. Bis zum Jahre 2050 mindestens erforderliche Kapazitäten an Windenergieanlagen zur Sicherstellung eines „EE“-Anteils von 80 %. Blau: Ist-Daten (Rolf Schuster), Rot: Projektion aufgrund eigener Berechnungen

Von der Umstellung der Heizungen von Öl bzw. Gas auf Wärmepumpen gar nicht erst zu reden. Selbst bei extrem konservativer Kalkulation kann für die Stromerzeugung des Jahres 2050 ein Wert von 762 TWh/a als untere Grenze des realistischen Bereichs angesehen werden. Einziger ernstzunehmender Lieferant für rund 74 % dieser Produktion kann nur die Windenergie sein. Unter Berücksichtigung des entsprechenden Nutzungsgrades würde dies bedeuten, dass wir bis 2050 die installierte Erzeugungskapazität auf mindestens ca. 340 GW steigern müssten, Bild 6. Doch da sind auch die Probleme mit den Kosten und den Transportkapazitäten und der Netzstabilität und den nicht existenten Speichern etc. etc.

Aus der Darstellung in Bild 6 geht klar hervor, dass die Bundesregierung dabei ist, die selbst gesteckten Ziele bei weitem zu verfehlen. Um die geplanten 80 % überhaupt erreichen zu können, müssten von jetzt an jedes Jahr netto etwas mehr als 8 GW Windenergieleistung zugebaut werden. Das jetzt vorgestellte neue EEG wird dieses Ziel nicht erreichen können. Festgelegt werden lediglich 2,8 bzw. 2,9 GW/a für Windenergie an Land, 0,73 GW/a für Offshore-Wind sowie weitere 0,6 GW/a für Fotovoltaik, alles andere bleibt vage. Natürlich weiß man in den Ministerien, dass die proklamierten Ziele so nicht erreicht werden können, aber man schert sich offenkundig nicht darum. Grund hierfür ist vermutlich die Angst der Politik, dass der Anstieg der Strompreise bei den Verbrauchern eine Schmerzgrenze überschreiten könnte. Muttis Wiederwahl 2017 könnte gefährdet sein, falls die verhasste AFD zuviele Stimmen bekommt. Also bremst man jetzt erstmal den Kostenanstieg und vertraut darauf, dass die Ingenieure in einigen Jahren mit neuen „Wunderwaffen“ die Misere bereinigen werden.

Die Unerbittlichkeit der Gesetze von Natur und Technik

Bei ihren Kalkulationen lassen die Ministerialbeamten jedoch einige wichtige Fakten unberücksichtigt. Schließlich darf kein Beamter seinem dicken Kaiser sagen, dass er eigentlich nackt herumläuft. Abgesehen vom Selbstbetrug im Zusammenhang mit dem tatsächlichen Strombedarf einer gründlich „dekarbonisierten“ Gesellschaft mit 100 % E-Autos und CO2-freien Wärmepumpenheizungen lauert da im Hintergrund zusätzlich noch die unangenehme Tatsache, dass man bis 2022 alle restlichen Kernkraftwerke abschalten will. Dabei hatten die KKW noch im Jahre 2015 mehr Strom erzeugt als alle Windkraftanlagen an Land und auf See zusammen. Allein um diese Kapazitäten rechnerisch zu ersetzen, müssten man also die bisher installierten Windenergiekapazitäten mehr als verdoppeln.

Bild 7. Inzwischen kommen nach und nach immer mehr Windenergieanlagen an das Ende ihrer Lebensdauer und müssen ersetzt werden. Um die beabsichtigte Nettozunahme an Windenergie-Erzeugungskapazität zu erreichen, müssen zusätzlich zur Investition in Neuanlagen (blau) auch noch erhebliche Investitionen in Ersatzsysteme (rot) getätigt werden

Bild 7. Um die beabsichtigte Nettozunahme an Windenergie-Erzeugungskapazität zu erreichen, müssen zusätzlich zur Investition in Neuanlagen (blau) auch noch erhebliche Investitionen in Ersatzsysteme (rot) getätigt werden

Das eigentliche Problem, das bisher kaum jemand öffentlich zur Sprache gebracht hat, ist jedoch die begrenzte Lebensdauer der Windenergiesysteme. Eine 20 Jahre alte Anlage „hat fertig“ und muss in jedem Fall ersetzt werden, und zwar bis herab zum Fundament. Inzwischen wächst die Zahl solcher Anlagen, die das Ende ihrer Lebensdauer erreicht haben, nach und nach immer merklicher zu, s. Bild 7.

Inzwischen kommen nach und nach immer mehr Windenergieanlagen an das Ende ihrer Lebensdauer und müssen ersetzt werden.
Bild 7 zeigt, dass wegen der begrenzten Lebensdauer der bereits vorhandenen Windenergieanlagen zusätzlich zur Netto-Steigerung der installierten Windenergie-Leistung auch noch rapide steigende Ersatzinvestitionen erforderlich werden. Kumuliert müssten ab 2020 jährlich mindestens 10 GW an Windkapazität neu ans Netz gebracht werden, ab 2046 müssen Jahr für Jahr mehr als 16 GW Windenergie-Kapazität zugebaut werden. Es wird schwer werden, in Deutschland noch Platz dafür zu finden….

Da man inzwischen auch der Kohle den Krieg erklärt hat, wird irgendwann bei einer ausgedehnten Dunkelflaute der Laden zusammenbrechen. Falls Mutti dann noch am Ruder sein sollte, sind – analog zu Ihren atemberaubenden Volten bei der Flüchtlingspolitik – bestimmt hochinteressante Ausführungen über die „Alternativlosigkeit“ der dann favorisierten Kehrtwendungen zu erwarten. Es werden noch Wetten angenommen, ob sie dann der Kohle oder der Kernkraft den Vorzug geben wird.

Fred F. Mueller

Quellen:

[BMWI] Bundsministerium für Wirtschaft und Energie. EEG in Zahlen: Vergütungen, Differenzkosten und EEG-Umlage 2000 bis 2016 (Stand: 15. Oktober 2015)

[DAEN] http://www.eike-klima-energie.eu/news-cache/daenemarks-neue-regierung-kommt-zur-vernunft-und-sagt-die-energiewende-ab/

[HAND] http://www.handelsblatt.com/my/politik/deutschland/gegen-nationale-alleingaenge-laender-lehnen-klimaschutzplan-2050-ab/13617842.html


Ruhrkultour Leseempfehlung:

stromMichel Limburg, Fred F. Mueller, Arnold Vaatz:
“Strom ist nicht gleich Strom. Warum die Energiewende nicht gelingen kann.”
Erhältlich bei ► Storchmann Medien
108 Abbildungen, gebunden, 19,90 €, Versand kostenfrei.

Der Ingenieur Michael Limburg und der Wissenschaftsjournalist Fred F. Mueller erklären in einfachern, auch für Laien leicht verständlichern Weise, wie unser Stromversorgungssystem funktioniert.

VN:F [1.9.22_1171]
Rating: 1.0/5 (1 vote cast)

Das ist doch verrückt – oder?

Versucht man es bei Grüner Energie mit dem Verstand, scheitert man schnell an der “Grünen Logik”. So erging es nicht nur dem Autor des kanadischen Blogs “sunshinehours”, der dieser Logik nicht folgen kann. Er macht auf das ehemalige Kohlekraftwerk Atikokan, Ontario, Kanada, aufmerksam. Heute ist Atikokan das größte 100%-Biomasse-Kraftwerk Nord-Amerikas.

Das 2012 stillgelegte Kohlekraftwerk Atikokan wurde wegen des Energiebedarfs in ein Biomasse-Kraftwerk umgewandelt. Als Biomasse werden Holzpellets verwendet. Nicht irgendwelche Holzpellets, sondern “Advanced Biomass”. Sie widersteht nach einer besonderen Behandlung dem Regen, so dass sich die Biomasse nicht selbst entzünden oder explodieren kann. Dadurch hat sie und hat sie ähnliche Handhabungs- und Lagereigenschaften wie Kohle. Gekauft wird der Biomasse-Brennstoff in Norwegen. Das heißt: Norwegische Wälder werden abgeholzt, zu speziellen, wasserdichten Pellets gedreht, die dann nach Ontario verschifft werden, um in einem stillgelegten und wieder auferstandenen Kohlekraftwerk verbrannt zu werden.

sunshinehours verweist auf eine Studie, die belegt, dass die Verbrennung von Holzpellets (vor allem, wenn sie auf langen Strecken wie von den USA nach Großbritannien transportiert werden) mehr CO2 produziert als Kohle. Mit dem Anspruch, die CO2-Emissionen zu senken, investierte Ontario $ 170 Millionen in ein Kraftwerk, das mehr CO2 produziert, als durch die Verbrennung von Kohle.

Die “Grüne Logik” hält nicht nur sunshinehours für verrückt.


Ruhrkultour Lesetipp:

brandt

Erhältlich bei Storchmann Medien

VN:F [1.9.22_1171]
Rating: 0.0/5 (0 votes cast)

Was ist dran an der „Meeresversauerung“?

Märchen, Übertreibungen und Schummeleien

Was ist dran an der „Meeresversauerung“?

In Paris findet in diesen Tagen ein erneuter Versuch statt, unter der Patronage der Vereinten Nationen einen „Welt-Klimavertrag“ zu beschließen, der die Erde vor einer angeblichen Klimakatastrophe aufgrund der Anreicherung der Atmosphäre mit CO2 aufgrund der Verbrennung von Kohle, Erdöl und Erdgas retten soll. Dem CO2 wird nachgesagt, dass es eine Klimakatastrophe herbeiführe, indem Wärme in der Atmosphäre zurückgehalten wird, so dass die Temperaturen in gefährliche Bereiche steigen. Meteorologen und Klimaforscher haben das Thema längst weltweit als hervorragende Möglichkeit der wundersamen Forschungsgeldvermehrung entdeckt und durch ständig schrillere Horrorvisionen fest in den Köpfen der Medienvertreter und der Politik etablieren können. Auf diesen Zug angeblich nachteiliger Folgen des CO2-Anstiegs ist 2008 auch ein Teil der Zunft der Meeresforscher aufgesprungen.

Abb_00Sind ihre Tage gezählt? Die farbenprächtige Paua ist in den flachen Küstengewässern vor Neuseeland zu finden

Zu den Segnungen der heutigen technischen Zivilisation gehören Erfindungen wie das Internet, die sehr mächtigen sogenannten Suchmaschinen sowie enzyklopädische Dienste wie Wikipedia. Auch wenn man gerade bezüglich der beiden letzteren berechtigte Einwände haben darf, so stellen sie andererseits doch Rechercheinstrumente von einer Mächtigkeit zur Verfügung, für die mancher Wissenschaftler noch vor wenigen Jahrzehnten seine rechte Hand gegeben hätte. Wenn also davon die Rede ist, dass eine weitere Erhöhung des CO2 über das jetzige Niveau von 400 ppm unser Klima in Richtung einer katastrophalen Erwärmung verändern würde, dann empfiehlt sich eine kurze Recherche bezüglich der Verhältnisse in der Vergangenheit, sagen wir mal der letzten 550 Mio. Jahre. Das ist der Zeitraum, in dem das Leben bereits Formen angenommen hatte, die uns auch heute noch vertraut anmuten. Eine kurze Recherche bei Wikipedia liefert hierzu Angaben sowohl zum CO2-Gehalt der jeweiligen Atmosphäre als auch der durchschnittlichen Temperaturen. Beginnend beispielsweise beim Kambrium [ERDZ] kann man sich mit wenigen Klicks bis zur Neuzeit durcharbeiten. Die entsprechenden Werte sind in Tabelle 1 aufgeführt.

tabelle

Tabelle 1. Durchschnittliche atmosphärische CO2-Gehalte und Temperaturen vom Kambrium bis zur Neuzeit, Daten aus [ERDZ]

Zunächst fällt auf, dass die CO2-Gehalte der Atmosphäre über den größten Teil dieses rund 550 Mio. Jahre umfassenden Zeitraums um ein Vielfaches über den Werten lagen, die von der heutigen Klimawissenschaft als „normal“ bezeichnet werden. Prof Schellnhuber vom Potsdam-Institut für Klimafolgenforschung (PIK) und seine Mitstreiter behaupten, dass der Anstieg von den etwa 280 ppm CO2, die als Normalwert der vorindustriellen Zeit angegeben werden, auf die heutigen 400 ppm uns bereits an den Rand der Klimakatastrophe geführt habe und wir dringendst die Weltwirtschaft „dekarbonisieren“ müssten, indem die CO2-Emissionen weitestgehend wieder auf ein vorindustrielles Niveau zurückgefahren werden. Anderenfalls, so Schellnhuber, drohe der Planet „zumindest abseits der Pole“ unbewohnbar zu werden [SCHE].
An den Daten fällt sofort auf, dass zwischen den teils hohen, teils mittleren und in einem Fall sogar sehr tiefen CO2-Werten und der jeweiligen Temperatur kein eindeutiger Zusammenhang besteht. Bei grafischer Auftragung (Bild 1) wird dies sofort erkennbar.

Abb_01

Bild 1. CO2-Hehalt und Temperaturen während verschiedener Eiszeitalter

Die grafische Darstellung der Daten aus Tabelle 1 zeigt deutlich, dass zwischen Temperatur und CO2-Gehalt der Atmosphäre kein eindeutiger Zusammenhang besteht

Abb_02

Bild 2. Fossile Brachiopoden aus dem „Schwarzen Jura“ (180 – 206 Mio. Jahre vor heute), einer Zeit, als der CO2-Gehalt der Atmosphäre um ein Mehrfaches über den heutigen Werten lag.

Ergänzend ist hierzu noch anzumerken, dass andere Quellen sogar von noch höheren CO2-Gehalten von bis zu mehr als 6.000 ppm ausgehen [CALU]. Aus diesen Fakten kann man den Schluss ziehen, dass die Erde für den weitaus größten Teil dieses Zeitraums ein wärmeres Klima als heute aufgewiesen hat. Die Pole dürften über einen Großteil der 550 Mio. Jahre eisfrei gewesen sein. Und dass der Planet damals ein regelrechtes Paradies war, beweist der überreiche Schatz an paläontologischen Funden von Lebewesen mit Kalkschalen, die überall auf dem Globus zu finden sind. Das hohe CO2 hat ihnen überhaupt nicht geschadet, und der Planet ist auch nicht verbrannt. Angesichts dieser von jedermann selbst ohne akademischem Hintergrund leicht überprüfbaren Fakten ist es umso erstaunlicher, dass die Presse und die sonstigen Medien die ständigen schrillen Warnungen von Prof. Schellnhuber weiterhin so unkritisch nachplappern.

Das Schreckgespenst „Ozeanversauerung“…

Nach dem Vorbild der Verlautbarungen des PIK zu den angeblich klimaschädlichen Folgen steigender CO2-Gehalte in der Atmosphäre lenkten im Oktober 2008 auch rund 150 „Top-Meeresforscher“ anlässlich einer Tagung in Monaco die Aufmerksamkeit der Weltöffentlichkeit auf vorgebliche Gefahren, die den Ozeanen durch verstärkte CO2-Aufnahme aus der Atmosphäre drohen sollen. In dieser „Monaco Declaration“ wurde behauptet, dass die Ozeane aufgrund der Bildung von Kohlensäure durch Reaktion des Wassers mit dem aufgenommenen CO2 aus dem Gleichgewicht gebracht würden, weil sie „versauerten“ [MONA]. Dabei wurde insbesondere hervorgehoben, dass diese pH-Änderung 100 Mal schneller ablaufe als die natürliche Variabilität. Als Konsequenz sei bei marinen Lebewesen von Muscheln über Korallen bis zu winzigen Schnecken die Bildung der Kalkschalen gestört. Das führe zu ihrer Gefährdung und möglicherweise sogar zum Aussterben. Seitdem ist um dieses Thema ein regelrechter Hype entstanden.

ist beim besten Willen nicht ernst zu nehmen

Abb_03

Bild 3. Das im Kalk der Insel Gotland eingebettete Fossil lässt erkennen, dass die Kalkschalenbildung mariner Lebewesen auch in Zeiten extrem hoher CO2-Konzentrationen nicht beeinträchtigt war

Der Kern der Theorie von der „Ozeanversauerung“ ist folgender: Der CO2-Gehalt der Atmosphäre ist in den letzten ca. 150 Jahren von etwa 280 ppm auf heute 400 ppm angestiegen. Das ist ein Anstieg von rund 43 %. Er lag in der Vergangenheit aber auch schon bei rund 6.000 ppm, das sind mehr als 2.000 % über den 280 ppm von 1750. Unser heutiger CO2-Gehalt ist erdgeschichtlich gesehen eher eine Art Betriebsunfall, der Normalzustand lag über hunderte Millionen Jahre um etliche hundert bis 2.000 % darüber [CALU]. In dieser langen Zeit ging es den Lebewesen in den Meeren so prächtig, dass sie uns entsprechende Beweise in Form von Billiarden Tonnen Schalen hinterlassen haben, die heute als Kalkstein überall auf der Welt zu finden sind.

Wir haben aktuell also, ausgehend von einem geradezu extrem niedrigen Niveau, einen Anstieg des atmosphärischen CO2-Gehalts um 43 %. Dies soll angeblich das Leben in den Ozeanen gefährden. Wir hatten andererseits Gehalte, die bis zu 2.000 % darüber lagen, und dem Leben ging es prächtig. Schon der gesunde Menschenverstand sagt einem sofort, dass hier jemand nicht die Wahrheit sagt. Der Verdacht liegt nahe, dass hier manche Forscher ganz dringend Geld für die Finanzierung ihrer Institute brauchen und bereit sind, dies auf eine Weise zu begründen, die – noch sehr höflich ausgedrückt – nur als ziemlich „kreativer“ Umgang mit der Wahrheit gewertet werden kann.

Verquere Wissenschaft

Abb_04

Bild 4 soll den Zusammenhang von steigenden CO2-Pegeln in der Atmosphäre (Mauna-Loa-Pegel) mit steigenden CO2-Werten des Ozeans in der nahegelegenen Messstation Aloha sowie das gleichzeitige Versauern (=Absinken des pH-Wertes) belegen (Grafik: Feely [FEEL])

Wie anders wäre sonst zu erklären, dass sich Wissenschaftler bereitgefunden haben, einen Zusammenhang zwischen dem minimalen Anstieg des CO2-Gehalts in der Atmosphäre und der angeblich damit einhergehenden Meeresversauerung zu konstruieren. Beispiel für eine solche verquere Wissenschaft ist die Grafik von Richard A. Feely (Bild 4), einem Mitarbeiter der US-Amerikanischen National Oceanic and Atmospheric Administration (NOAA). Diese Behörde untersteht einem Staat, dessen oberster Befehlsgeber erkennbar und mit eiserner Entschlossenheit drauf hinarbeitet, sich zum Ende seiner Präsidentschaft noch schnell einen extragroßen Heiligenschein als „GröKliReAZ“ (größter Klimaretter aller Zeiten) aufzusetzen. Mit dieser Grafik und dem entsprechenden Bericht hat Mr. Feely zwar seinen wissenschaftlichen Ruf erheblich lädiert, ganz bestimmt jedoch nicht seine Karriere in Gefahr gebracht. Denn wie das halt so ist, wenn man dem Chef nach dem Mund redet: Feely erhielt im Jahre 2010 für seine „maßgebenden Arbeiten zur Meeresversauerung“ einen mit 100.000 US-$ dotierten Preis der Heinz Family Foundation („Heinz-Ketchup“). Diese Stiftung wurde von Theresa Heinz, der heutigen Ehefrau des US-Außenministers John Kerry, gegründet.

Abb_05

Bild 5. Der Langzeit-Verlauf und sowie die Streuungen von zahlreichen pH-Messungen des NOAA im Verlauf des 20. Jahrhunderts (Grafik: Wallace [WALL])

Diese Grafik und die damit suggerierten Zusammenhänge stellen die Tatsachen derart auf den Kopf, dass sich seither zahlreiche Wissenschaftler zu Wort meldeten, welche dem damit angeblich bewiesenen Zusammenhang von CO2 und „Ozeanversauerung“ energisch widersprachen. Besonders anschaulich ist die folgende Darstellung des renommierten Hydrologen Mike Wallace, über die Anthony Watts in einem Artikel berichtete [PHRA].

Das Bemerkenswerte an beiden Bildern ist zunächst die Tatsache, dass sich beide auf die gleiche Datenbasis beziehen, nämlich auf vom NOAA durchgeführte Messungen. Der Trick von Feely besteht darin, dass er eine willkürliche Verkürzung der Zeitachse auf den Zeitraum nach 1988 vorgenommen hat, weil die sich dann ergebende Kurve das von ihm gewünschte Ergebnis eines sinkenden pH-Werts zu beweisen scheint. Dazu schreibt A. Watts: „Feely’s Arbeit basiert auf Computermodellen, die nicht der durch Messwerte belegten Realität entsprechen….Feely und sein Coautor Dr. Christopher L. Sabine….haben über 80 Jahre ermittelte Daten ausgeblendet, die mehr als 2 Millionen Messungen von ozeanischen pH-Werten beinhalten“.
Weiterer Punkt, der hier hervorgehoben werden sollte, ist die in Bild 5 dokumentierte natürliche Variabilität ozeanischer pH-Werte. Diese können den Daten zufolge zwischen 7,75 und 8,35 liegen. Die Ozeane und die in ihnen lebenden kalkbildenden Organismen sind demnach imstande, mit dieser Bandbreite zurechtzukommen.
Zu ähnlichen Schlüssen wie Wallace kommen darüber hinaus mehr als 20 weitere wissenschaftliche Veröffentlichungen, die in einer Übersicht mit dem Titel „Ocean Acidification (The Phenomenon) – Summary“ vorgestellt werden [CO2V].

Sehr deutlich ins Gericht mit den Darstellungen von Feely und anderen Anhängern der Theorie der Meeresversauerung geht auch Dr. Ulrich Steiner [STEI], Bild 6.

Abb_06

Bild 6. Die pH-Skala mit Angaben zur natürlichen Variabilität von Mineralwasser und Meerwasser (Grafik: Steiner [STEI])

Er gibt für die natürliche Variabilität des pH-Werts von Meerwasser mit 7,5 bis 8,4 sogar einen noch etwas breiteren Bereich als Wallace an. Zugleich verweist er auf deutliche Temperaturabhängigkeiten des pH-Werts von Meerwasser sowie auf eine Satellitendarstellung von Columbia’s Lamont-Doherty Earth Observatory, welche für verschiedene Meeresregionen pH-Werte zwischen 7,74 und 8,40 ausweist. Angesichts dieser Tatsachen drängt sich der Eindruck geradezu auf, dass es sich bei Feely’s Darstellung um eine plumpe und unwissenschaftliche Manipulation handelt.

Die angeblichen Leiden der jungen Koralle…

Gravierendste Auswirkung der behaupteten „Versauerung“ der Ozeane ist, wie bereits erwähnt, die angebliche Behinderung der Kalkschalenbildung bei marinen Lebewesen. Zu den lautstärksten Warnern gehört beispielsweise auch der britische Chefwissenschaftler, Sir Mark Walport, der in der BBC „erheblichen Risiken für komplexe marine Nahrungssysteme und Ökosysteme“ beklagt und behauptet, die derzeitige Versauerungsrate sei höher als jemals zuvor in den letzten 65 Millionen Jahren. Zudem warnt er vor künftigen Auswirkungen auf die Fischerei [COPP].
Ins gleiche Horn stößt auch Richard Bellerby vom Norwegian Institute for Water Research, der mit Blick auf die „Versauerung“ der arktischen Ozeane behauptete, man habe die kritischen Grenzwerte bereits überschritten. Selbst wenn man jetzt mit den CO2-Emissionen aufhöre, werde die Versauerung noch zehntausende Jahre anhalten [SABB]. Noch alarmierender äußern sich Meeresforscher beispielsweise in einem Bericht des International Programm on the State of the Ocean (IPSO). Dort wird behauptet: „Die Gesundheit der Ozeane bewegt sich viel schneller auf einer Abwärtsspirale als wir gedacht haben. Wir sehen größere Veränderungen, die schneller passieren und deren Folgen unmittelbar bevorstehen” [SAWA].

sind wohl eher Schauermärchen

Abb_07

Bild 7. Die von Shi et al. für das Meiji-Riff im südchinesischen Meer ermittelten Kalkschalen-Wachstumsraten im Zeitraum von 1710 bis 2010 (Grafik: Shi et al., [SHIQ])

Zum Glück für die Öffentlichkeit sind die CO2-Katastrophenprediger im Bereich der Meereswissenschaften erst viel später aufgewacht als bei den Meteorologen. Deshalb gibt es noch unverfälschte Datenbasen und eine erfreulich große Zahl gestandener Wissenschaftler, welche nicht bereit sind, ihren wissenschaftlichen Ruf auf’s Spiel zu setzen.
Beispiel hierfür sind Untersuchungen von Q. Shi et al. zu den Bildungsraten von Korallen-Kalkschalen im südchinesischen Meer über einen Zeitraum von 300 Jahren[SHIQ]. Hierbei wurde festgestellt, dass diese im Zeitraum von etwa 1710 bis etwa 1760 – also eindeutig in vorindustrieller Zeit mit deutlich niedrigerem CO2-Gehalt als heute – tiefer lagen als heute und zunächst bis etwa 1810 deutlich anstiegen, um ab 1920 wieder abzusinken, Bild 7. Im Zeitraum ab ca. 1985 – der sich in etwa mit dem von Bild 4 deckt – kam es sogar trotz markant steigender CO2-Gehalte bzw. sinkender pH-Werte zu einem ausgeprägten Wiederanstieg des Schalenwachstums.

In die gleiche Richtung weisen auch von Dr. Ulrich Steiner vorgestellte Studien, welche sich mit der Reaktion von Korallen auf erhöhte CO2 Werte befassten [STEI]. Bei der ersten wurde festgestellt, dass bei Coccolithophoren – die für ein Drittel der marinen Kalksteinproduktion verantwortlich sind – Kalkbildung und Produktivität bei höherer CO2 Konzentration signifikant höher waren. Bei der zweiten Studie zeigte sich, dass die Koralle Lophelia pertusa sich in einigen Monaten an saurere Bedingungen anpasste und dann ebenfalls erhöhte Kalkbildung zeigte.
Willis Eschenbach [ESCH] stellte die Ergebnisse einer Untersuchung von Yeakel et al. [YEAK] vor, die entlang eines Korallenriffs vor den Bermudas über fünf Jahre die Korallenaktivität mithilfe von Sensoren aufzeichneten. Dabei wurde festgestellt, dass die Korallen auf ein erhöhtes Nahrungsangebot aufgrund von Algenblüten mehr alkalische Karbonate aus dem umgebenden Wasser zogen, so dass dieses saurer wurde, und zugleich mehr CO2 ins Wasser emittierten. Die Folge war eine starke Zunahme der „Versauerung“ – auf Niveaus, die höher lagen als die prophezeiten Niveaus der Zukunft infolge menschlicher Emissionen – und doch wuchsen die Korallen immer weiter.
Und Forscher der Woods Hole Oceanographic Institution stellten bei der Beaufschlagung der Atmosphäre über marinen Versuchsbecken mit bis zu 2660 ppm (!) CO2 fest, dass zwar bei einigen Arten die Schalen dünner wurden, dass jedoch sieben der 18 untersuchten Arten zur Überraschung der Wissenschaftler auf die steigende Beaufschlagung nicht mit dünneren, sondern mit dickeren Schalen reagierten [WOOD]. Zu diesen Profiteuren gehörten neben dem Hummer unter anderen rote und grüne schalentragende Algen, Napfschnecken und Seeigel der gemäßigten Breiten

Effekthascherei auf Kosten der Wissenschaftlichkeit…

Zu den schlimmsten Begleiterscheinungen des Hypes um die angebliche Versauerung der Ozeane gehört der teils bedenkenlose Verzicht mancher Akademiker auf wissenschaftlich korrektes Vorgehen. Dies entspringt offensichtlich der Absicht, mithilfe des Medien „Stimmung zu machen“. Klipp und klar ausgedrückt hat dies beispielsweise Dr. Ceri Lewis von der Universität Exeter. Sie hat sich zum Ziel gesetzt, speziell Kinder bezüglich des Themas „Ozeanversauerung“ „aufzuklären“, und zu diesem Zweck von den Schulbehörden die Einrichtung eines Bildungsprogramm gefordert [COPP]. Daraus entwickelte sich unter gütiger Mithilfe von Greenpeace und Co. eine weltweite Kampagne. In ihrem Verlauf wurden unzählige Experimente konzipiert, um Schülern, Journalisten und Laien gleichermaßen durch eindrucksvoll blubbernde Säureexperimente mit Kalk die angebliche Gefährdung der Meere zu demonstrieren. Zurzeit gibt es auf Bildungsservern eine regelrechte Inflation an Anleitungen speziell für Lehrer, welche Schülern zeigen sollen, welch negative Auswirkungen CO2 hat, wenn es sich in Wasser löst [EXPE].
Dabei wird häufig munter Desinformation betrieben, beispielsweise indem man ein Stück Kreide in kohlensäurehaltiges Mineralwasser wirft, wo es dann aufgelöst wird. Dass dies schon vom pH-Bereich her nichts mit den Verhältnissen in Meerwasser zu tun hat, zeigt schon ein Blick auf Bild 6. Das hält jedoch selbst Wissenschaftler des eigentlich renommierten Alfred-Wegener-Instituts nicht davon ab, diesen billigen Taschenspielertrick zur Beeindruckung von z.B. Journalisten anzuwenden [VERS2]. Andere Experimente, welche jedem, der eine Vorstellung von den fein austarierten Gleichgewichten des stark gepufferten chemischen Milieus in den Meeren hat, die Zornesröte ins Gesicht treiben dürften, befassen sich mit dem Einsetzen von Trockeneis in Wasser (Resultat ist ein 3.000facher CO2-Gehalt im Vergleich zur Atmosphäre) oder der Verwendung von Säure zur Kalkauflösung [BURN].
Das hinterlistige an solchen Experimenten ist, dass eine Säurezugabe zu Muschelkalk tatsächlich zur Schaumbildung aufgrund von ausgasendem CO2 führt. Das hat jedoch nichts mit dem komplexen System Kohlensäure/Karbonat im Meerwasser zu tun. Analogien zu solchen Versuchen bekäme man, wenn man sich vorstellt, jemand wolle eine Kettensäge als Werkzeug für Gehirnchirurgie einsetzen oder eine Uhr mit dem Vorschlaghammer „reparieren“.

und Unsauberkeiten selbst bei wissenschaftlichen Arbeiten

Ebenso bedenklich stimmt, dass selbst bei vielen wissenschaftlichen Arbeiten zum Thema Ozeanversauerung inzwischen die üblichen Standards nicht mehr in zufriedenstellendem Umfang eingehalten werden. So erschien im August 2015 in „Nature“ eine Zusammenstellung von Berichten, die z.T. erhebliche Mängel bei der Konzeption von Experimenten zur „Ozenaversauerung“ beklagten [CRES]. Erwähnt wird beispielsweise eine Arbeit von C.E. Cornwall und C.L. Hurd, wonach die meisten Autoren von Berichten über entsprechende Laborversuche entweder ungeeignete Methoden verwendeten oder ihre Methode nicht in geeigneter Form darlegten. Cornwall und Hurd stellten beispielsweise fest, dass nur in 27 Fällen ein angemessenes Design der Experimente zweifelsfrei festgestellt werden konnte. In 278 (!) Fällen sei das Versuchsdesign offensichtlich ungeeignet gewesen. Die übrigen Studien hätten keine ausreichenden Informationen über den experimentellen Aufbau enthalten – was nach Ansicht der Verfasser für sich selbst bereits ein Problem darstelle. Unglücklicherweise seien wirklich konsequent konzipierte Versuche logistisch sehr komplex und auch teuer, sowohl was den Versuchsaufbau als auch was die laufenden Wartungsaufwendungen angehe. Kombiniere man dies mit dem zunehmenden Druck, schnell und noch dazu in Top-Journalen zu publizieren, dann komme es dazu, dass manche Forscher oder Forscherteams versuchten, Arbeiten zu publizieren, die nicht den erforderlichen Standards entsprechen. In einem weiteren Papier stellt auch Bayden Russell von der Hong Kong University fest, dass manche Forscher beim Design ihrer Experimente die Komplexität des Themas „Ozeanversauerung“ nicht ausreichend berücksichtigen.

Fred F. Mueller

 

Quellen:

[BURN] http://www.eike-klima-energie.eu/news-cache/ozean-versauerung-welche-ozean-versauerung/
[CALU] Berger, W. H.: Carbon Dioxide through Geologic Time, http://earthguide.ucsd.edu/virtualmuseum/climatechange2/07_1.shtml abgerufen 21.4.2013
[CO2V] http://www.co2science.org/subject/o/summaries/acidificationphenom.php
[COPP] http://www.bbc.com/news/science-environment-29746880
[CRES] http://www.nature.com/news/crucial-ocean-acidification-models-come-up-short-1.18124
[ERDZ] https://de.wikipedia.org/wiki/Kambrium
[ESCH] http://www.eike-klima-energie.eu/news-cache/tiefenrausch-warum-korallen-die-versauerung-gut-ueberleben/
[EXPE] http://www.cisanctuary.org/ocean-acidification/hands_on_activities.php
[FEEL] http://pmel.noaa.gov/co2/files/co2_time_series_12-17-2014_with_text.jpg
[MONA] http://news.bbc.co.uk/2/hi/science/nature/7860350.stm
[PHRA] http://wattsupwiththat.com/2014/12/23/touchy-feely-science-one-chart-suggests-theres-a-phraud-in-omitting-ocean-acidification-data-in-congressional-testimony/
[SCHE] http://www.eike-klima-energie.eu/climategate-anzeige/maschinenstuermerei-in-der-heutigen-zeit-die-hoellenvisionen-des-potsdam-propheten/
[SHIQ] http://www.nipccreport.org/articles/2012/may/22may2012a1.html
[SABB] http://www.bbc.co.uk/news/science-environment-22408341 6.5.2013
[SAWA] http://www.spiegel.de/wissenschaft/natur/erwaermung-klimawandel-macht-meere-weltweit-saurer-und-waermer-a-928096.html
[STEI] http://www.eike-klima-energie.eu/news-cache/versauern-die-ozeane-die-phaelschung/
[VERS2] http://www.spiegel.de/wissenschaft/natur/c02-emissionen-saure-ozeane-gefaehrden-polarmeere-a-654034.html
[WALL] http://www.abeqas.com/wp-content/uploads/2014/01/MWAcompilationOfGlobalOcean_pHJan82014.jpg
[WOOD] http://www.scinexx.de/wissen-aktuell-10898-2009-12-03.html
[YEAK] http://www.marine-geo.org/portals/gmrt/


Leseempfehlung:

stromMichel Limburg, Fred Mueller, Arnold Vaatz:
“Strom ist nicht gleich Strom. Warum die Energiewende nicht gelingen kann.”
Storchmann Medienhttp://dld.bz/ebEjd
108 Abbildungen, gebunden, 19,90 €, Versand kostenfrei.

Der Ingenieur Michael Limburg und der Wissenschaftsjournalist Fred F. Mueller erklären in einfacher, auch für Laien leicht verständlicher Weise, wie unser Stromversorgungssystem funktioniert.

VN:F [1.9.22_1171]
Rating: 1.0/5 (1 vote cast)