Mülltrennung kein Dogma

Angesichts der unendlichen Geschichte der Novellierung einer Verpackungsverordnung, die jeder vernünftige Mensch abschaffen würde, erlaube ich mir, einen älteren Artikel ins Netz zu stellen, der zeigt, welcher Erkenntnisstand bereits vor sechs Jahren erreicht war.

Mülltrennung ist kein Dogma mehr

Die Duales System Deutschland AG (DSD) wird nun gleich von zwei Seiten in Frage gestellt: technisch erweist sich die Abfalltrennung in den privaten Haushalten als unsinnig und juristisch ist das DSD als Monopol nach Ansicht des Bundeskartellamtes nicht haltbar.

Die Deutschen dürfen wieder träumen. Nachdem sich die deutsche Umweltpolitik in den letzten zehn, zwölf Jahren in Form der Quotenregelungen der Verpackungsverordnung offenbar mehr um die Belange von Müllsammlern als um die Entlastung der Umwelt und der Bürger gekümmert und dadurch die Mülltrennung zu einer der wichtigsten (unbezahlten) Freizeitbeschäftigungen gemacht hat, scheint neuerdings wieder die Frage erlaubt, ob Abfallpolitik nicht auch das Ziel haben darf, den Bürgern das Leben leichter zu machen, ohne dabei das Ziel der nachhaltigen Umweltschonung aus dem Auge zu verlieren.

„Die Abfallwirtschaft kann sich heute wieder stärker den Bedürfnissen der Bürger widmen“, erklärt Prof. Jürgen Hahn, der zuständige Abteilungsleiter im Berliner Umweltbundesamt (UBA). Hahn verweist dabei auf eine in diesem Sommer erschienene Studie über die Zukunft der Abfallentsorgung, die Martin Kaimer und Diethard Schade an der Akademie für Technikfolgenabschätzung in Baden-Württemberg erstellt haben. Darin stellen die beiden Wissenschaftler fest, dass die mit der deutschen Verpackungsverordnung (VerpackV) von 1991 und dem Kreislaufwirtschaftsgesetz (KrW/AbfG) von 1996 verbundenen Bemühungen, die Endverbraucher zu einem ressourcensparenden Umgang mit ausgedienten Verpackungen und anderen Abfällen zu erziehen, fehlgeschlagen sind.

Das Dogma der Mülltrennung wird immer mehr zu einer logistischen Herausforderung, vor der immer mehr deutsche Privathaushalte kapitulieren müssen – zumal, wenn sie jetzt in der Wirtschaftskrise ganz andere Sorgen haben. Nur mithilfe komplizierter Anleitungen in Form von Broschüren und Entsorgungsterminkalendern gelingt es überhaupt, einigermassen den Überblick zu bewahren. So müssen Grünabfälle getrennt erfasst und über längere Zeiträume bis zur Abholung aufbewahrt werden, was im Sommer zu Ungeziefer- und Geruchsproblemen führen kann. Papier, Glas, Altmetalle, Altkleider etc. müssen zu Sammelcontainern oder zu kilometerweit entfernten Recyclinghöfen gefahren werden. Verpackungen aus Kunststoff, Aluminium, Weissblech und Verbundmaterialien sollen in die Gelben Tonnen, die in der Regel nur einmal im Monat abgeholt werden. Batterien, Leuchtstoffröhren, Lack- und Medikamentenreste müssen getrennt aufbewahrt und zu einem Schadstoffmobil oder einem Recyclinghof gebracht werden. Nur der verbleibende Restmüll wird noch wie früher abgeholt, heute aber meist in längeren Abständen. Trotz aller von den Haushalten zeitaufwändig und unentgeltlich erbrachten Vorleistungen steigen die kommunalen Abfallgebühren.

Kein Wunder, dass die Ergebnisse des Sortiereifers zu wünschen übrig lassen. In den Gelben Tonnen finden sich nach empirischen Untersuchungen bis zu 50 Prozent Abfälle, die dort nach der Absicht der Gesetzgeber nicht hingehören. Umgekehrt gelangt in die Grauen Restmülltonnen ein vergleichbarer Prozentsatz von Verpackungsabfällen mit dem Grünen Punkt. Um Verpackungskunststoffe und andere Wertstoffe sinnvoll aufbereiten zu können, ist eine mühsame und kostenträchtige Nachsortierung nötig. Deshalb regen Kaimer und Schade an, in Zukunft (wie vor dem Aufbau des Dualen Systems) nur noch Papier, Karton, Glasflaschen und Textilien sowie größere Kunststoffverpackungen, deren werkstoffliche Verwertung sich rechnet, getrennt zu sammeln. Alles andere soll mit hohem Nutzungsgrad thermisch verwertet werden.

Bund, Länder und Kommunen, so Prof. Jürgen Hahn vom UBA, hätten im letzten Jahrzehnt zuviel Hirnschmalz auf die Lösung nebensächlicher Probleme wie die stoffliche Verwertung ausgedienter Verpackungen verwandt und dabei die wichtigste Herausforderungen der Abfallwirtschaft aus dem Auge verloren: Die Umsetzung der schon 1993 erlassenen Technischen Anleitung Siedlungsabfall (TASi) und des darin enthaltenen Verbots der Ablagerung unbehandelter organischer Abfälle ab 2005 und das in einem „Eckpunktepapier“ der Bundesregierung für 2020 vorgesehene Gebot der kompletten Verwertung aller Abfälle.

Nach der Ablagerungsverordnung vom Januar 2001 sind für die Vorbehandlung sowohl die Müllverbrennung als auch mechanisch-biologische Verfahren zugelassen, sofern sie die strengen Grenzwerte der 30. Bundesimmissionsschutz-Verordnung (BImSchV) für Dioxine, Schwermetalle und andere Schadstoffe einhalten. Bis jetzt wird in Deutschland aber nur etwa die Hälfte der rund 30 Millionen Tonnen Siedlungsabfälle dem entsprechend entsorgt.

Angesichts dieser Lage droht Rainer Baake, Staatssekretär im Bundesumweltministerium (BMU): „Die Kommunen hatten 13 Jahre Zeit, sich auf die neuen gesetzlichen Bestimmungen einzustellen. Wer das geltende Recht bis Juni 2005 nicht beachtet, bekommt Besuch vom Staatsanwalt!“ Um die „Behandlungslücke“ rasch zu schließen, setzt das BMU nun offenbar verstärkt auf kostengünstige Alternativen zur klassischen Müllverbrennung wie das bislang umstrittene Trockenstabilatverfahren der mittelständischen hessischen Firma Herhof.

Dieses Verfahren nutzt die bei der siebentägigen Verrottung von unsortiertem feuchten Hausmüll in geschlossenen Rotteboxen entstehende Wärme zu dessen Trocknung. Der trockene Abfall lässt sich in vollautomatischen Sortieranlagen leicht von nichtbrennbaren Bestandteilen wie Batterien, Metallteilen, Glas, Keramik, Steinen und Sand befreien. Diese können sinnvoll verwertet werden. Die Anlage in Aßlar im hessischen Lahn-Dill-Kreis trennt zum Beispiel Scherben von Weiss-, Braun- und Grünglas so sauber, dass sie die Spezifikationen der Glashütten erfüllt. Das übrig bleibende organische Material (Trockenstabilat) eignet sich wegen seines hohen Brennwertes als Ersatzbrennstoff für Zementwerke und spezielle Feuerungsanlagen oder als Rohstoff für die Synthesegaserzeugung.

Prof. Jürgen Hahn vom UBA bescheinigte der Firma Herhof in einem Schreiben vom 16. Mai 2002: „Das Trockenstabilatverfahren mit stofflicher und energetischer Nutzung organischer Abfälle und differenzierten Recyclingmöglichkeiten für die anorganischen Fraktionen erfüllt bereits heute die Anforderungen, welche die Bundesregierung für 2020 geplant hat.“

Umwelt-Staatssekretär Rainer Baake lobte in diesem Frühjahr gar Herhofs Vision, den Haushalten in Zukunft ihre Abfälle ungetrennt und kostenlos abzunehmen, diese vollautomatisch zu sortieren und vollständig zu verwerten und die Abfallbehandlungskosten durch Rohstofferlöse zu decken. Indem sie für die EXPO 2000 in Hannover die vollautomatische Sortieranlage SORTEC entwickeln liess, hat die DSD AG ungewollt selbst dazu beigetragen, dieser Vision näher zu kommen und sich selbst überflüssig zu machen.

Edgar Gärtner

Kasten:

DSD-Monopol im Visier

Das deutsche Bundeskartellamt hat Ende August gegen die DSD AG ein förmliches Verfahren nach § 1 des Gesetzes gegen Wettbewerbsbeschränkungen (GWB) eingeleitet, da die Firma, an der neben den großen Handelsgesellschaften auch die Entsorgungsunternehmen beteiligt sind, die mit dem DSD sogenannte Leistungsverträge abgeschlossen haben, 95 Prozent des Marktes der Entsorgung von Verkaufsverpackungen beherrscht und alternativen Anbietern von Entsorgungsleistungen den Marktzutritt verwehrt. „Sollte das DSD unsere Bedenken nicht ausräumen, wird es ab 2006 in der jetzigen Form nicht mehr weiterexistieren“, erklärte Ulf Böge, der Präsident des Kartellamtes am 23. August in Bonn vor der Presse.

Sein Amt habe bislang im Rahmen seines Ermessensspielraums das Nachfragekartell toleriert, erläuterte Böge. Inzwischen seien aber Entwicklungen eingetreten, die ein Abgehen von dieser Praxis verlangten. Dazu zählten neben den Vorgaben der EU-Kommission (vgl. CR Nr. 10/2001) auch die Ergebnisse einer Durchsuchung der Geschäftsräume mehrer Handelsverbände, die den Verdacht erhärteten, dass diese ihre Mitglieder zum Boykott alternativer Entsorgungsdienstleister wie BellandVision und Interseroh aufgerufen haben.

eg

(erschienen 2002 in: Chemische Rundschau Nr. 17/6. September 2002)

Abkehr vom Kioto-Prozess wird unausweichlich

Auch in der deutschen Industrie gibt es neuerdings gewichtige Stimmen, die den sogenannten Kioto-Prozess als Sackgasse bezeichnen und anregen, sich der US-Position anzuschließen.

Klimapolitik

Abschied von Kioto. Energiepolitik muss wieder Standortpolitik werden

Auch in der deutschen Industrie gibt es neuerdings gewichtige Stimmen, die den sogenannten Kioto-Prozess als Sackgasse bezeichnen und anregen, sich der US-Position anzuschließen.

Der G-8-Gipfel Anfang Juli 2005 in Gleneagles/Schottland hat das Kioto-Protokoll beerdigt. Ein „Kioto-zwei“ oder „Kioto-Plus“ wird es vermutlich nicht geben. Stattdessen werden sich die führenden Industriestaaten der Welt gemeinsam mit ihren neuen Rivalen China und Indien um konzertierte Maßnahmen zur Anpassung an den Klimawandel und eine verstärkte Förderung „sauberer“ Methoden der Energieerzeugung bemühen. Die von den G-8-Staatschefs verabschiedete Erklärung hält fest, dass der weltweite Energiebedarf in den nächsten 25 Jahren um schätzungsweise 60 Prozent steigen wird und 16 Billionen Dollar in die Erschließung verlässlicher und bezahlbarer Energiequellen investiert werden müssen. Windräder können damit kaum gemeint sein. US-Präsident George Bush hat sich auf der ganzen Linie durchgesetzt. Die auf Kioto eingeschworenen deutschen Massenmedien haben erst gar nicht versucht, ihrem verwirrten Publikum diese Nachricht zu verkaufen. Sie haben sie zunächst schlicht tot geschwiegen.

Umso größer war die Überraschung, als die Vereinigten Staaten kurz nach dem G-8-Gipfel in Vientiane/Laos, ganz im Sinne der in Gleneagles verabschiedeten Erklärung, ein Abkommen über ein „Asia-Pacific Partnership on Clean Development and Climate“ zwischen den USA, China, Indien, Japan, Südkorea und Australien vorstellten. Die Mitglieder des neuen Bündnisses repräsentieren immerhin etwa 45 Prozent der Weltbevölkerung, fast die Hälfte der globalen CO2-Emissionen, fast zwei Drittel der Welt-Kohleförderung sowie fast die Hälfte des Erdölverbrauchs und haben somit ein größeres Gewicht als die im Anhang I des Kioto-Protokolls aufgeführten Länder, die sich verpflichtet haben, ihre Emissionen von CO2 und anderen „Treibhausgasen“ bis zum Jahre 2012 um durchschnittlich fünf Prozent unter das Niveau von 1990 zu drücken.

Diesem Abkommen, das ohne jegliche Einbeziehung der Vereinten Nationen und der Europäischen Union ausgehandelt wurde, werden sich wahrscheinlich in nächster Zeit noch weitere asiatische Länder anschließen. Und selbst in Europa gibt es immer mehr Stimmen, die fordern, das verbissene Ringen um ein „Kioto Plus“ aufzugeben und sich dem neuen Pakt anzuschließen. Besonderes Aufsehen erregte eine kurz vor dem G-8-Gipfel vom Wirtschaftsausschuss des britischen Oberhauses veröffentlichte Erklärung, die auf einer Studie fußt, die die Lords bei dem inzwischen emeritierten Londoner Top-Ökonomen David Pearce in Auftrag gegeben hatten. Dort hatte Pearce am Kioto-Ansatz insbesondere die fehlende Abwägung zwischen den Kosten einer Anpassung an den Klimawandel und den Kosten des (vermutlich vergeblichen) Versuchs, diesen aufzuhalten, beanstandet. Die Lords empfahlen dem britischen Premierminister Tony Blair daraufhin, seine verzweifelten Bemühungen, George Bush doch noch zur Ratifizierung des Kioto-Protokolls zu bewegen, aufzugeben und stattdessen mit den Amerikanern ein Abkommen über die Entwicklung sauberer Technologien abzuschließen.

In diesem Sinne äußerte sich Mitte August auch Carsten Kreklau, Mitglied der Hauptgeschäftsführung des Bundesverbandes der Deutschen Industrie (BDI). Die deutsche Politik müsse zur Kenntnis nehmen, „dass absolute Emissionsminderungsverpflichtungen wie im Kioto-Protokoll international nicht durchsetzbar sind“, schreibt Kreklau in einem der Presse zugespielten Namens-Beitrag. „Wenn wir in Deutschland mit höchstem Aufwand und immensen Kosten versuchen, den CO2-Ausstoß weiter zu senken, bringt das für das weltweite Klima fast nichts.“

Schon auf der vage ausgegangenen Weltklima-Konferenz in Neu Delhi vor zwei Jahren war deutlich geworden, dass sich den Anhang-I-Staaten des Kioto-Protokolls keine weiteren Länder anschließen würden. Insbesondere China und Indien konnten im Interesse ihrer boomenden Wirtschaften nicht an einer Einschränkung der energetischen Nutzung ihrer immensen Kohlevorräte interessiert sein und fanden sich damit – ob gewollt oder ungewollt – an der Seite der Kohle-Großmacht USA, die dabei ist, Milliarden in die Entwicklung sauberer Kohletechnologien zu investieren. Dennoch konnte das Kioto-Abkommen zu Beginn dieses Jahres offiziell in Kraft treten, weil sich Russlands Präsident Wladimir Putin in der Hoffnung, der EU gegen Bares mit der buchhalterischen Verwertung der ihm auf der Klimakonferenz von Marrakesch großzügig zugestandenen Kohlenstoff-Senken aus der Klemme zu helfen, im letzten Moment auf die Seite der EU schlug.

In der Tat steuert die europäische „Klimapolitik“ auf eine ernste Glaubwürdigkeitskrise zu. Während führende Politiker Deutschlands und der EU nicht müde werden, US-Präsident George Bush als Saboteur des Kioto-Abkommens anzuprangern und ihn nun sogar für die katastrophalen Folgen des Hurrikans „Katrina“ im Mississippi-Delta verantwortlich machen, zeichnet es sich immer deutlicher ab, dass die EU ihr eigenes (bescheidenes) CO2-Reduktionsziel von 8 Prozent weit verfehlen wird. Nach Angaben der Europäischen Umweltagentur (EEA) in Kopenhagen sind die CO2-Emission der 15 alten EU-Mitgliedsländer zwischen 2001 und 2004 um 3,6 Prozent gestiegen. Auch das Hinzukommen von 10 neuen Mitgliedsstaaten im Osten dürfte an diesem Trend nicht viel ändern. Im günstigsten Fall wird jetzt eine Reduktion von gerade einmal einem Prozent erwartet. Ein mageres Ergebnis, das mit Unsummen erkauft werden müsste, weil kostengünstige Möglichkeiten der CO2-Reduktion schon weitgehend ausgeschöpft sind. Das gilt in besonderem Maße für die chemische Industrie, die überproportional zur Selbstverpflichtung der Industrie und zur deutschen „Vorreiterposition“ in Sachen Energieeffizienz und CO2-Reduktion beigetragen hat. Noch immer gilt die Schätzung des Energieberichtes des damaligen Bundeswirtschaftsministers Werner Müller vom Oktober 2001, wonach die Umsetzung des von der rot-grünen Regierung ins Auge gefassten Zieles einer CO2-Reduktion von 40 Prozent bis zum Jahre 2020 in Deutschland nicht weniger als 256 Milliarden Euro verschlänge.

Dabei stand es außer Frage, dass die in Deutschland in den 90er Jahren erzielten CO2-Einsparungen von über 15 Prozent zum allergrößten Teil auf den Zusammenbruch der sozialistischen Wirtschaft im Osten und ansonsten auf Effizienzsteigerungen bei gleichzeitigem schwachen Wirtschaftswachstum zurückzuführen ist. Insofern sei es nicht verwunderlich, dass Deutschlands selbst gewählte Vorreiterrolle „andere Staaten eher zu einem abwartenden Handeln animiert“ habe, schrieb Dr. Jörg Rothermel, beim deutschen Verband der Chemischen Industrie (VCI) unter anderem zuständig für Klimaschutz und Energiepolitik, in einer Bewertung der rot-grünen Ziele für einen „Klimaschutz nach 2012“. Die EU-Mitgliedsländer, die derzeit ein nennenswertes Wirtschaftswachstum zu verzeichnen haben (wie Spanien, Irland, Dänemark oder Österreich) liegen inzwischen so weit über den von der EU in Kioto eingegangenen Selbstverpflichtung, dass schon jetzt ausgeschlossen werden kann, dass sie bis 2008/2012 noch die Kurve kriegen.

Sollte es wider Erwarten gelingen, auch die wenigen anscheinend Kioto-konformen, weil wirtschaftlich stagnierenden EU-Länder wie Deutschland und Frankreich wieder auf einen Wachstumspfad zu bringen, könnte man die Kioto-Ziele auf jeden Fall vergessen. Der EU, die sich in Sachen „Klimapolitik“ als Lehrmeister der Welt aufspielt, drohen übrigens im Falle des Verfehlens der Kioto-Ziele Strafen. Sie müsste sich dann in einem „Kioto-zwei“-Abkommen zu weitaus drastischeren Reduktionszielen verpflichten und könnte sogar vom weltweiten Emissionshandel ausgeschlossen werden – und damit von vergleichsweise kostengünstigen Clean-Development-Mechanism-Deals wie etwa Aufforstungsmaßnahmen in Entwicklungsländern.

Gerade auf einen Ausbau des internationalen Emissionshandels setzt jedoch Carsten Kreklau vom BDI. Er lässt jedoch im Unklaren, wie das inzwischen in Kraft getretene Europäische Emissionshandels-Schema (ETS), das auf den festen quantitativen Kioto-Verpflichtungen der EU und ihrer Mitgliedsstaaten aufbaut und somit nichts anderes als ein Rationierungssystem darstellt, in einen offenen Markt ohne absolute Emissionsziele überführt werden könnte.

Schon wenige Monate nach dem Start des ETS zeichnet es sich ab, dass es die EU in eine Sackgasse führen wird. Lag der an der Leipziger Strombörse EEX gehandelte Zertifikat-Preis für eine Tonne CO2 zu Beginn dieses Jahres noch unter sieben Euro, so ereichte er im Sommer kurzfristig schon 29 Euro und pendelte dann um 20 Euro, das heißt etwa auf dem doppelten des ursprünglich von der EU-Kommission für die erste Handelsperiode geschätzten Niveaus. Dadurch wird offenbar, dass dieser Preis nicht einfach vom Verhältnis zwischen Angebot und Nachfrage bestimmt wird, sondern von den Kosten des Umstiegs von Kohle auf Gas bei der Elektrizitätserzeugung. Darauf wies Seb Walhain von der Fortis-Bank (nach einer Meldung von Reuters) schon im Juni hin.

Wäre Erdgas, wie noch vor einem Jahrzehnt, relativ billig, wäre es für die Stromkonzerne ein Leichtes, den Kioto-Verpflichtungen nachzukommen, da Gaskraftwerke je Kilowattstunde nur höchstens halb so viel CO2 ausstoßen. Doch inzwischen ist der Gaspreis wegen der großen Nachfrage so weit gestiegen, dass Kohlekraftwerke selbst bei Berücksichtigung ihres zusätzlichen Bedarfs an CO2-Zertifikaten wieder billigeren Strom produzieren. Der bereits einmal erreichte Zertifikatpreis von 29 Euro liegt nach Ansicht von Analysten in der Nähe des Niveaus, oberhalb dessen sich ein Umstieg von Kohle auf Gas lohnt. Täten das aber viele Kraftwerksbetreiber gleichzeitig, würde der Gaspreis aufgrund der großen Nachfrage rasch so stark ansteigen, dass sich wieder ein Vorteil für Kohle ergäbe.

Also müssen sich die deutschen Stromkonzerne mit zusätzlichen Zertifikaten eindecken und auch die Zertifikate, die ihnen beim Start des ETS gratis zugeteilt wurden, entsprechend den steigenden Marktpreisen in ihren Kalkulationen berücksichtigen. Nach einer Schätzung des schweizerischen Finanzkonzerns UBS (zitiert im Wall Street Journal vom 10. August) ist die Einpreisung von CO2-Zertifikaten in Deutschland für einen 15-prozentigen Anstieg der Strompreise seit dem Start des ETS verantwortlich. Und das ist vermutlich erst der Anfang. Die Financial Times hat schon am 23. Mai dieses Jahres vor einem baldigen Anstieg des CO2-Zertifikat-Preises auf 40 Euro gewarnt. Denn wenn es sich herumspricht, dass die EU ihr bescheidenes CO2-Ziel weit verfehlen wird, kann der Markt nur in diesem Sinne reagieren. Einen Ausweg böte eine stärkere Nutzung von Atomenergie bzw. die Aufkündigung des deutschen „Atomausstiegs-Konsenses“, der jetzt im deutschen Bundestagswahlkampf von den Kandidaten der Opposition angeboten wurde.

Ende August hat es die Frankfurter Allgemeine Sonntagszeitung endlich gewagt, ihren Lesern reinen Wein über die Zukunftsperspektiven des Kioto-Prozesses einzuschenken, indem sie einen Text von Lord Dick Taverne übersetzte, in dem dieser unter der Überschrift „Vergesst Kioto!“ die Gründe für die zitierte Initiative des britischen Oberhauses anlässlich des G-8-Gipfels darlegt. Lord Taverne kommt darin zu dem vernichtenden Urteil: „Der Kioto-Prozess ist eine bemerkenswerte Übung darin, sich und der Welt etwas vorzumachen. Stufe 1 wird keinen messbaren Effekt auf die Klimaentwicklung haben. Weder Amerika noch Indien oder China…haben vor, sich an den Stufen 1 oder 2 zu beteiligen. Man muss kein Wirtschaftsnobelpreisträger sein, um einzusehen, warum das Kioto-Protokoll in der Liste der Programme zur Lösung globaler Krisen ganz nach unten rutschen sollte.“

Angesichts dieser Entwicklung haben die Verbände sämtlicher energieintensiver deutscher Industriezweige (darunter an führender Stelle der VCI), die mit einem Bedarf von 100 Terawattstunden Strom und 200 TWh Gas etwa ein Viertel der gesamten deutschen Energienachfrage auf sich vereinigen, Anfang September in einer gemeinsamen Erklärung einen „Richtungswechsel in der deutschen und europäischen Klimapolitik“ gefordert. Deutschland und die EU müssten ihre Alleingänge aufgeben und nach einem internationalen Abkommen streben, das die USA, China und Indien einschließt. Konkret plädieren die Verbände für eine Verlängerung der Restlaufzeit deutscher Atomkraftwerke und für transparente, kostensenkende Wettbewerbsbedingungen auf dem Strommarkt. Des weiteren regen sie eine deutliche Absenkung der Förderung „erneuerbarer“ Energien und eine weitergehende Entlastung energieintensiver industrieller Prozesse wie Elektrolysen, mineralogische und metallurgische Verfahren von der Ökosteuer entsprechend der EU-Energiesteuerrichtlinie an. „Energiepolitik muss wieder Standortpolitik werden!“, fordern die Industrieverbände von der aus den Wahlen vom 18. September hervorgehenden neuen deutschen Bundesregierung.

Edgar Gärtner

Kasten:

Die Musik spielt im Ozean

Selbst wenn es gelänge, alle menschengemachten Emissionen von „Treibhausgasen“ sofort zu stoppen, würde die globale Erwärmung – so sie denn real ist – mindestens noch ein halbes Jahrhundert lang ungebremst fortschreiten. Zu dieser Schlussfolgerung kamen im letzten halben Jahr unabhängig voneinander mehrere im Magazin Science veröffentlichte Aufsätze der führenden US-Klimaforscher Gerald Meehl, Tom Wigley und James Hansen. Der Grund dafür ist die große thermische Trägheit der Ozeane, die 71 Prozent der Erdkugel bedecken. Schon eine lediglich 10 Zentimeter dicke Schicht Meerwasser speichert mehr Wärme, als der atmosphärische Treibhauseffekt, entsprechend den „offiziellen“ Klimamodellen, überhaupt produzieren könnte. Deshalb hat der kalifornische Ozean-Physiker Tim Barnett schon vor einiger Zeit darauf hingewiesen, dass die Atmosphäre der am wenigstens geeignete Ort ist, um nach einem Signal der globalen Erwärmung zu suchen. Die Musik spielt im Ozean.

Dieser scheint nach den oben zitierten Forschern in den letzten jahrzehnten tatsächlich wärmer zu werden. Der Streit dreht sich nun um die Frage, woher die zusätzliche Wärme stammt. James Hansen ist sich sicher, dass der menschengemachte zusätzliche Treibhauseffekt dahinter steckt. Doch sein NASA-Kollege Bruce Wielicki glaubt in einer im Mai dieses Jahres ebenfalls in Science veröffentlichten Studie über Veränderungen des asiatischen Monsun nachgewiesen zu haben, dass die in den letzten Jahrzehnten deutlich gestiegene Kraft der Sonne entscheidend war.

Wie dem auch sei, es ist völlig klar, dass das die Umsetzung des Kioto-Protokolls und selbst eines „Kioto 2“ außer einer wirtschaftlichen Verarmung nichts bewirken würde. Der Analyst Charles Dumas vom Londoner Lombard Street Research hat vor kurzem auf der Basis der Arbeiten über die thermische Trägheit der Ozeane vorgerechnet, die Industrieländer müssten mindestens die Hälfte ihres Bruttosozialproduktes opfern, um mit Klimapolitik etwas bewirken zu können. Kein Wunder, dass unterschiedliche Hypothesen über die Ursachen des Klimawandels in der Auseinandersetzung um die Zukunft des Kioto-Protokolls kaum noch eine Rolle spielen. Den Menschen bleibt gar nichts anderes übrig, als sich an den Klimawandel anzupassen, zumal dieser neben den oft als Argument für „Kioto“ ins Feld geführten negativen auch angenehme Seiten haben kann. eg

(veröffentlicht in: Chemische Rundschau (VS/H-Medien, CH-Soluthurn) Nr. 9/2005 v. 20.9.2005)

Klimaforschung und Politik

Verhielt sich die Industrie nicht kurzsichtig, als sie sich den Warnungen vor einer drohenden „Klimakastrophe“ unhinterfragt anschloss?

Die „Klimapolitik“ (wir setzen diesen Ausdruck bewusst in Anführungszeichen!) begann nicht erst mit der Verabschiedung des „Rahmenübereinkommens der Vereinten Nationen über Klimaänderungen“ (Klimakonvention) auf der VN-Konferenz über Umwelt und Entwicklung (UNCED) vor zehn Jahren in Rio de Janeiro und dem darin festgelegten Ziel einer „Stabilisierung der Treibhausgaskonzentrationen in der Atmosphäre auf einem Niveau…, auf dem eine gefährliche anthropogene Störung des Klimasystems verhindert wird.“ Vielmehr besiegelten die auf dem „Erd-Gipfel“ von Rio von über 170 Regierungsdelegationen angenommenen Erklärungen und Aktionsprogramme einen Prozess der Neubestimmung des Verhältnisses von Politik und Wissenschaft, deren Wurzeln bis zum Ende der 60er Jahre des vergangenen Jahrhunderts, das heißt bis in die Zeit des Kalten Krieges zwischen dem individualistisch-marktwirtschaftlich orientierten Westen und dem kollektivistischen Ostblock zurückreichen. Die damals im Rahmen des atlantischen Militärbündnisses NATO beschlossene „Nutzbarmachung wissenschaftlicher Erkenntnisse bei der politischen Entscheidungsbildung“, bei der die Bundesrepublik Deutschland die Rolle des „Musterlandes“ spielte, bestätigt die alte Erkenntnis, dass verfeindete Lager einander ähnlicher werden, wenn sie ihre Kräfte messen.

Anfang April 1969 hob der damalige US-Präsident Richard Nixon anlässlich des 20. Jahrestages der Unterzeichnung des Nordatlantikvertrages die sogenannte „Dritte Dimension“ der NATO aus der Taufe, und zwar mit der Begründung, dass „das westliche Bündnis“ (neben der militärischen und politischen) „eine soziale Dimension benötigt, um sich mit unseren Besorgnissen über die Qualität des menschlichen Lebens im letzten Drittel dieses Jahrhunderts zu befassen.“ Nixon verstand die „Dritte Dimension“ der NATO als Antwort auf die Infragestellung des westlichen Nachkriegs-Wirtschaftswunder-Konsenses durch die Studentenbewegung von 1968 und die wachsende Opposition gegen den Vietnam-Krieg und dessen soziale Folgen. Diese Protestbewegung erscheint im Rückblick als eine Art Betriebsunfall des Kalten Krieges.

Noch im Dezember 1969 trat das NATO Committee on Challenges of Modern Society (CCMS) zu seiner konstituierenden Sitzung zusammen. 1971 veröffentlichte das NATO-Hauptquartier in Brüssel die programmatische Schrift „Das Atlantische Bündnis und die Umweltkrise“. Dort wurde der seit 1958 auf dem erloschenen Vulkan Mauna Loa auf Hawai gemessene kontinuierliche Anstieg des CO2-Gehaltes der Atmosphäre erstmals zum vordringlichen Umweltproblem erklärt – und zwar zu einer Zeit, als die Geowissenschaftler noch nahezu einhellig den nahenden Beginn einer neuen Eiszeit fürchteten. Es heißt dort: „Die Atemluft des Menschen wird durch etwa 12 Milliarden Tonnen Kohlendioxyd verseucht, die jedes Jahr von unserer Industriegesellschaft freigesetzt werden. Etwa die Hälfte dieser Menge bleibt permanent in der Luft. Es ist damit zu rechnen, dass der Kohlendioxydgehalt der Luft sich bis zum Jahre 2000 um 25 Prozent erhöht haben wird. (…) Die genauen Auswirkungen sind noch ungewiss, jedoch erscheint eine Verschiebung der durchschnittlichen Temperatur der Erde um mehrere Grad durchaus vorstellbar.“

Offenbar bezieht sich die Broschüre dabei auf den Bonner Geophysiker Hermann Flohn, der als Mitglied des NATO-Wissenschaftsausschusses eine 1896 vom schwedischen Chemiker Svante Arrhenius als Erklärung für die Entstehung der Eiszeiten aufgestellte Hypothese neu in die Diskussion gebracht hatte. Arrhenius vermutete, die Durchschnittstemperatur der Erde hänge in erster Linie von der CO2-Konzentration einer „Strahlungsschicht“ in sechs Kilometern Höhe ab, die durch „Gegenstrahlung“ reflektierter Sonnenenergie dafür sorge, dass die mittlere Temperatur der Erdoberfläche nicht der eines „schwarzen Strahlers“ (nach Stefan-Boltzmann) von minus 18 Grad entspricht, sondern plus 15 Grad Celsius beträgt. Verdoppele sich die CO2-Konzentration, steige der durchschnittliche Temperatur um 4 bis 6 °C. Sinke hingegen die CO2-Konzentration, komme es zur Abkühlung der Erdoberfläche und letztlich zu einer Eiszeit. Mit dieser Hypothese konnte Arrhenius um die vorletzte Jahrhundertwende niemanden überzeugen, weil sie nicht erklären konnte, wie eine einmal eingetretene Eiszeit zu einem Ende kommen konnte. Den Nobelpreis für Chemie bekam er 1903 für ganz andere Leistungen. Gegen Ende der 30er Jahre des 20. Jahrhunderts grub dann der englische Ingenieur Gay Stewart Callendar die zwischenzeitlich völlig in Vergessenheit geratene Hypothese wieder aus und versuchte mit einigem Erfolg, ihr mit dem Hinweis auf Arrhenius’ Nobelpreis Autorität zu verleihen. Über Callendar gelangte die Treibhaus-Hypothese noch in den 40er Jahren an Hermann Flohn.

Kasten

Auch wenn sie über das abstruse Postulat einer „Strahlungsschicht“ nur den Kopf schütteln können, akzeptieren viele mit Klimafragen befassten Naturwissenschaftler bis heute Arrhenius’ Herleitung des „natürlichen Treibhauseffektes“ von 33 °C, weil sich bis in die jüngste Zeit offenbar niemand die Mühe machte, seine Originalarbeit zu lesen. Das taten aber der Mainzer Meteorologe Wolfgang Thüne sowie der Braunschweiger Physiker Prof. Gerhard Gerlich und stellten dabei fest, dass Arrhenius grobe Rechenfehler unterlaufen sind. Akzeptiere man dessen Prämissen, so Thüne, gelange man nicht zu einer „Strahlungsgleichgewichtstemperatur“ von –18 °C. Thüne bestreitet allerdings, dass man die Erde überhaupt nach Stefan Boltzmann als punktförmigen schwarzen Körper in einer ebenfalls schwarzen Hohlkugel, mit der er im „Strahlungsgleichgewicht“ steht, betrachten kann, denn dann müssten Erde und Sonne die gleiche Temperatur haben.

Die Temperaturunterschiede zwischen der Erde und ihrem Trabanten, dem Mond, sind nach Thüne nicht in erster Linie die Folge des Gehaltes der irdischen Atmosphäre an Wasserdampf und anderen „Treibhausgasen“, sondern des viel rascheren Wechsels von Tag und Nacht (der Mond braucht für eine Umdrehung 772, die Erde hingegen nur 24 Stunden) sowie des Besitzes großer Wassermassen, die 71 Prozent ihrer Oberfläche bedecken. Das Wasser speichert große Mengen der eingestrahlten Sonnenwärme, und die Kürze der Nächte in den polfernen Regionen der Erde verhindert deren Auskühlung über das offene „atmosphärische Fenster“ zwischen 8 und 13,5 Mikrometer Wellenlänge, in der keines der in der Atmosphäre enthaltenen „Treibhausgase“ Infrarotstrahlen absorbiert. Wären auf der Erde die Nächte länger und fehlte Wasser, wäre es hier so kalt oder so warm wie auf dem Mond, vermutet Thüne. eg

Literatur: Wolfgang Thüne: Freispruch für CO2. Wie ein Molekül die Phantasien von Experten gleichschaltet. edition steinherz, Wiesbaden 2002, ISBN 3-9807378-1-0

Der transatlantischen Zusammenarbeit im Rahmen der „Dritten Dimension“ der NATO ist es im wesentlichen zuzuschreiben, dass zu Beginn der 70er Jahre des 20. Jahrhunderts in allen westlichen Industrieländern gleichzeitig in größter Eile Umweltschutz-Programme nach dem Muster des am 1. Januar 1970 von der Nixon-Regierung verkündeten „National Environment Policy Act“ verabschiedet wurden.

Es ging dabei im Grunde darum, das systemkritische Potential der Studentenrevolte dadurch zu entschärfen, dass man es auf die Schiene umwelt- bzw. soziotechnischer Verbesserungen der „Lebensqualität“ in den Industrieländern lenkte. Aus diesem Grunde wurde Umweltpolitik überall nicht parteipolitisch, sondern überparteilich „systemanalytisch“ begründet. Diesen Zweck erfüllte am besten die vom Club of Rome 1972 veröffentlichte Computersimulationsstudie „Die Grenzen des Wachstums“. Gleichzeitig hofften die NATO-Strategen, den Kalten Krieg durch die Politik des „Brückenschlages“ zum Ostblock auf ein für den Westen günstigeres Terrain verlagern zu können. Das heutige Verständnis von globaler Ökologie ist somit ein Kind des Kalten Krieges.

Dabei spielte die Angst vor einer drohenden Überhitzung unseres Planeten infolge eines menschengemachten „zusätzlichen Treibhauseffektes“ zunächst nur eine untergeordnete Rolle. Zwar schienen Dürren und Ernteausfälle in den USA die Warnungen vor einer Überhitzung der Erde zu bestätigen. Bis weit in die 70er Jahre des 20. Jahrhunderts blieb jedoch unter den Gelehrten die Furcht vor einer neuen Eiszeit vorherrschend, obwohl sich einzelne Forscher wie etwa der US-Klimahistoriker Stephen Schneider zum „Treibhaus“-Glauben bekehrten.

Das änderte sich erst in der zweiten Hälfte der 80er Jahre. Ende Januar 1986 stellte der Arbeitskreis Energie (AKE) der Deutschen Physikalischen Gesellschaft (DPG) der Presse in Bonn ein Papier mit dem Titel „Warnung vor einer drohenden Klimakatastrophe“ vor. Darin malt die von den Physikprofessoren Fricke (Würzburg) und Heinloth (Bonn) angeführte Gruppe in düstersten Farben die Überschwemmung dicht besiedelter Küstenregionen infolge des Abschmelzens polaren Eises durch eine erwartete Temperaturerhöhung von bis zu 8°C aus. (Das Wochenmagazin der „Der Spiegel“ berichtete darüber unter dem Titel „Tod im Treibhaus“.) Mit dieser für einen wissenschaftlichen Verein ungewöhnlichen Dramatisierung dachten die Physiker der Atomindustrie einen Gefallen zu tun. So ging die „skeptische Phase“ des politischen Klima-Diskurses zu Ende, die der Bielefelder Wissenschaftssoziologe Prof. Peter Weingart zwischen 1975 und 1985 ansetzt.

Es folgte die Phase des „Katastrophismus“, die bis zum „Erd-Gipfel“ von Rio reichte. Massenmedien, allen voran „Der Spiegel“ vom 11. August 1986 mit dem halb in den Nordseefluten versunkenen Kölner Dom auf dem Cover, griffen die Warnungen der Physiker auf und machten daraus eingängige Stories, die bewusst an der verbreiteten Urangst vor der Sintflut als Strafe Gottes anknüpften. Im Herbst 1987 setzte der deutsche Bundestag die Enquête-Kommission „Vorsorge zum Schutz der Erdatmosphäre“ ein. Diese hielt eine Reduktion der CO2-Emissionen um 30 Prozent für machbar. Im Jahre 1990 gab dann die deutsche Bundesregierung unter Helmut Kohl ihre vielzitierte einseitige Selbstverpflichtung zu einer 25-prozentigen CO2-Reduktion bis 2005 bekannt. Zu dieser Zeit sprachen alle im Bundestag vertretenen Parteien nur noch von der nahenden „Klimakatastrophe“. Der im angelsächsischen Sprachraum etablierte Terminus „climate change“ erschien ihnen als Verharmlosung.

Auch in den USA kam es zu einer gewissen Dramatisierung des Klima-Diskurses, als James Hansen, Direktor des NASA Goddard Institute for Space Studies, vor einem Ausschuss des Senats erklärte, es sei zu 99 Prozent sicher, „dass der Treibhauseffekt nachgewiesen und unser Klima bereits verändert ist.“ Hansens Aussage gab mit den Ausschlag für die Gründung des internationalen Klima-Schiedsgerichts IPCC durch die World Meteorological Organization (WMO) und das UN Umweltprogramm (UNEP).

So schien es dem US-Senator und Präsidentschaftsanwärter Al Gore naheliegend, in seinem pünktlich zum Rio-Gipfel erschienen Bestseller „Earth in Balance“ zu fordern, die drohende Klimakatastrophe nach dem Zusammenbruch des Ostblocks zum Ersatz-Feindbild des Westens zu machen. Die Rhetorik von der „einen Welt“, deren Ressourcen (einschließlich des Konstrukts „Weltklima“) rationell verwaltet werden sollten, beherrschte denn auch den „Erd-Gipfel“. Niemand fragte, ob es – angesichts der Geburt der Global-Ökologie aus dem Kalten Krieg – überhaupt noch angebracht war, die Einheit der Welt zu beschwören, sobald deren Zweiteilung in Ost und West überwunden war. Das taten erst ein Jahrzehnt danach die Berater des neuen US-Präsidenten George W. Bush.

Dennoch markiert die Rio-Konferenz das Ende des „Katastrophismus“. Aus der Herkules-Aufgabe „Abwendung der nahenden Apokalypse“ wurde eine Routineaufgabe der politischen Regulierung, die, entsprechend dem „Drei-Säulen-Modell“ der Nachhaltigkeit, mit anderen wirtschaftlichen und sozialen Aufgaben wetteifern musste. Nun wurden notgedrungen sehr viel kleinere Brötchen gebacken. Schon die 2. Konferenz der Unterzeichnerstaaten der Klimarahmenkonvention, die im März 1995 in Berlin stattfand, löste ein deutlich geringeres Medienecho aus.

Der „Katastrophen-Konsens“, zu dem es bei den Naturwissenschaftlern ohnehin nur scheinbar gekommen war, weil ihre Mehrheit schwieg, begann nun auch in den Medien zu bröckeln. Der Führung des IPCC gelang es nur mithilfe von Manipulationen, in das „Summary for Policymakers“ des für die Kyoto-Konferenz Ende 1997 ausschlaggebenden 2. IPCC-Berichts (John T. Houghton et al.: Climate Change 1995, Cambridge University Press 1996) die Aussage zu bringen: “In the light of new evidence and taking into account the remaining uncertainties, most of the observed warming over the last 50 years is likely to have been due to the increase in greenhouse gas concentrations.” Doch im Innern des dicken Berichts steht im Gegenteil, keine der zitierten Studien habe die beobachtete Erwärmung auf den Einfluss von „Treibhausgasen“ zurückführen können. In der Tat häuften sich in den 90er Jahren Arbeiten, die den Einfluss der „Treibhausgase“ erheblich geringer ansetzten als den der Solarzyklen und anderer natürlicher Klimaschwankungen. Außerdem konnten präzisere Satelliten-Messungen den in den letzten Jahrzehnten von etwa 1300 ungleich verteilten terrestrischen Mess-Stationen im Mittel registrierten leichten Temperaturanstieg nicht bestätigen. Kurz vor der Kyoto-Konferenz im Dezember 1997 brachte sogar „Der Spiegel“ einen Artikel mit dem Titel: „Der Weltuntergang fällt aus.“

Hätten sich Diplomaten und Wissenschaftler in Kyoto nicht noch im letzten Moment in einer ermüdenden Nachtsitzung auf einen mageren Kompromiss einer globalen CO2-Reduktion von 5,2 Prozent bis 2010 geeinigt, wäre es um die „Klimapolitik“ wohl endgültig geschehen gewesen. Das zeigt der Ausgang der Kyoto-Folgekonferenzen in Den Haag, Bonn und Marrakesch, in denen das CO2-Reduktionsziel durch die mehr als großzügige Anerkennung hypothetischer „Kohlenstoff-Senken“ noch weiter nach unten korrigiert wurde. Die Beschlüsse von Kyoto und Marrakesch – da sind sich alle Experten einig – werden keinen messbaren Einfluss auf die Temperaturkurve der Erde haben. Trotzdem hatten die „Klimaschützer“ in Politik, Wissenschaft und Wirtschaft allen Grund zum Jubeln. Denn die Beschlüsse von Marrakesch machen den Weg frei für das Milliardengeschäft des Emissionshandels. Verdienen dürfte daran hauptsächlich die Groß-Finanz, während die Industrie und ihre Beschäftigten die Zeche zahlen müssen.

Nach Ansicht des Wissenschaftssoziologen Peter Weingart verdeutlicht die Geschichte der „Klimapolitik“ die Grenzen und Risiken des naiv-rationalistischen Modells wissenschaftlicher Politikberatung. Das größte Risiko ist offenbar das der Verselbständigung scheinbar naturwissenschaftlich begründeter politischer „issues“. In einem Empfehlungspapier zur „Verbesserung der Kommunikation zwischen Wissenschaft, Politik und Medien, insbesondere im Hinblick auf die Wahrnehmung der Klimaforschung“, an dem Weingart maßgeblich mitgearbeitet hat, erklärt der Sachverständigenkreis des deutschen Bundesministeriums für Bildung und Forschung (BMBF) für Globale Umweltaspekte unter Vorsitz des Essener Physikochemikers Prof. Reinhard Zellner, „herkömmliche rationalistische Vorstellungen vom Primat wissenschaftlichen Wissens“ seien überholt. „Die Nachfrage der Politik nach gesichertem Wissen“, schreiben die Sachverständigen, „zwingt die Wissenschaft zu Aussagen, die immer stärker durch Nichtwissen gekennzeichnet sind. Die von der Sicherheit wissenschaftlicher Aussagen erwartete Legitimierung politischer Entscheidungen schlägt in ihr Gegenteil um.“ Dem ist nichts hinzuzufügen.

Edgar Gärtner

Zeittafel

1971: Die NATO erklärt die drohende Erwärmung der Erdatmosphäre infolge der steigenden CO2-Konzentration zum vordringlichen Umweltproblem.

1975: Die American Association for the Avancement of Science (AAAS) schließt sich auf ihrer Jahreskonferenz erstmals den Warnungen vor einer globalen Erwärmung an.

1986: Der Arbeitskreis Energie (AKE) der Deutschen Physikalischen Gesellschaft (DPG) erringt mit ihrer „Warnung vor einer drohenden Klimakatastrophe“ die Aufmerksamkeit der Massenmedien.

1987: Die Deutsche Meteorologische Gesellschaft (DMG) schließt sich der Warnung des AKE an, ersetzt aber das Schlagwort „Klimakatastrophe“ durch den sachlicheren Terminus „Klimaänderungen“.

1988: James Hansen, der Direktor des New Yorker Goddard Institute for Space Studies der NASA, erklärt vor einem Ausschuss des US-Senats, mit „99-prozentiger Sicherheit“ sei nachgewiesen, dass der „menschengemachte Treibhauseffekt unser Klima bereits verändert.“ Darauf hin gründen die World Meteorological Organization (WMO) und das UN-Umweltprogramm (UNEP) das International Panel on Climate Change (IPCC).

1991: Die dänischen Physiker Friis-Christensen und Lassen weisen in „Science“ auf auffällige Parallelen zwischen dem Sonnefleckenzyklus und der Entwicklung der mittleren Temperatur über den Landmassen der Erde hin.

1992: Die UN-Konferenz über Umwelt und Entwicklung (UNCED) in Rio de Janeiro verabschiedet das „Rahmenübereinkommen der Vereinten Nationen über Klimaänderungen“ (Klimakonvention).

1995: Auf der 2. Vertragsstaatenkonferenz der Klimakonvention in Berlin profiliert sich Deutschland erneut als Vorreiter des „Klimaschutzes“. International bindende Beschlüsse kommen nicht zustande.

1996: Der IPCC veröffentlicht seinen 2. Bericht. In seinen politischen Empfehlungen steht der vielzitierte Satz: „The balance of evidence suggests a discernible human influence on globale climate.“

1997: Die 3. Vertragsstaatenkonferenz der Klimakonvention in Kyoto einigt sch in letzter Minute auf bescheidene völkerrechtlich verbindliche Vorgaben für die Verminderung des Ausstoßes von CO2 und fünf weiterer „Treibhausgase“.

1999: Ein Statusreport führender Klimaforscher, angeführt von den Professoren Tim Barnett und Klaus Hasselmann, kommt zum Schluss, das „anthropogene Signal“ in der Klimaentwicklung sei nicht auszumachen.

2000: James Hansen widerruft seine Aussage von 1988. Eine Gruppe deutscher Geowissenschaftler unter Ulrich Berner und Hansjörg Streif veröffentlicht die Synthese „Klimafakten“, aus der hervorgeht, dass der Einfluss des CO2 auf die mittlere Temperatur der Erde um zwei Größenordnungen geringer ist als der der Sonnenzyklen. Die 6. Klimakonferenz in Den Haag wird im November ohne Ergebnis abgebrochen.

2001: Der neue US-Präsident George W. Bush kündigt in einem Brief vom 13. März an die Senatoren Craig, Hagel, Helms und Roberts den Ausstieg der USA aus dem „Kyoto-Prozess“ an. Durch die Erhöhung seiner Treibhaus-Erwärmungs-Hochrechnung auf bis zu 5,8 °C bis zum Ende des Jahrhunderts versucht der IPCC in seinem 3. Bericht die Kyoto-Beschlüsse zu retten.. Die Klimakonferenz von Den Haag wird im Juli in Bonn fortgesetzt. Zu einer Einigung kommt es schließlich erst im November in Marrakesch. Schon vor dem „Klima-Gipfel“ von Marrakesch schlägt die EU-Kommission ein rationierendes System der „Luftbewirtschaftung“ mithilfe handelbarer „Treibhausgasemissionsberechtigungen“ vor.

(erschienen Ende 2002 in „Chemische Rundschau“, CH-Solothurn)

The Market, a Civilizing Achievement

The market – our greatest civilizing achievement

by Edgar Gärtner*)

Europe’s writing fraternity loves making fun of creationism; that religious belief cloaked in scientific terminology and dubbed ‘intelligent design’- currently so aggressively promoted throughout America’s Bible Belt. Yet, across Europe, many commentators are helping promote a world view which has a great deal in common with that much derided theory. What’s at issue is Europe’s abject rejection of unfettered free trade and unchecked market globalization. They decry free trade in the name of social justice, precautionary measures and sustainable development. Their argument implies that our market economy is primitive – morally inferior to allegedly ‘superior’ systems based on constructivism. In today’s Europe, the Precautionary Principle has clearly assumed that very same place held by Divine Providence in the theology-centred pre-Darwinian world order.

The commentators’ propaganda is hitting its mark. More than 50 percent of Germans are against the market economy. Almost three quarters of the French are even convinced that their country would be better off were they all to become civil servants of the state. Yet, instead of rising to new challenges, people are increasingly seeking refuge in the disempowering embrace of the authoritarian state. Only such things as farmers’ markets and craft fairs inspired by romantic rustic notions are currently doing well across Europe, as are manipulated political playing fields, viz the wrangling over greenhouse gas emission rights. Even in the US there is growing support for protectionist efforts.

This begs the question whether, and to what extent, the free market is compatible with human nature. Likewise, to what extent can humankind afford to do without the market – to lay aside competition as the key tool for the management of food supplies, raw materials, financial and scientific resources. In the US, researchers such as Leda Cosmides and John Tooby (University of California, Santa Barbara), founders of the school of Evolutionary Psychology, are investigating this very question. Their starting point: If the slogan “One world” has any sort of relevance, then we should broadly treat psychology, sociology or economics as branches of biology.

Researchers in evolutionary psychology are also investigating whether, and under what circumstances, collectives make more intelligent decisions than lone individuals. We have long been aware that large-scale collectives do not necessarily make better decisions. Gustave Le Bon developed the theory of crowd psychology more than a century ago. As modern research into the psychology of mobs confirms, a mob has less brain power than the most dim-witted rabble straggler. Instead of getting support from the collective effort, individuals within a group become intellectually bogged down in this amorphous mass of humanity.

The creation of hierarchical societies is one of the historical prerequisites of smart collective decision-making. The family is such a society’s smallest unit and is integrated into a clan which, research tells us, has served for generations as the means of exchange and as a mechanism to convey experience. For around one and a half million years, humankind subsisted as hunter-gatherers in bands with no more than 150 members; these were bound together by a pronounced sense of “us” – a palpable group egoism. A corresponding enmity towards competing clans reinforced this bonding mechanism. Our brains have developed specialist adaptations for this clan-based way of life, each designed to help solve the problems that these small bands of humans confronted on a daily basis.

Humankind first began living in larger groups a mere 10,000 years ago; this transition came hot on the heels of the Neolithic revolution which brought agriculture and livestock-raising. New technology now enabled modest food and clothing surpluses, thus the first towns sprang up, their inhabitants no longer obliged to eke out an existence through hunting or foraging. Some 10,000 years are insufficient, the human brain is still struggling to adapt to this new ecological niche and seismic shift in living, even if neurologists and paleontologists can demonstrate that the human brain has evolved more rapidly than previously considered. For example, in the past 10,000 years, it has in fact developed new skills such as perfecting our speech capacity. However, one thing still holds true: we are called upon to function in the modern world using stone-age brains.

The human brain was simply not designed to solve problems collectively, especially those that concern more than 150 individuals. Much has been written in recent years about ‘150’ – that magic number that tips the scales, as highlighted by “The Tipping Point” that bestseller authored by celebrated American journalist Malcolm Gladwell (New York 2000). The Anabaptist sect the Hutterites’ have a well-known rule of thumb: collectives that grow larger than 150 members are better off splitting into two or more relatively independent communities. This guideline has also been adopted by several internationally-renowned big businesses! It’s not by chance that the average person’s address book entries seldom top that magic number. It is quite a feat for any one individual to personally know and keep track of more people than that at any one time.

To date, humankind has only developed two means to address problem-solving for collectives topping 150 members: the market and bureaucracy. The market attempts to balance the wants and needs of many with the knowledge of how to satisfy those needs and thus ensure the survival of bigger collectives; it predates and is clearly more effective than bureaucracy. Archeological excavations tell us that Cro-Magnon man practiced the division of labour and engaged in long-distance trade – such advantages enabled our ancestors to survive the last Ice Age. The Neanderthals who inhabited Europe at the same time were more robust physically than their Cro-Magnon counterparts. However, Neanderthals died out as they most likely never made the mental leap between personal direct exchange within the clan and impersonal exchange in the broader marketplace.

The human brain is poorly equipped to deal with markets, witness our hard-wired instincts such as promoting the interests of the clan and our obsession with hierarchy and jealousy. Hunter-gatherers think in terms of a zero sum game; they cannot grasp that the exchange of goods and services adds value and that this creates economic growth. This mental block engenders a deep-seated aversion towards strangers and long-distance trade.

The first, and most important, cultural achievement in human history centred on conquering this aversion. By overcoming our reticence towards long-distance trade and impersonal exchange Homo first became sapiens. Friedrich August von Hayek, awarded the Nobel Prize in 1974, set this out clearly: Early man, by contrast to his forefathers who limited themselves to direct exchange within the clan, had to learn to co-exist in two very different worlds: one, the ‘warm’ microcosm held together by family bands and, two, the ‘cold’ macrocosm, an impersonal world governed by the abstract marketplace rules. We’d be politically incorrect, yet also entirely justified, in describing those people who fail to achieve this very same conceptual leap as pre-human.

We don’t know if it was sheer necessity that drove our prehistoric ancestors to embrace long-distance trade or whether their myths helped them to overcome that fear of the unknown implicit in engaging in anonymous trade over extended distances. We can assume that prehistoric people could only place their faith in the impersonal market through the aid of religious symbols, cults and beliefs. The cave paintings they left behind would lead us to suppose this. Certain conceptual adaptations would have served them which are proving better suited to modern-day life than those touched on thus far. These include the concept of property ownership, the power of empathy, engendered courtesy of so-called mirror neurons; similarly, altruism, and the willingness to trade with strangers for mutual advantage.

The human brain has a strong predisposition towards bureaucratic thinking which outweighs its ability to trade in big impersonal markets. Envy, veiled as the push for equality, constantly sparks new misgivings vis-à-vis the market supply/demand equation. Although humanity most likely owes its survival to free trade and the division of labour, we have all too often given in to the temptation to build up big bureaucratic organizations and to blindly place our trust in these. Thereby laying aside alternative means, such as addressing our needs through adapting existing power structures.

Bureaucracy remains a necessary evil; it cannot ever be entirely eradicated. Even the boldest, most radical classical-liberal, libertarian utopias founded solely on the marketplace and private property rights fail to achieve this. As, even these would need banks and insurance agencies and private protection, if not a fully-fledged army to handle security. Insurance firms and armies are clearly quintessential bureaucratic structures. Also, essential prerequisites for an effective market economy such as bookkeeping and statistics are unthinkable without bureaucratic management structures. Bureaucracy is our fate.

However, we need to steer clear of glorifying bureaucratic solutions or even building them up as religious icons. The assertion that bureaucratic solutions are the sole path to peace and prosperity is a dangerous falsehood. The Stone Age instinct to strengthen one’s power base tends to kick in at every envy-laced big bureaucratic organization. One glance at our bureaucratic neighbour France bears this out.

In order to create a ‘balanced’ relationship between bureaucracy and the market economy – that is, to ensure that envy and self-interest does not stifle all new invention – politics needs to grasp the concept of becoming first and foremost a framework for regulatory policy. Thereby, curbing bureaucracy’s expansionist goals and thus ensuring sufficient scope to develop new ideas through trial and error. However, this becomes impossible wherever politics itself has been shot through by the spirit of bureaucracy.

For example, I see the soon-to-be-adopted EU chemicals legislation REACH (Registration, Evaluation, Authorisation and Restriction of Chemicals) as the monster child of bureaucratic arrogance. When I first read the ‘White Paper’ on chemicals safety some five years ago, the Old Testament story of the Tower of Babel immediately sprang to mind. In order to comply with this new White Paper, manufacturers, processors and users of chemicals would be required to conduct tests on more than 40 million laboratory animals and compile around 100 million Chemical Safety Reports (CSR); each of up to 200 pages. Who was supposed to be reading, comprehending and acting on all this? In the meantime, the REACH proposal has been dramatically improved after seasoned industry professionals raised numerous objections to the legislation. This ambitious body of regulations cannot be put into practice without ample scope for market-based investigative processes for knowledge and risk management.

These well-meaning, but ultimately scarcely practical, attempts at regulation (such as REACH), hint at the underlying principles of ‘intelligent design’: they assert that one can know what will eventually be borne out in proof from the outset. Yet, both market supply and demand as well as bureaucratic attempts to solve problems, often provide results that have all too little in common with the outcome anyone was seeking. Yet as a rule, the market normally brings positive surprises, whereas the results of bureaucratic approaches all too often disappoint.

Market developments follow the pattern of natural evolution. However, it seems unlikely that when faced with problems of resource, risk and knowledge management we can come up with market-orientated solutions, given that our brain is still largely geared to a hunter-gatherer lifestyle. Yet, black markets spontaneously emerge either through pressure or need, but ostensibly no sustainable market economy ever appears to. Functional markets require, irrespective of how paradoxical this may sound to some, the conscious, planned support of competition-friendly, cultural and legislative framework conditions.

Populist politicians have an easy ride in a world that has lost touch with transparency; they count on our Stone Age instincts to kick in. For instance, when these politicians warn us of a so-called imminent climate catastrophe, they are tapping into our primeval fear that the sky could fall in on our heads. With their so-called ‘climate policy’ – pure ‘intelligent design’ – these politicians have managed to appease angry taxpayers. This policy attempts to alter chaotic processes affecting the entire planet by manipulating one small input factor – CO2 emissions, supposedly thereby steering climate trends in the desired direction. Thus, it was only a question of time before conservative US Evangelists adopted these climate change superstitions, climbing on the global warming bandwagon. Perhaps we should leave them to it and not act as if climate change policy were synonymous with the European Enlightenment ideals.

Putting in place a sustainable market-based order is a cultural imperative which will require active implementation. It clashes however with our primitive human instincts. Yet these moves need not take the form of a crusade against bureaucracy. Much would be gained were it to be made clear to the bureaucrats that they are here to serve the market, and not the other way round. The onus is on us to say: ‘if you reject the market then you are obviously unsophisticated’. Family upbringing and schooling have a central role to play here: Both must spark in young people the courage to tolerate uncertainties and to trust in the discovery processes of globalised markets. I see this as the most important prerequisite of an expanded and less transparent European Union, with the end goal being a new rational assessment of the risks associated with the use of certain chemicals and new technologies.

*) Edgar Gärtner trained as a hydrobiologist. He is a science writer on chemicals and energy. From 2005 to 2007 he has headed up the Environment Forum for the Centre for the New Europe (CNE), a classical liberal think tank based in Brussels.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Ill defined precaution is paving the way to nihilism. I was demonstrating this at the last year’s European Freedom Summit in Berlin.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Diplomatie statt Kreuzzug im Rio-Prozess

Gespräch mit den französischen Wissenschaftsforscher Bruno Latour über das Vorsorgeprinzip

Gärtner: Monsieur Latour, nach quasi offizieller Lesart wurde vor nunmehr zehn Jahren auf der Rio-Konferenz in Form von Rio-Deklaration, Klima-Rahmenkonvention und Agenda 21 ein „planetarer Konsens“ über die rationelle, wissenschaftlich begründete Bewirtschaftung der Ressourcen der Erde und über die Orientierung von Politik und Wirtschaft am „Vorsichtsprinzip“ erzielt. Danach soll ein Mangel an wissenschaftlicher Gewissheit nicht als Rechtfertigung für das Aufschieben kostenträchtiger Maßnahmen zur Abwehr drohender Gefahren für Gesundheit und Umwelt herhalten können. Mit dem Kyoto-Protokoll über die Reduktion des Ausstoßes sogenannter Treibhausgase und den auf den internationalen Klimakonferenzen von Den Haag, Bonn und Marrakesch erzielten Regelungen über den Handel mit Emissionsrechten soll diese Forderung eingelöst werden. Liegt diesem Ansatz einer Neubestimmung des Verhältnisses von Wissenschaft und Politik nicht ein Missverständnis zugrunde?

Latour: Ich denke, dass in den von Ihnen erwähnten Klimakonferenzen schon etwas von dem von mir angeregten „Parlament der Dinge“ vorweggenommen worden ist. Es gab dort eine politische Repräsentation nichtmenschlicher Wesen. Die Verhandlungen zwischen Staatsmännern, Diplomaten und Experten drehten sich nicht mehr um zwischenmenschliche Probleme wie den jetzt im Nahen Osten wieder aufflammenden archaischen Hass. Sie beschäftigten sich mit etwas, das als globale Bedrohung gilt, mit einem Risiko, das alle Menschen betrifft. Und diese Gefahr geht nicht von anderen Menschen aus, sondern von einer Assoziation zwischen Menschlichem und Außermenschlichem. Das verändert die Ausgangslage der Politik. Wie Sie vielleicht wissen, halte ich es mit Carl Schmitt, der das Wesen politischer Souveränität im Monopol der Bestimmung des Feindbildes sah. Das Feindbild der politischen Ökologie unterscheidet sich von den Feindbildern der Modernisten nur dadurch, dass es an die Stelle von Menschen mit bestimmten, als bedrohlich empfundenen religiösen und politischen Überzeugungen Assoziationen beziehungsweise Kollektive von menschlichen und nichtmenschlichen Wesen setzt, die öffentlicher Regelung bedürfen. Deshalb glaube ich, dass die zitierten internationalen Foren richtungsweisend sind.

Gärtner: Sie wären also einverstanden mit dem, was der bislang erfolglose US-Präsidentschaftskandidat Al Gore kurz vor dem Rio-Gipfel in seinem Bestseller „Earth in Balance“ dargelegt hat. Da dem Westen durch den Zusammenbruch des sozialistischen Ostens das Feindbild abhanden gekommen sei, forderte Gore dort, die seines Erachtens drohende globale Klimakatastrophe zum neuen Feindbild zu erklären. Denn ohne ein solches sei es nicht möglich, den Zusammenhalt der freien Welt zu wahren.

Latour: Nach dem 11. September besteht dafür offenbar keine Notwendigkeit mehr. Der Westen hat im Terrorismus wieder einen klassischen Feind gefunden. Wir sind zur alten politischen Konstellation des Kampfes Mensch gegen Mensch zurückgekehrt. Die Sorgen um die Zukunft unseres Planeten, die alle Menschen teilen könnten, treten in den Hintergrund, was sich auch im Bedeutungsverlust grüner Parteien niederschlägt. Übermenschliche Wesen, Götter spielen nun wieder eine größere Rolle als die Beziehungen zwischen den Menschen und der irdischen Atmosphäre.

Gärtner: Um zum Rio- beziehungsweise Kyoto-Prozess zurückzukehren: Wäre es nicht besser gewesen, mithilfe sauberer Laborexperimente zu klären, was die heute auf der Anklagebank sitzenden atmosphärischen Spurengase wie Kohlendioxid tatsächlich zu tun in der Lage sind, bevor man lediglich auf Computersimulationen fußende politische Klimaschutz-Programme beschließt, die einen Markt für den Handel mit Emissionsrechten öffnen, dessen Volumen auf bis zu 350 Milliarden Dollar geschätzt wird? Ich möchte damit nicht anzweifeln, dass auch scheinbar wertfreie naturwissenschaftliche Begriffe wie etwa der Atom- oder der Gen-Begriff in Wirklichkeit interessengeleitete Konstrukte sind. Es geht mir vielmehr um den harten Kern wissenschaftlicher Experimente, der willkürlichen Interpretationen widersteht. Finden Sie es nicht bedenklich, dass sich die Klimapolitik auf Annahmen stützt, die sich experimentell nicht verifizieren lassen?

Latour: Nein, denn die Klimapolitik selbst ist das längerfristig angelegte Experiment im Maßstab eins zu eins, dessen Ergebnisse wissenschaftlich ausgewertet werden müssen. Ich sehe keinen grundlegenden Unterschied zwischen der Klimaforschung, die mithilfe von Satelliten und großen Computern die ganze Erde in ein Laboratorium verwandelt, und herkömmlichen Experimenten in kleinerem Labormaßstab. Ich halte die bei Ihnen anklingende Unterscheidung zwischen wahren und falschen Wissenschaften für unfruchtbar, denn als wahre Wissenschaft erscheint immer die Disziplin, die man selbst betreibt, und als falsche die in der Nachbarschaft forschende. Jedes Fach definiert sich durch eine eigene Liste von Prioritäten. Ich halte für die Beurteilung einer Naturwissenschaft nicht das experimentelle und theoretische Niveau für ausschlaggebend, sondern die Art der Repräsentation des Nichtmenschlichen, mit dem die Menschen leben müssen. Im Übrigen sind die Probleme des Übergangs vom Labormaßstab ins Freiland oder zur großen Industrie nicht geringer als die Probleme der Interpretation von Computersimulationen.

Gärtner: Sie kennen doch sicher die Arbeiten des deutschen Wissenschaftssoziologen Peter Weingart über die Ablösung der zunächst fast einhelligen Erwartung einer neuen Eiszeit durch die vage Hypothese einer drohenden Überhitzung der Erde und deren Verwandlung in einen politischen Issue ersten Ranges. Weingart und seine Mitarbeiterinnen haben gezeigt, dass die Klimaforschung in Form aufwändiger „big science“ ohne das Schüren von Ängsten durch profilierungssüchtige Berufspolitiker und sensationshungrige Massenmedien nicht das geworden wäre, was sie heute ist.

Latour: Ich finde daran nichts Ungewöhnliches. Alle Naturwissenschaften erhielten ihre entscheidenden Anstöße von außen. Alle Wissenschaften verbünden sich auf die eine oder andere Weise mit oft zwielichtigen politischen, militärischen und wirtschaftlichen Interessen. Die Geschichte der Klimaforschung unterscheidet sich da meines Erachtens kaum von der Atomphysik oder vom Siegeszug der von Louis Pasteur und Robert Koch begründeten Mikrobiologie, die ich besser kenne, weil ich selbst darüber geforscht habe. Man kann Wissenschaften nicht nach dem Grad ihrer Verunreinigung beurteilen, weil sie von vornherein Hybridwesen sind.

Gärtner: D’accord. Aber sehen Sie nicht im Falle der Klimaforschung besondere Schwierigkeiten der interdisziplinären Zusammenarbeit? Um zu verdeutlichen, was ich meine: Die Atmosphärenphysiker beschäftigen sich beinahe ausschließlich mit Strahlung, während die Chemiker nur Kollissionen zwischen Molekülen sehen. Beide kommen zu ganz unterschiedlichen Einschätzungen des Gefährdungspotentials von Treibhausgasen. Die Geologen und die Astronomen wiederum beschäftigen sich längerfristigen Trends und richten ihr Augenmerk auf den Einfluss der Sonnenzyklen. Durchgesetzt hat sich in der Öffentlichkeit die Sichtweise der Physiker und mathematischen Modellierer. Die Einwände von Chemikern, Astronomen und Geologen kommen kaum zum Tragen.

Latour: Dann müssen die sich halt besser Gehör verschaffen. Ich sehe da eine ganz normale politische Situation. Dass sich die Wissenschaftler untereinander nicht einig sind über Dinge und Prozesse, die wir nicht mit bloßem Auge beobachten können und in die wir selbst einbezogen sind, überrascht nicht. Überraschend wäre es vielmehr, wenn sie zu einem Konsens gelangten. Deshalb brauchen wir ja so etwas wie ein „Parlament der Dinge“ in dem nicht nur politische, sondern auch wissenschaftliche Kontroversen ausgetragen werden. Die Hoffnung, solche Kontroversen durch ein einstimmiges Votum der Wissenschaft beenden zu können, halte ich für völlig unbegründet. Ich halte für anormal, was ich als „modernistische Situation“ bezeichnet habe, als sich Entscheidungsträger auf eindeutige Beweise der Wissenschaft berufen zu können glaubten.

Gärtner: Genau diesen Eindruck versucht aber doch die Klimapolitik zu vermitteln, wenn sie sich auf einen angeblichen Konsens zwischen Tausenden von Wissenschaftlern im International Panel on Climate Change (IPCC) beruft. Unter anderem aus diesem Grund stehe ich dem Rio-Prozess so skeptisch gegenüber. Denn die Rio-Deklaration und die Klima-Rahmenkonvention sind meines Erachtens zutiefst durchdrungen von der von Ihnen kritisierten modernistischen Sichtweise und von technokratischem Machbarkeitswahn. Sie erwecken den Eindruck, die Ressourcen der Erde planmäßig verwalten und die Entwicklung der Menschheit entsprechend einer einzigen Logik steuern zu können.

Latour: Skepsis gehört zu den Tugenden der Journalisten. Es gehört zu Ihren Aufgaben, möglichst viele unterschiedliche Stimmen zu Wort kommen zu lassen. Und die Wissenschaftspolitik sollte mit den ihr zur Verfügung stehenden Finanzmitteln versuchen, verschiedene Forschungsansätze in Wettbewerb treten zu lassen, um zu verhindern, dass sich die ganze Welt auf einen Weg begibt, der sich am Ende als Sackgasse erweisen kann. Noch einmal: Ich halte es für abwegig zu erwarten, die Wissenschaft könne jemals mit einer Stimme sprechen. Aufgabe der wissenschaftlichen Disziplinen ist es, die Zahl potentieller Wesen zu vervielfältigen, mit denen wir zusammenleben müssen. Wir befinden uns, was das Klima anbelangt, in einem Realexperiment. Sollte es sich in den kommenden Jahrzehnten herausstellen, dass Schwankungen der Sonnenaktivität größeren Einfluss auf die Entwicklung des Weltklimas haben als das CO2, heißt das nicht einfach, dass wir uns geirrt haben, als wir auf die CO2-Reduktion setzten. Wir müssen lediglich die Zahl der Wesen aufstocken, mit denen wir unsere gemeinsame Welt aufbauen. Wir können dann den Schwankungen der Sonneneinstrahlung größeres Gewicht beimessen und die Bedeutung des Kohlendioxids entsprechend herunterstufen. Die Wissenschaftspolitik muss nur darüber wachen, dass nicht eine einzige Schule von Forschern alles beherrscht.

Gärtner: Kommen wir zum Vorsichts- oder Vorsorgeprinzip: Die oft zitierte Formel der Rio-Deklaration hat ja inzwischen in der Europäischen Union Gesetzeskraft erlangt. Sie haben aber gelegentlich schon selbst darauf hingewiesen, dass dieses Prinzip alles andere als eindeutig ist und Entscheidungen nicht unbedingt leichter macht. Ihr Freund und Kollege, der Philosoph Jean-Pierre Dupuy, hat sich kürzlich sogar öffentlich gefragt, ob das Vorsichtsprinzip nicht eine Anmaßung darstellt.

Latour: Ich glaube, im Vorsichtsprinzip drückt sich eine tiefgreifende Veränderung im Verhältnis zwischen Wissen und Handeln aus. Ich halte es für eine bedeutende mentale und juristische Innovation, weil es zwei Dinge zusammenbringt, die bislang getrennt waren: die Unsicherheit und das menschliche Handeln. Vor der Codifizierung des Vorsichtsprinzips bestand bei uns die Tendenz, politisches und wirtschaftliches Handeln von sicherem Wissen abhängig zu machen. Gab es wissenschaftliche Gewissheit, wurde man aktiv, fehlte diese, wartete man ab. Nun gilt in Europa das Prinzip, bei begründetem Verdacht auch dann zu handeln, wenn noch keine gesicherte wissenschaftliche Erkenntnisse vorliegen. Die eingeleiteten revidierbaren Maßnahmen gelten dann als Realexperiment, dessen Verlauf wissenschaftlich begleitet werden muss. Über dieses Vorgehen streiten sich die Mitglieder der EU zur Zeit mit der US-Regierung nicht nur in der Frage des Klimawandels, sondern auch in der Agrarpolitik.

In Europa gelten die rasch eingeleiteten Maßnahmen als kollektives Experiment, das dazu dient, die Gewissheit zu erlangen, die zunächst fehlte. Deshalb halte ich das Vorsorgeprinzip nicht für eine Anmaßung. Es handelt sich meines Erachtens vielmehr um die kollektive Anwendung uralter von den Individuen im Alltag eher unbewusst befolgter Regeln der Vorsicht: Man ist sich verschiedener Gefahren und Unsicherheiten bewusst, trifft aber dennoch Entscheidungen, weil man weiß, dass Zaudern gar nichts bringt. Zum Beispiel, wenn man sich entschließt, Kinder in die Welt zu setzen, Bäume zu pflanzen oder zur Bank zu gehen. Diese im Alttag bewährte Regel wurde bei wissenschaftlich begründeten oder verbrämten technokratischen Entscheidungen leider außer Kraft gesetzt.

In Frankreich konnten wir am Beispiel AIDS-verseuchter Blutkonserven, die Tausende von Todesopfern forderten, studieren, wohin die technokratische Politik des Abwartens von Gewissheit führen kann. Daraus haben wir gelernt, das Gemeinwesen schon bei Verdacht zu alarmieren, rechtzeitig Maßnahmen einzuleiten und Forschungsprogramme aufzulegen, die in der Praxis nur zum Teil revidierbar sind. Ich halte es für abwegig, mithilfe des Vorsorgeprinzips auch Abwarten, Nichtstun begründen zu wollen.

Frage: Sie wissen sicher, dass das Vorsichtsprinzip seit langem Bestandteil des ungeschriebenen Codes guter kaufmännischer Praxis ist. Auch die in den Rio-Dokumenten erwähnten „No Regret“-Maßnahmen, die der Sicherheit dienen, sich aber auch ohne diesen Zweck rechnen können, wie etwa das Energiesparen, das auch ohne Angst vor einem Klimakollaps sinnvoll sein kann, sind für Kaufleute nichts Neues. Vielleicht ist diese Sichtweise lediglich in der zentralistischen französischen Technobürokratie ausgeblendet worden. Deshalb frage ich mich, warum man heute in Europa so viel Aufhebens von einem Prinzip macht, das gar nicht neu ist. Versteckt sich hinter der Betonung des Vorsorge-Grundsatzes durch Inhaber der politischen Macht nicht klassischer Machiavellismus?

Latour: Man kann den Politikern nicht vorwerfen, machiavellistisch zu denken und zu handeln. Das gehört zu ihrem Job.

Frage: Gibt es aber nicht Fälle, in denen das Vorsorgeprinzip Abwarten statt blinden Aktionismus nahelegt, weil das ökonomisch auf jeden Fall billiger käme? Ich denke da an die Begründung der Ablehnung des Kyoto-Protokolls durch die Bush-Regierung. In seinem im Jahre 2002 vorgelegten „Clear Skies“-Programm hat sich der US-Präsident ehrgeizige Reduktionsziele für die Schadstoffe Schwefeldioxid, Stickoxide und Quecksilber gesteckt, aber absolute Reduktionsvorgaben für Kohlendioxid abgelehnt. Seine Begründung: Der gesunde Menschenverstand verbiete es, CO2 wie die zuvor genannten Schadstoffe zu behandeln, weil es ungiftig ist, viel enger mit dem erwünschten Wirtschaftswachstum zusammenhängt und nicht durch Filter oder Katalysatoren neutralisierbar ist. Wenn ich es richtig verstanden habe, haben Sie doch selbst in Ihrem 1999 erschienen Buch „Pandora’s Hope“ nahegelegt, den gesunden Menschenverstand zu rehabilitieren. Sollte in der Politik nicht auch der Alltagsverstand, der „bon sens“ von Laien berücksichtigt werden?

Latour: Der Alltagsverstand kann zur Beurteilung der Klimaentwicklung und anderer nicht über die fünf Sinne erfahrbarer Prozesse nichts beitragen. Wenn Sie das glauben, tappen sie in die Falle des Anti-Intellektualismus.

Frage: Müssen Laien erst Lehrbücher der Klimatologie studieren, bevor sie an die Wahlurne gehen oder an dem von Ihnen angeregten „Parlament der Dinge“ teilnehmen können? Wer vertritt die vermutlich relativ zahlreichen Menschen, die die Erwärmung der Erde gar nicht als Bedrohung empfinden? Unterscheidet sich der Kenntnisstand von Experten und Laien angesichts der von Ihnen betonten Ungewissheit überhaupt grundlegend? Irrt der gesunde Menschenverstand, wenn er bei der so schwer durchschaubaren Klimaentwicklung davon ausgeht, dass das Klima der Zukunft, wie das Wetter von heute und morgen, ohnehin kommt, wie es kommt und wir uns dem entsprechend leichter oder wärmer anziehen müssen?

Latour: Wollen Sie mich in eine poujadistische Kampagne hineinziehen? Ich denke, die Menschen in Bangladesh werden Ihnen da nicht folgen. Ich bleibe bei meiner Ansicht, dass die Klimapolitik ein vielversprechender Weg ist, um die Welt nach und nach zu einem gemeinsamen Haus zu machen. Es geht darum, die Menschen in einen Alarmzustand zu versetzen, damit sie sich um Bedrohungen kümmern, die sie mit bloßem Auge nicht wahrnehmen und mit dem Alltagsverstand nicht beurteilen können. Es geht darum, die politische Arena neuen Problemen und deren Repräsentanten zu öffnen. Angesichts der Tragweite der potentiellen globalen Bedrohung können wir nicht abwarten, bis wir wissen, welche Gegenmaßnahmen gerechtfertigt sind.

Wir können, glaube ich, die heutige Situation mit der Zeit der Kalten Krieges vergleichen. Damals wurden unvergleichlich größere Summen ausgegeben, um der meines Erachtens ebenso hypothetischen Bedrohung durch einen sowjetischen Atomschlag zu begegnen. Damals hat der Westen schon das Vorsorgeprinzip, wie wir es heute in der Klimapolitik verstehen, angewandt.

Gärtner: Der amerikanische Politikwissenschaftler Aaron Wildavsky ist in einem 1995 posthum erschienen Buch genau dieser Frage nachgegangen. Wildavsky wies nach, dass die der Klimapolitik zugrunde liegende Denkfigur ein Kind des Kalten Krieges ist. Damals ging es für den Westen ums Ganze. Kostenüberlegungen wurden zweitrangig. Wildavsky betonte allerdings, dass die sowjetische Bedrohung, wie wir nach der Öffnung der Archive wissen, durchaus real war, während vom Klimawandel keine vergleichbare Bedrohung von Freiheit und Wohlstand ausgehe. In diesem Falle dürfe die Frage der Wirtschaftlichkeit von vorbeugenden Maßnahmen nicht unter den Tisch fallen.

Vielleicht ist es aber nicht ganz fair von mir, wenn ich Sie jetzt auf die Klimapolitik festzunageln versuche. Sie haben sich, glaube ich, intensiver mit dem sogenannten Rinderwahnsinn (BSE) beschäftigt. Auch dieser gilt ja als Paradebeispiel für die Anwendung des Vorsorgeprinzips.

Latour: Bei der Behandlung der BSE-Krise durch die Instanzen der EU hat das Vorsorgeprinzip als Argument in der Tat eine große Rolle gespielt. Offensichtlich haben viele Politiker und Beamte aus dem französischen Blut-Skandal gelernt und Gegenmaßnahmen eingeleitet, ohne endgültige Beweise für das Ausmaß der Gefahr abzuwarten. Inzwischen gibt es sogar die Tendenz, ins andere Extrem zu verfallen und exzessive Vorsichtsmaßnahmen zu ergreifen. Wir beobachten eine Ausbreitung der experimentellen Kultur vom Labor in die Öffentlichkeit. Dadurch verändert sich übrigens gerade bei uns in Frankreich das Verhältnis der Bürger zum Staat. Dieser erscheint nicht mehr als neutraler Garant wissenschaftlicher Wahrheit.

Gärtner: Auch hier muss ich Sie wieder provozieren: Es hätte doch vermutlich keinen großen Zeitverlust bedeutet, hätten die zuständigen Stellen der EU und ihrer Mitgliedsstaaten erst einmal versucht, experimentell zu klären, ob Prionen im Tiermehl oder in Steaks überhaupt infektiös sind, bevor sie die Verbrennung ganzer Rinderherden anordneten. Da ich als Bauernsohn weiß, dass die BSE-Symptome keineswegs neu sind, hege ich den Verdacht, dass die EU-Bürger auf Betreiben bestimmter Lobbies hinters Licht geführt wurden und dass die Sonntagsreden über die Vorsorge-Philosophie nur dazu dienten, das zu bemänteln.

Latour: Vom Vorsitzenden der bei uns zuständigen Kommission weiß ich, dass es in der Tat nicht den geringsten Beweis für die Infektiosität von Prionen gibt. Aber Ihr Einwand deutet an, dass Sie vermutlich noch dem alten Denkschema anhängen und zur modernistischen Übereinkunft zurückkehren wollen. Sie verdächtigen Wissenschaftler und Behörden, manipuliert zu sein. Ich sehe hingegen in der Situation der Ungewissheit keinen anderen Weg, als den generellen Alarmzustand auszurufen und ein kollektives Experiment anzustellen. Zuvor mit Autorität ausgestattete Experten werden dabei zu Forschern, die viele Fragen haben, aber kaum Antworten. Das Verhältnis zwischen Wissenschaft und Gesellschaft verändert sich grundlegend. Das führt gerade in Frankreich mit seiner etatistischen Tradition zu unangenehmen Begleiterscheinungen. Der Staat und die von ihm bestellten Experten wandeln sich in den Augen der Öffentlichkeit von Garanten der Sicherheit zu Repräsentanten der Ungewissheit. Immer häufiger versuchen Bürger, in Strafprozessen gegen Behörden und Experten, im Namen des Vorsorgeprinzips, die verlorene Sicherheit als eine Art Gewohnheitsrecht einzuklagen. Ich halte das aber für ein Übergangsproblem.

Gärtner: Ich bleibe bei der Annahme, dass in der BSE-Krise nicht alles mit rechten Dingen zugegangen ist. Denn bei uns in Deutschland stehen wir nicht nur vor dem Problem einer allgemeinen Verunsicherung der Bevölkerung. Denn die Regierung hat den Bürgern gleichzeitig nahegelegt, sich in einer trügerischen Sicherheit zu wiegen, indem sie sogenannte Agrarfabriken verteufelt und den Verzehr von Öko-Produkten empfohlen hat. Nun finden wir Kühe, die ihr Leben lang nur Gras gefressen haben und trotzdem an BSE erkrankt sind. Wem sollen die Leute jetzt überhaupt noch glauben? Gebietet das Vorsorgeprinzip, so wie Sie es verstehen, nicht eine gewisse Chancengleichheit für gegenteilige Argumente, um die experimentelle Suche nach Problemlösungen nicht auf falsche Fährten zu führen?

Latour: Ich hoffe, Sie erwarten die Antwort nicht von einer Überwissenschaft oder von einem erleuchteten Genie. Wir müssen davon ausgehen, dass wir im Dunkeln tappen. Wir können nur versuchen, Institutionen zu erfinden, die uns einige provisorische, vom Kollektiv geteilte Gewissheiten vermitteln können.

Gärtner: Ich stimme Ihnen in vielem zu. Aber es fällt mir schwer, mir vorzustellen, wie der Aufbau der „einen Welt“ mithilfe Ihres Parlaments der Dinge bewerkstelligt werden soll. Das erinnert mich zu sehr an Habermas und seine rationalen Diskurse. Die Erfahrung lehrt aber, dass in solchen Diskussionen meistens alles zerredet wird und dass es um einen vorhandenen Konsens schon geschehen ist, sobald darüber öffentlich debattiert wird…

Latour: Sie wissen, dass ich die „eine Welt“ im Unterschied zu naiven Ökologisten und Rationalisten nicht naturalistisch als vorgegeben ansehe, sondern im Sinne Kants als „regulative Idee“ verstehe. Sie muss erst konstruiert werden. Ich bezweifle, ob man dafür einen Konsens braucht. Wir müssen lediglich verhindern, dass Uneinigkeit und Konflikt zur Delegitimierung führen. Ich setze mich da deutlicher von der Diskurstheorie von Habermas ab, als Sie vielleicht denken. Bei Habermas weiß man nie, wer eigentlich die Feinde sind. Ich halte mich demgegenüber, wie eingangs erwähnt, eher an Carl Schmitt. Worauf es in der Politik ankommt, ist meines Erachtens nicht der Konsens, sondern die Legitimierung der Feindbildbestimmung. Wenn man wie jetzt im Kampf gegen den Terrorismus nur das Irrationale, Archaische als Feinde ausmacht, hat man noch kein legitimes Feinbild, weil man die Feinde außerhalb der gemeinsamen Welt stellt, sie gewissermaßen zu Untermenschen macht. Davor hat Carl Schmitt 1932 ausdrücklich gewarnt. Der Feind muss so bestimmt werden, dass er auch zum Alliierten taugt.

Gärtner: Dann befinden wir uns aber eher auf dem Parkett der Diplomatie. Darüber steht ja auch einiges in Ihrem neuesten Buch…

Der Suhrkamp-Verlag hat mich nicht gefragt, als er meinem zuletzt ins Deutsche übersetzten Buch den Titel „Das Parlament der Dinge“ gab. Beim Begriff „Parlament“ denke ich nicht in erster Linie an Diskussionen. Parlamente dienen üblicherweise nicht dazu, andere durch Argumente zu überzeugen oder umzustimmen. Das geschieht nur in sehr seltenen Fällen auf der Grundlage einer durch Traditionen bedingten Übereinstimmung von Sichtweisen. In Parlamenten wird wenig diskutiert. Es geht kaum darum, einander zu verstehen. Es überwiegt die Inszenierung der legitimen Konfrontation von Vertretern verschiedener Interessen. Daneben gibt es diplomatische Arrangements. Wirklichen Konsens kann es nur über Verfahren geben, nicht über Ergebnisse. Wir sind viel zu viele auf der Welt, um uns darauf einigen zu können, wie diese aussehen sollte. Von daher habe ich auch keine Probleme mit der Konferenz von Kyoto. Denn ich denke, dass dort die wichtigsten legitimen Interessen vertreten waren und die Verfahrensregeln eingehalten wurden.

Gärtner: Im stimme Ihnen zu, wenn Sie den Akzent mehr auf Diplomatie als auf Verstehen und Konsens legen. Als Biologe ist mir bewusst, dass die menschliche Kommunikation zu zwei Dritteln auf Körpersprache beruht. Hätten wir nur Worte, könnten wir wahrscheinlich einander kaum verstehen. Worin sehen Sie das Wesen der Diplomatie?

Latour: Diplomatie bedeutet, dass es bei einem Treffen keinen Schiedsrichter gibt. Es ist kein Dritter da, der darüber wacht, ob rationale Verhandlungsbedingungen eingehalten werden, und der die eine oder andere Partei des Irrationalismus zeiht, wenn die Verhandlungen scheitern. In der Diplomatie ist vielmehr die Aufrechterhaltung der Zweideutigkeit Bedingung für die Einstellung von Feindseeligkeiten. Mehr ist in der Welt, so wie sie nun mal ist, auch kaum zu erwarten. Die rationale Diskussion ist demgegenüber ein unerreichbares Ideal. Die Möglichkeiten echter Verständigung sind vernachlässigbar gering.

Gärtner: Damit deuten Sie an, was vom eingangs zitierten „planetaren Konsens“ zu halten ist…

Latour: Von einem planetaren Konsens könnte man allenfalls reden, wenn es eine Weltregierung gäbe. Davon sind wir aber wohl seit dem 11. September und der damit zusammenhängenden Verschiebung der politischen Prioritätenskala viel weiter entfernt als im Jahre 1992, in dem ich rückblickend einen Moment diplomatischer Gnade sehe, der so bald nicht wiederkehren wird. Seit dem 11. September stehen in den internationalen Auseinandersetzungen nicht mehr unterschiedliche Naturbegriffe im Vordergrund, sondern gegensätzliche Glaubenssysteme, verschiedene Götter. Die Möglichkeiten, darüber einen Konsens zu erzielen, sind extrem gering. Von der „einen Welt“ sind wir meines Erachtens weiter entfernt als je zuvor.

Der 11. September kann aber auch eine Gelegenheit sein, über bislang von schwarzen, roten und grünen Modernisten auf der Baustelle der „einen Welt“ vergessene oder vernachlässigte Dinge nachzudenken, für deren Einbindung in eine gemeinsame Welt wir einen hohen Preis zahlen müssen, weil sie gefährliche Leidenschaften erzeugen können. Die Einbeziehung vor- oder antimoderner Gottes- und Naturbilder ist weder durch einen Kreuzzug der Modernen gegen alles Finstere und Archaische noch durch die Suche nach einem Konsens über die Bewahrung der armen, ausgebeuteten Natur erreichbar. Ich halte beides für gleichermaßen naiv. In einer Welt, in der Verstehen unwahrscheinlich ist, haben wir nur den Weg der Diplomatie, um Blutvergießen zu verhindern. In der Diplomatie gelten Zweideutigkeiten und Missverständnisse als unvermeidlich. Was dagegen vermieden werden kann und muss, ist die Entmenschlichung des Gegners.

Kommentar:

Latour ist kein Revolutionär

Bruno Latour, geboren 1947, ist Philosoph und Ethnologe. Er forscht und lehrt als Wissenschaftssoziologe an der altehrwürdigen Pariser Elitehochschule École des mines und als Gastprofessor an der London School of Economics. Er ist Mitbegründer einer neuen Disziplin, der Wissenschaftsforschung. Diese gilt als ketzerisch, weil sie den krummen Pfaden der Entstehung naturwissenschaftlicher Theorien nachgeht und dabei mit vielen Legenden und Illusionen aufräumt.

Anfang der 90er Jahre landete Latour mit seinem Essay „Wir sind nie modern gewesen“ (auf deutsch 1995 im Akademie Verlag und 1998 als Fischer-Taschenbuch erschienen) in der Heimat von Descartes eine Provokation, indem er erklärte, die von der europäischen Aufklärung gepflegte Trennung zwischen Objekt und Subjekt, Natur und Gesellschaft, Tatsachen und Werten sei unhaltbar. Latour zeigte, dass sich die Beziehungen zwischen Menschen und Dingen in der Pariser Metro oder in staatlichen Großforschungseinrichtungen mit dem gleichen methodischen Rüstzeug der Ethnologie analysieren lassen wie das Leben der Indianer oder Südsee-Insulaner. Da es unmöglich sei, Menschen und Dinge zu trennen, existierten die Forschungsgegenstände nicht ohne die Forscher und umgekehrt. Vor Louis Pasteur und Robert Koch habe es also keine Mikroben und Fermente gegeben.

Wenn sie Frieden schaffen wolle, könne sich die Politik nicht auf die „modernistische Übereinkunft“ einer unabhängig von menschlichen Interessen existierende Natur berufen, schließt Latour daraus. Über „Natur“ könne man nur im Plural reden. Nur über ein „Parlament der Dinge“ mit zwei Kammern (ein „Oberhaus“, das darüber entscheidet, welche Anliegen einbezogen werden, und ein „Unterhaus“ für das Ordnen der einbezogenen Mischwesen) sei der Aufbau eines gemeinsamen Hauses (Oikos) möglich. Damit beschäftigt sich im Detail Latours letztes, auf deutsch Ende 2001 bei Suhrkamp unter dem Titel „Das Parlament der Dinge“ erschienenes Buch.

Obwohl in Bruno Latours Büchern eine Menge politischer Sprengstoff steckt, hat der Meister wiederholt darauf hingewiesen, er sei alles andere als ein Revolutionär. Er ließ durchblicken, im Grunde gehe es ihm nur darum, die gängige Praxis des politischen Krisenmanagements in der EU theoretisch abzusegnen und die Grünen vor sich selbst zu retten (so die Überschrift von 12 Thesen, die Latour im Vorfeld der letzten Wahlen zur französischen Nationalversammlung in „Le Monde“ veröffentlichte). Aus Latours Erkenntnis, dass echte Verständigung zwischen Individuen, Mächten und Kulturen wenig wahrscheinlich ist, kann aber auch gefolgert werden, dass Friedensmärsche und Diplomatie nicht hinreichen, um Frieden zu schaffen. Es kann Situationen geben, in denen Krieg der beste Weg zum Frieden ist.

Edgar Gärtner

Ist CO2 wirklich ein Problem?

Es ist nicht möglich, experimentell und statistisch nachzuweisen, dass der Anstieg des CO2-Gehaltes der Luft die Hauptursache der im 20. Jahrhundert registrierten leichten Erhöhung der globalen Durschnittstemperatur ist. Anfang der 40er Jahre wurden in Deutschland schon einmal höhere CO2-Konzentrationen gemessen als heute. Zwei Naturwissenschaftler demonstrieren, dass das keine Ausreißer waren.

Ist CO2 wirklich ein Problem? von Edgar L. Gärtner

Der CO2-Gehalt der Luft war auch früher keineswegs konstant

Nach dem APEC-Wirtschaftsforum in Singapur rechnet kaum noch jemand mit der Verabschiedung eines Kyoto-Nachfolge-Abkommens auf dem UN-Klima-Gipfel in Kopenhagen. Die EU-Regierungen, die sich in Sachen „Klimaschutz“ weit aus dem Fenster gelehnt haben, fürchten eine Blamage und mobilisieren nun ihr letztes Aufgebot, um noch ihr Gesicht wahren zu können. So hat Angela Merkel angekündigt, nun doch nach Kopenhagen fahren zu wollen – komme, was wolle. Aber das absehbare Scheitern der Mammut-Konferenz gilt beileibe nicht überall als schlechte Nachricht. Es gibt Wissenschaftler, die die Ansicht des von der UN eingesetzten „Weltklimarates“ IPCC, die Menschheit müsse einen weiteren Anstieg der Konzentration des Spurengases Kohlenstoffdioxid in der Luft um beinahe jeden Preis stoppen, nicht teilen.

Der IPCC stützt seine Warnung vor einer Überhitzung unseres Planeten auf kontinuierliche photoakkustische CO2-Messungen auf dem Hawaii-Vulkan Mauna Loa seit 1958. Dieser Standort wurde gewählt, weil man annahm, dort die von Großstädten und Industrien unbeeinflusste CO2-Hintergrund-Konzentration messen zu können. Allerdings erwies sich auch dieser Archipel nicht als unproblematisch, weil man dort die Ausgasungen des Vulkans aus den Roh-Messwerten herausrechnen musste. Die so erhaltenen CO2-Werte folgen einer stetig ansteigenden Zickzack-Kurve, die dem Wechsel zwischen Sommer und Winter auf der Nordhalbkugel folgt. Al Gore begründet mit dieser Kurve auf seiner rund um den Globus in vielen Schulen verwendeten PowerPoint-DVD die Forderung nach einer drastischen Einschränkung technischer CO2-Emissionen mithilfe des Emissionshandels.

Wie sah diese Kurve aber vor 1958 aus? Der IPCC behauptet, man könne sie vom aktuell erreichten Höchstwert von 388 ppm (parts per million)nach hinten bis ins 19. Jahrhundert verlängern bis zu einem vorindustriellen “Normalwert” von etwa 280 ppm. Dabei geht das Gremium stillschweigend davon aus, dass es vor 1958 nur wenige präzise und repräsentative Messungen des CO2-Gehaltes der Luft gab. In Wirklichkeit gab es schon hundert Jahre vor der Entwicklung elektronischer Messgeräte durchaus präzise chemische Methoden für die Bestimmung des CO2-Gehaltes der Luft. Im Jahre 2007 hat der Freiburger Biologielehrer Ernst Georg Beck unter dem Titel „180 Years accurate CO2-Gasanalysis of Air by Chemical Methods“ im engelischen Magazin “ENERGY & ENVIRONMENT” (Volume 18, No. 2/2007) Zigtausende von älteren CO2-Bestimmungen ausgewertet und gezeigt, dass um 1940 in Mittelhessen (Gießen) höhere CO2-Konzentrationen gemessen wurden als heute.

Sofort kam von etablierten Klimaforschern der Einwand, diese lokalen Messwerte seien wohl nicht repräsentativ für den globalen Trend. Deshalb hat Beck kürzlich auf dem Kongress „Klima 2009“ zusammen mit seinem Luxemburger Kollegen Francis Massen eine Formel vorgestellt, mit deren Hilfe sich aus lokalen CO2-Messwerten die Hintergrundkonzentration zuverlässig errechnen lässt, indem die jeweils vorherrschenden Windgeschwindigkeiten berücksichtigt werden. Die beiden bekamen für ihre Präsentation übrigens den Best Paper Award. Es ist nun klar, dass die älteren CO2-Messungen, sofern die methodisch korrekt gewonnen wurden, keineswegs verworfen werden können. Da diese große Schwankungen anzeigen, ist die von der großen Politik zum Dogma erhobene Vermutung, der steigende CO2-Gehalt der Luft sei hauptverantwortlich für den im vergangenen Jahrhundert gemessenen leichten Anstieg der bodennahen Durchschnitttemperatur über den Landmassen Erde nicht mehr haltbar. (17. November 2009)

Internet:

Der asiatisch-pazifische Anti-Klima-Gipfel

Die Angst vor einem Scheitern des Klimagipfels wächst

Die Klimakanzlerin fährt nach Kopenhagen

Beck & Massen: Berechnung der CO2-Hintergrundkonzentration auf der Grundlage lokaler bodennaher Messungen

========================================================================================

Es gibt keine Alternative zur Anpassung an den Klimawandel

Von Edgar L. Gärtner

Geologen halten das Zwei-Grad-Limit für die Erderwärmung für baren Unsinn

Unsere Enkel und Urenkel, so es denn noch welche geben sollte, werden sicher einmal ungläubig den Kopf schütteln, wenn sie in Geschichtsbüchern lesen, für welche Scheinprobleme und ungelegten Eier ihre Vorfahren mitten in einer der schwersten Wirtschaftskrisen viele Milliarden Papier-Euros oder Dollars locker gemacht haben. Besonders belustigt wären sie wohl, wenn sie erführen, dass eine Weltkonferenz einmal allen Ernstes beschlossen hat, den Anstieg der bodennahen Durchschnittstemperatur über den Kontinenten auf genau zwei Grad Celsius zu begrenzen, indem sie ihr Leben einschränken. Doch gerade dieses Zwei-Grad-Ziel galt bislang in der großen Politik und in der politisch korrekten Privatwirtschaft als felsenfestes Dogma, von dem verschiedenste kostenträchtige Einzelmaßnahmen für den „Klimaschutz“ abgeleitet wurden. Nun haben es drei führende deutsche Geowissenschaftler in einem am 28. Oktober 2009 im Wissenschaftsteil der FAZ erschienen Interview erstmals gewagt, dieses Dogma öffentlich anzuzweifeln.

Es handelt sich um Karin Lochte, die Chefin des Alfred-Wegener-Instituts für Meeresforschung (AWI) in Bremerhaven, Volker Mosbrugger, Direktor des Senckenberg-Forschungsinstituts und Museums in Frankfurt am Main, und Reinhard Hüttl, Direktor des Deutschen Geoforschungszentrums (GFZ) in Potsdam. Als Geologen beziehungsweise Paläontologen wissen diese Wissenschaftler über die längerfristige Entwicklung der Klimate viel besser Bescheid als „Klimaforscher“, die nur mit Computermodellen hantieren. Keiner von den dreien zieht in Zweifel, dass die Konzentration des Atemgases Kohlenstoffdioxid (CO2) in der Luft einen beträchtlichen Einfluss auf die Entwicklung der Durchschnittstemperatur unseres Planeten hat. Sie wissen aber auch, dass es noch eine ganze Reihe weiterer Faktoren gibt, die die Klimaentwicklung beeinflussen. Eine Politik, die sich einseitig auf einen Faktor, das CO2, konzentriert, kann deshalb nicht vorgeben, die Klimaentwicklung in den Griff bekommen zu können. Die Menschen haben also keine andere Wahl, als sich dem Klimawandel, der auch ohne ihr Zutun abläuft, irgendwie anzupassen. Mosbrugger drückt das so aus: „Ich glaube, es wird wie immer in der Evolution Gewinner und Verlierer geben (…) und wer sich am besten adaptiert, ist langfristig Gewinner. Jetzt ausschließlich auf Emissionsreduktion zu setzen, ist unklug.“

Allerdings irrt Mosbrugger meines Erachtens gewaltig, wenn er davon ausgeht, die Anpassung an den Klimawandel erfordere ein globales „Erdsystemmanagement“ und damit auch so etwas wie eine Weltregierung. Denkt er ernsthaft, die Bewegung der viele Milliarden Tonnen schweren Platten der Erdkruste managen zu können? Und um wie viel schwieriger wäre erst ein Management der Klimaentwicklung, in die auch kosmische Faktoren eingreifen? Das wäre schlicht einige Nummern zu groß für uns Menschen und bedürfte geradezu göttlicher Kräfte und Fähigkeiten. In Wirklichkeit erfordert die Anpassung an den Klimawandel überhaupt keine globale Strategie. Man müsste nur den Menschen auf lokaler und regionaler Ebene die Freiheit lassen, selbst zu entscheiden, wie sie mit sehr unterschiedlichen positiven und negativen Folgen des Klimawandels umgehen wollen. Die UNO würde überflüssig. Das ist wohl der tiefere Grund für die Versteifung des „Weltklimarates“ IPCC und anderer UN-Gremien auf „Mitigation“ und die Vernachlässigung der „Adaptation“.

Internet:

FAZ: Ein Limit von zwei Grad Erderwärmung ist praktisch Unsinn

================================================================================

Die Sonne birgt noch etliche Überraschungen

Im Juli 2009 brachte die New York Times einen interessanten Überblick über den Stand der wissenschaftlichen Debatte über den Zusammenhang zwischen den Sonnenfleckenzyklen und der Entwicklung des irdischen Klimas. Führende Solarforscher geben zu, dass sie von einem Verständnis der Ursachen zyklischer Schwankungen des solaren Magnetfeldes noch weit entfernt sind. Zurzeit schließen einige Forscher nicht aus, dass die gegenwärtige unerwartet lange Ruhephase der Sonne auf der Erde zu einer Zunahme niedrig hängender Wolken und in deren Folge zu einem spürbaren Rückgang der globalen Durchschnittstemeperatur führt, die mit dem Dalton-Minimum in der ersten Hälfte des 19. Jahrhunderts vergleichbar ist. (21. Juli 2009)

=======================================================================

In einem peer-reviewed Artikel unter dem Titel „Falsification Of The Atmospheric CO2 Greenhouse Effects Within The Frame Of Physics“, in: International Journal of Modern Physics B, Vol. 23, No. 3 (30 January 2009), pp. 275-364 (World Scientific Publishing Co.) weisen die Mathematischen Physiker Gerhard Gerlich (TU Braunschweig) und Ralf D. Tscheuschner (Hamburg) nach, dass die „offizielle“ Treibhaustheorie zur Erklärung des Klimawandels „außerhalb jeglicher Wissenschaft“ liegt. (17. März 2009)

====================================================================

Politische Manipulation der Klimaforschung: Prof. Richard Lindzen vom MIT nennt Ross und Reiter

Der bekannte Atmosphärenphysiker Prof. Richard Lindzen vom Massachusetts Institute of technology (MIT) deckt in einem auf einem Vortrag beruhenden Artikel im Detail auf, wer für die politische Manipulation der Klimaforschung verantwortlich ist.

===========================================================

Inzwischen warnte auch FOCUS-online seine Leser vor einer uns möglicherweise bevorstehenden Kleinen Eiszeit. Es lässt sich nicht mehr verheimlichen, dass die Aktivität der Sonne in den letzten Jahren auf ein beunruihigendes Niveau abgesunken ist.

=============================================================

DIE WELT berichtet relativ sachlich über die Auseinandersetzungen zwischen meinem Freund Ernst Beck, Biologielehrer in Freiburg, und Prof. Stefan Rahmstorf vom Postdam Institut für Klimafolgenforschung (PIK). Während Ramstorf versucht, seine inquisitorischen Methoden gegenüber „Klimaskeptikern“ zu rechtfertigen, gibt sich Beck gelassen. Die begonnene Abkühlung der Erde werde den „Skeptikern“ gegenüber den Erwärmungshysterikern in den kommenden Jahren ohnehin recht geben.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

NASA sucht noch immer nach Sonnenflecken und verharmlost das Ausbleiben des 24. Sonnenzyklus

Nun haben amerikanische Forscher nachgewiesen, dass Abschwächungen des Sonnenzyklus zu einer Abkühlung des Atlantik und zu sinkender Niederschlagstätigkeit führt. (29. August 2008)

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Nachruf auf einen zu früh verstorbenen freien Mann, der wirklich etwas von Klima verstand von Edgar Gärtner

Heute am 13. August 2008 ist der französische Klimatologe Prof. Marcel Leroux, kaum emeritiert, in einem Marseiller Hospital von uns gegangen. Dass er nach der Entfernung einer Niere im Spätherbst des letzten Jahres auf einmal mit Metastasen zu kämpfen hatte, die in seinem Körper herumkreisten, war mir durchaus bekannt. Ich hatte darüber vor gut einer Woche noch mit seiner zweiten Frau Colette gesprochen. Doch während ich noch dabei war, einen Besuch am Krankenbett vorzubereiten, ereilte mich die Nachricht von seinem plötzlichen Ableben. Noch unter Schock, schreibe ich diese Zeilen.

Ich kannte Marcel noch gar nicht so lange. Vor gut zwei Jahren saß ich unter den Arkaden meiner Ferienresidenz in der Nähe einer anderen südfranzösischen Hafenstadt und las mit großem Interesse sein letztes großes Werk „Global Warming. Myth or Reality? The errings ways of climatology“ (Springer-Verlag, Heidelberg 2005). Dessen Autor war mir bis dahin nur durch Zeitschriften-Veröffentlichungen bekannt. Das Impressum des dicken Buches etwas eingehender studierend stellte ich fest, dass sein mutiger Autor gar nicht so weit von mir hinter der Sainte Victoire, dem Hausberg von Aix en Provence, bekannter als Lieblingsobjekt des genial schlechten Malers Paul Cezanne, lebte. Also: Nichts wie hin! Nach zwei, drei Stunden Plausch über Gott und die Welt waren wir schon Freunde. Wobei man noch wissen muss, dass es bei Marcel keinen Alkohol, sondern nur verdünnten Orangensaft gab.

Marcel war nicht der Typ des geselligen Südfranzosen, der einen nach einigen Gläsern Pastis umarmt. Vielmehr war er Bretone, eher klein von Gestalt, aber zäh und drahtig. Er stammte aus einer Familie, deren Angehörige sich über Jahrhunderte als Fischer oder Seefahrer durchgeschlagen hatten. Denn der dünne, saure Granitboden der Bretagne konnte nicht viele Mäuler füttern. Seinen Vater, der, nun bald 100 Jahre alt, noch immer lebt, hatte es als Offizier der französischen Kriegsmarine nach Tunis verschlagen. Dort wurde Marcel geboren. Neben der französischen Sprache blieb ihm auch das Arabische bis zu seinem Lebensende geläufig. Das half ihm ungemein in seinem Werdegang als Klimaforscher. Denn obwohl von Kindesbeinen an passionierter Skipper, fühlte er sich am wohlsten ganz allein unter dem Sternenzelt der Sahara. Das war für ihn, wie er mir immer wieder versicherte, der Inbegriff von Freiheit.

So war es alles andere als zufällig, dass Marcel bald in der Erforschung des Wetters und der längerfristigen Klimaentwicklung Afrikas seine Lebensaufgabe fand. Denn er musste schon während seines Studiums an der Universität Dakar im Senegal feststellen, dass es über das Klima des schwarzen Kontinents keine brauchbare Synthese gab. Für seine Habilitationsarbeit (Thèse d’Etat) reiste Marcel zehn Jahre lang kreuz und quer durch Afrika, um die in ehemaligen Kolonialverwaltungen unter mehr oder weniger dicken Staubschichten vor sich hin gammelnden alten Wetteraufzeichnungen auszuwerten. Oft bedurfte es seiner ganzen Überredungsgabe beziehungsweise Bakschisch in harter Währung, um an die historischen Daten heranzukommen. Leroux entdeckte dabei, dass das Wettergeschehen im tropischen Afrika stark von atmosphärischen Vorgängen an den Polen beeinflusst wurde. Bis dahin dachten die Wetter- und Klimaforscher, es sei eher umgekehrt. Am Ende seiner entbehrungsreichen, aber auch faszinierenden Fleißarbeit stand ein zweibändiger Atlas der Klimageschichte Afrikas, der von der World Meteorological Organisation in Genf herausgegeben und inzwischen in Form einer CD-ROM neu aufgelegt wurde.

Nach weiteren Jahren an der Universität von Dakar bekam Marcel Leroux schließlich eine ordentliche Professur an der Universität Jean Moulin in Lyon und wurde Direktor des Instituts für Klimatologie, natürliche Risiken und Umwelt. In Lyon spezialisierte sich Leroux auf die Auswertung von Satelliten-Fotos, die bei seiner Arbeit in Afrika leider noch nicht zur Verfügung standen. Er stellte dabei fest, dass als treibende Kräfte des Wettergeschehens weniger Tiefdruckgebiete in Frage kamen, wie die klassische (synoptische) Meterologie annimmt, sondern vielmehr flache Kaltluftlinsen mit hohem Druck, die in der Nähe der Pole entstehen und dann Richtung Äquator ziehen. Die dabei verdrängte wärmere Luft bildet Tiefdruckwirbel, die uns schlechtes Wetter bringen. Leroux taufte die Kaltluftlinsen und die sie begleitenden Tiefdruckwirbel „Mobile Polar High“ (MPH). Er war überzeugt davon, dass diese selbst dem ungeübten Betrachter von Satellitenfotos ins Auge springenden Gebilde unser Verständnis der Wetterabläufe revolutionieren werden.

Aus der langjährigen Beobachtung der Häufigkeit von MPH schloss er, dass die Erdatmosphäre dabei ist, sich allmählich abzukühlen. Für die hysterischen Warnungen vor einer Überhitzung unseres Planeten infolge der Verstärkung eines (nicht messbaren!) „Treibhauseffektes“ durch den Ausstoß von Kohlenstoffdioxid hatte er nur Spott übrig. Damit machte er sich in den Augen der Pariser Bürokraten und der ihnen hörigen Massenmedien zum wissenschaftlichen Außenseiter, was ihn aber nicht weiter störte. Immerhin fand er sich in guter Gesellschaft mit dem führenden französischen Geophysiker Claude Allègre, der einige Jahre lang unter dem sozialistischen Premierminister Lionel Jospin das undankbare Amt des Erziehungs- und Forschungsministers übernommen hatte. Wie sein Freund Allègre ging Leroux auf Distanz zur sozialistischen Partei, als es in den letzten Jahren immer deutlicher wurde, dass diese unheilbar vom Virus des Nihilismus infiziert war. Leroux war sich sicher, seine Theorie der Klimaentwicklung werde sich durchsetzen, sobald die Vertreter der offiziellen Lehrmeinung einmal abgetreten seien. Er konnte nicht ahnen, dass er vor seinen Widersachern begraben werden würde.

Nachtrag: Ich bin sicher, Marcel hätte sich über den in der heutigen „Times“ stehenden Bericht über die Auswertung der Wetteraufzeichnungen der Logbücher großer Kapitäne gefreut. Sie demonstrieren die Überlegenheit direkter Beobachtung über die „Play-Station-Klimatologie.“ (14. August 2008)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Climate Sensitivity Reconsidered

von Christopher Monckton of Brenchley

(Deutsche Übersetzung von Argus auf oekologismus.de

Monckton stellt die IPCC-Eingangsparameter der Klimamodelle auf den Prüfstand: Strahlungsantrieb, Klimasensitivität und Rückkopplungen. Er analysiert einen nach dem anderen die IPCC-Parameter und bewertet sie neu anhand von eigenen Erkenntnissen, die er zusammen mit vielen Wissenschaftlern zusammengestellt hat. Ein sehr gut nachvollziehbarer und sehr übersichtlicher Ansatz!

Kernergebnis seiner Neubewertung der Parameter ist: Der Klimabericht des IPCC von 2007 übertreibt den Einfluss des CO2 auf die Temperatur um 500 bis 2000 Prozent.

Bemerkenswert ist auch der moderate Ton, in dem Monckton seine einschneidenden Korrekturen in dem IPCC-Rechengang anbringt und kommentiert.

Zusammenfassung und Kernaussagen in Deutsch

Die Weltklimarat (IPCC, 2007) hat beschlossen, dass die anthropogenen CO2 Emissionen wahrscheinlich mehr als Hälfte der “Erderwärmung” der letzten 50 Jahre verursachthaben und eine weitere schnelle Erd-Erwärmung verursachen werden. Jedoch hat sich globale Durchschnittstemperatur seit 1998 nicht erhöht und dürfte seit Ende 2001 sogar gefallen sein. Die vorliegende Analyse legt nahe, dass Fehler in den Modell-Vorhersagen des IPCC, zur Temperaturentwicklung und vielen anderen klimatischen Phänomenen, aus Fehl-Einschätzungen der drei wesentlichen Faktoren entstehen, aus denen sich die Klimaesensitivität zusammensetzt:

1. Strahlungsantrieb ΔF

2. Der Sensitivitäts-Parameter κ “ohne Rückkopplungen” und

3. Der Rückkopplungsfaktor ƒ.

Wesentliche Gründe, warum die Schätzungen des IPCC überbewertet sein dürften und daher nicht verläßlich sind, werden erklärt. Noch wichtiger ist die Feststellung, dass es womöglich gar keine “Klimakrise” gibt, und dass die zurzeit so populären Anstrengungen der Regierungen, die anthropogen CO2-Emissionen zu reduzieren, sinnlos sind, kaum berechenbar sind und sogar schädlich sein können.

Lord Monckton´s neue Studie belegt:

o Der Klimabericht des IPCC von 2007 übertreibt den Einfluss des CO2 auf die Temperatur um 500-2000 %;

o Der erwartete CO2-Anstieg wird kaum mehr als 0.6 °C zur globalen Durch-schnittstemperatur bis 2100 beitragen;

o nicht eine der drei Schlüsselvariablen, aus denen sich die Klimasensitivität ermitt-let, kann direkt gemessen werden;

o die Werte des IPCC für diese Schlüsselvariablen stammen von nur 4 (vier) veröf-fentlichten Papieren, nicht von 2.500;

o die Werte des IPCC für jede der drei Variablen, und folglich für die Klimaempfind-lichkeit, sind übertrieben angesetzt;

o Die “Globale Erwärmung” stoppte vor zehn Jahren, und die Oberflächentempera-tur ist seit sieben Jahren gefallen;

o nicht eines der Computermodelle, auf denen IPCC aufbaut, sagte eine so lange und schnelle Abkühlung voraus;

o das IPCC fügte eine Tabelle in den wissenschaftlichen Rechengang ein, die die Wirkung der Eisschmelze um 1000 % überbewertet;

o es wurde bereits vor 50 Jahren festgestellt, dass eine Vorhersage des Klimas um mehr als zwei Wochen unmöglich ist;

o Mars, Jupiter, der größte Mond des Neptuns sowie Pluto erwärmten sich zeit-gleich mit der Erde;

o in den letzten 70 Jahren war die Sonne aktiver als in fast jeder anderen Zeit in den letzten 11.400 Jahren.

***************************************************************************

Dr. Vincent Gray’s Abrechnung mit dem „Weltklimarat“ IPCC

„… das IPCC ist abgrundtief korrupt. Die einzige “Reform”, die ich mir vorstellen kann, wäre seine Abschaffung.“

„Das Verschwinden des IPCC ist nicht nur wünschenswert, sondern unvermeidlich.“

Diese Sätze stammen nicht von einem Verrückten, sondern von einem erfahrenen Wissenschaftler aus Neuseeland, der als offiziell bestellter “Expert Reviewer” des Intergovernmental Panel on Climate Change (IPCC) schon an dessen ersten im Jahre 1990 erschienenen Bericht mitgewirkt hat. Die Behauptung des IPCC, die „Evidenz“ einer Klimaschädigung durch eine Änderung der atmosphärischen Konzentration von „Treibhausgasen“ erbracht zu haben, sei schlicht falsch, schreibt Gray in einer nun im Internet zugänglichen systematischen und detaillierten Abrechnung mit den manipulativen Arbeitsmethoden des von der UN-Bürokratie im Jahre 1988 eingesetzten Gremiuns. Sein inzwischen aktualisierter Bericht zeigt Schritt für Schritt, wie aufgrund einer nicht thematisierten menschenfeindlichen religiösen Einstellung zweideutige Beobachtungen und verzerrte Interpretationen wissenschaftlicher Aussagen zu einem Machwerk verwoben wurden, das eine weltweite Kampagne für die Einschränkung menschlicher Entwicklungsmöglichkeiten rechtfertigt. Die geforderte Reduktion der Emission von „Treibhausgasen“ entbehre in Wahrheit jeglicher wissenschaftlichen Grundlage (14. Juli 2008)

********************************************************************

CO2-Gläubige rätseln über schlappe Sonne

Ich gehöre zu jenen, die das Glück hatten, Dr. Theodor Landscheidt noch persönlich erleben zu können. Hinter dem pensionierten Juristen mit der Fliege verbarg sich ein versierter Astronom, der über lange Jahre mit viel Geduld und mathematischer Bravour die Bewegungen und Entwicklungen der Sonne analysiert hatte. (Hier eine Sammlung seiner Veröffentlichungen) Schon um die Mitte der 90er Jahre war sich Landtscheidt sicher, dass die Sonne ab 2007 in eine längere Schwächephase eintreten würde, die auf der Erde zu einer empfindllichen Abkühlung führen muss. Denn er hatte schon erkannt, dass die Sonnfleckenzyklen auf eine Interferenz zwischen den Bewegungen der Sonne und ihres gewichtigen Planeten Jupiter zurückgeht. Australische Astrophysiker haben diese Entdeckung nun bestätigt. Landscheidt stellte seine Entdeckung auf dem Symposium „Klimaveränderungen – Ursachen und Auswirkungen“ vor, das am 10. und 11. November 1997 (das heißt kurz vor der gedankenlosen Verabschiedung des Kyoto-Protokolls über eine Reduktion von „Treibhausgasen“) im Bonner Hotel Königshof von der Europäischen Akademie für Umweltfragen organisiert worden war. Der Tübinger Biochemiker und Photosystheseforscher Prof. Dr. Helmut Metzner, der die Europäische Akademie gegründet und das Bonner Symposium organisiert hatte, war damals zuversichtlich, das mit Kyoto verbundene Selbstmordprogramm noch verhindern zu können. Wenige Wochen nach der Verabschiedung des Kyoto-Protokolls hatte er dann eine längere Unterredung mit seinem Parteifreund Prof. Dr. Klaus Töpfer (CDU). Dieser machte Metzner offenbar klar, dass es keine Möglichkeit mehr gab, den ins Rollen gekommenen Zug der internationalen Klima-Bürokratie noch aufzuhalten. Das mit den wichtigsten Klimaforschern der Welt (nicht nur mit „Skeptikern“) besetzte Bonner Symposium war offenbar für die Katz gewesen. Prof. Metzner legte sich nach dem Gespräch mit Klaus Töpfer erschöpft schlafen und wachte nicht wieder auf.

Konkret legte Theodor Landscheidt 1997 in Bonn dar, dass der seit längerem bekannte Gleissberg-Zyklus der Sonnenaktivität von 90 Jahren im Jahre 2007 seinen nächsten Phasensprung (Nulldurchgang) haben werde. Dadurch werde auf der Erde eine Abkühlungsphase eingeleitet, die ihren Höhepunkt im Jahr 2026 erreichen werde. (Meinem in „Öko-Nihilismus“ enthaltenen Zukunftsszenario habe ich diese Prognose unausgesprochen zugrunde gelegt.)

Landtscheidts Voraussage ist punktgenau eingetroffen. Seit Dezember 2006 tut sich auf unserem Zentralgestirn, abgesehen vom üblichen Brodeln der Plasmaströme, kaum noch etwas. Der längst überfällige Beginn der 24. Sonnenfleckenzyklus lässt auf sich warten. Die wenigen Spuren von Sonnenflecken, die sich hin und wieder zeigten, entpuppten sich als Überbleibsel des 23. Zyklus. Eine so lange Abwesenheit von Sonnenflecken wurde zuletzt vor 350 Jahren auf dem Höhepunkt der so genannten kleinen Eiszeit beobachtet. Diese führte in Europa zu einer Häufung von Vereisungen, Überschwemmungen, Missernten und Hungersnöten sowie in deren Gefolge zu massiven Auswanderungswellen.

Inzwischen nimmt sogar SPIEGELonline (siehe Link in der Überschrift) Kenntnis von einer Realität, die in den „Klimamodellen“, die den Überhitzungs-Projektionen des „Weltklimarates“ IPCC zugrunde liegen, gar nicht vorkommt. Läge der IPCC mit seiner Behauptung richtig, das Verbrennungs- und Atmungs-Gas Kohlenstoffdioxid (CO2) sei die Hauptursache der in den vergangenen Jahrzehnten beobachteten leichten globalen Erwärmung, dann müssten jetzt schleunigst alle Hindernisse beseitigt werden, die dem überfälligen Bau zahlreicher neuer Kohlekraftwerke entgegenstehen. (6. Juli 2008)

Die Sonne ist zu etwa 70 Prozent für den Klimawandel auf der Erde verantwortlich

Das schätzt Dr. Bruce West, Chefwissenschaftler des US Army Research Office, in einem in der Fachzeitschrift „Physiscs today“ veröffentlichten Aufsatz. Darüber berichtete am 3. Juni 2008 das US-Online-Magazin „Wired“. In Europa wurde die Nachricht mit vielen Konjunktiven entschärft. Da der 24. Sonnenzyklus noch immer auf sich warten lässt, sollten wir uns trotz des Tropenwetters, das in diesem Juni in weiten Teilen Deutschlands herrscht, auf eine Abkühlung der Erde gefasst machen.

In einem Bericht mit dem Titel „Global Temperature Dives in May.“ schreibt der Meteorologe Anthony Watts, das seit Beginn dieses Jahres feststellbare dramatische Absinken der Durchschnittemperatur der Erde habe sich im Mai fortgesetzt. Seit Januar 2007 sei die Temperatur um etwa den Betrag (0,75 Grad Celsius) abgesunken, der in den IPCC-Berichten als „Signal der menschengemachten globalen Erwärmung“ in den letzten 100 Jahren interpretiert wurde.

Hier ist die neueste Temperaturkurve,, die an der University of Alabama in Huntsville aufgezeichnet wurde.

Kollege Wolfram.von-Juterczenka@dw-world.de teilt folgende im Mai 2008 gemessene Temperaturwerte mit:

Spitzbergen -2,0° ( 0,8° kälter als Mai 07; wärmster der letzten 18 Jahre: 2006 +1,2°, kältester 1998 -5,3°)

Tromsoe 4,4° ( 1,3° kälter als 07; wärmster 10,9° 1990)

Neumeyer

(Antarktis) -22,4° (4,3° kälter als 07; wärmster in letzen 18 Jahren: -17,5° 1992, kältester -25,4° 2004)

Südpol -59,3° (1,4° kälter als 07; wärmster -18 Jahre- : -56,2 2006, kältester -60,0 1996)

Godthab

Westgrönland: 3,4° (3,5° wärmer als 07; wärmster – 10 Jahre- 3,5° 1996, kältester -2,6° 1992)

In seinem Blog brachte Anthony Watts am 15. Juni 2008 weitere Einzelheiten der Entwicklung des Magnetismus der Sonne und ihres Einflusses auf die Erde. Der Average Geomagnetic Planetary Index (Ap), ein Maß für die solare magnetische Feldstärke, ist im Oktober 2005 auf ein extrem niedriges Niveau abgesackt und hat sich seither nicht wieder erholt. (18. Juni 2008)

Global Warming macht Pause

Die britische Tageszeitung „Telegraph“ berichtet von einer neuen Veröffentlichung deutscher Klimaforscher im Wissenschaftsmagazin „nature“. Danach gehen die Forscher davon aus, aufgrund festgestellter Veränderungen in atmosphärischen und ozeanischen Strömungsmustern werde sich die begonnene Phase eines leichten Rückgangs der globalen Durchschnittstemperatur mindestens bis 2015 fortsetzen. Ich vermute, es handelt sich hier um einen ersten Versuch, dem perplexen Publikum zu erklären, warum die Realität den Verkündungen des „Weltklimarats“ IPCC nicht folgt, ohne klipp und klar zu sagen, dass die Klimaentwicklung mit der atmosphärischen Konzentration des zum zum „Klimakiller“ erklärten Kohlenstoffdioxids (CO2) wenig bis nichts zu tun hat. Jedenfalls haben die Autoren der am IFM Geomar-Institut für Meeresforschung in Kiel erarbeiteten Studie in Gestalt ihres Sprechers Mojib Latif sofort davor gewarnt, den nach ihrer Meinung fortbestehenden längerfristigen Erwärmungstrend auf die leichte Schulter zu nehmen. Die in ihren Augen gefährliche globale Erwärmung mache nur eine Pause.

Schon im vergangenen Jahr hatte ich Skeptiker-Freunde davor gewarnt, sich nicht zu früh zu freuen. Meine lieben Journalistenkollegen würden sicher auch noch den Purzelbaum hinkriegen, die drohende Kleine Eiszeit mit dem bösen CO2 in Verbindung zu bringen. Kollege Holger Darmbeck hat nur zwei Tage gebraucht, um diese Prophezeiung in SPIEGEL-online in Erfüllung gehen zu lassen. (2. Mai 2008)

Anzeichen für ein Abflachen des CO2 Anstiegs in der Atmosphäre und eine Abkühlung des Ozeans

Buchstäblich gar nichts entwickelt sich zurzeit entsprechend der Warnungen, für die der „Weltklimarat“ IPCC im Jahre 2007 mit dem Friedensnobelpreis ausgezeichnet wurde. Nicht nur die Temperaturkurve der Erde, sondern auch die Kurven der Methan- und CO2-Konzentrationen scheinen neuerdings abzuflachen. Hinzu kommt eine weitere irritierende Meldung: Forscher des Alfred-Wegener-Instituts für Meeresforschung (AWI) in Bremerhaven haben in einer monatelangen Messkampagne festgestellt, dass sich das Tiefenwasser rund um die Antarktis eindeutig abkühlt. Sicher ist es noch zu früh, um daraus einen neuen Trend abzuleiten. Aber die Zweifel an der Begründung der Angstmache wachsen. (21. April 2008)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Extremwetterkongress im Gegenwind

Da die Wettermaschine der Erde den Propheten einer heranrückenden Klimakatastrophe nicht Gefallen tut, verrückt zu spielen, befleißigten sich Massenmedien anlässlich des Hamburger Extremwetterkongresses ungenannter Sponsoren, den Eindruck zu erwecken, es stimme etwas nicht in der Antarktis. BILD titelte am Donnerstag, dem 27. März 2008: „Neuer Umweltschock. Südpol zerfällt.“ Nähme nan das wörtlich, müsste man die Seefahrt und den Luftverkehr sofort einstellen, denn ohne Südpol gäbe es auch keinen Nordpol mehr. Was die die Redaktion der BILD-Zeitung wirklich meinte, war das Abbrechen eines größeren Brockens des Wilkins-Schelfeises. Das kommt hin und wieder vor, hängt nach Aussage kompetenter Metorologen aber keineswegs mit der Temperaturentwicklung des Antarktischen Kontinents im Ganzen zusammen. Vielmehr ragt dieser Eis-Schelf mit der Antarktischen Halbinsel weit in Gewässer, die milden Nordwestwinden ausgesetzt sind. Als den Anden benachbarte seismisch aktive Zone der Erdkruste besitzt die antarktische Halbinsel überdies etliche aktive Untereis-Vulkane, die Bewegungen des Gletscheises beschleunigen können. Doch davon erfuhren die Leser von BILD nichts. Es kam den Kollegen der BILD-Redaktion wohl eher darauf an, ihren Lesern nach einem ausnehmend eisigen Osterfest einzureden, die globale Erwärmung gehe weiter. (Siehe hierzu auch die Erklärung auf der Website des EIKE Europäischen Instituts für Klima und Energie.

Hier die Entwicklung der Mitteltemperaturen der Antaktis:

Georg v. Neumeyer (deutsche Antarktisstation):

Januar 1991 bis 2008

-3,8 -1,8 -4,2 -5,7 -4,6 -3,9 -4,5 -4,2 -3,8 -5,6 -4,8 -3,2 -5 -2,3 -2,4 -3,1 -3,5 -5,6

Februar 1991 bis 2008

-6,6 -6,8 -9,7 -7,3 -6,4 -6,1 -8,7 -6,2 -7,2 -10,8 -7,8 -8,1 -7,2 -6 -7,2 -7,3 -9,8 -8,6

Südpol

Januar 1999 bis 2008

-26,2 -31,1 -29,8 -26,7 -27,6 -27,7 -26,4 -28,3 -27,5 -30,1

Februar 1999 bis 2008

-39,7 -43,2 -39,9 -40,7 -40,8 -38,6 -39,5 -42,8 -42,4 -41,8

Casey (Antarktis – Rand)

Januar 1994 bis 2008

-0,1 -2 -1 0,0 -0,4 -1,5 -1,8 -0,3 0.5 0,0 -0,7 0,7 -0,5 0,1 -1,2

Februar 1994 bis 2008

-2,1 -4,2 -2,6 -2,4 -2,8 -3,5 -2,7 -4,6 -2,9 -2,3 -1,1 -2 -2,5 -2,1 -4,1

Hier die Entwicklung der mittleren Temperaturen des Monats März an einigen ausgewählten Wetterstationen:

Spitzbergen 1995 – 2008

-15,4 -6.6 -12,3 -13,3 -7,5 -14,9 -16,8 -18,4 -17,8 -7,5 -17,1 -12,7 -7,0 -14,7

Südpol 1999 – 2008

-54,4 -53,5 -54,6 -48,6 -54,5 -55 -51,9 -56,4 -57,7 -53,3

Godthab (Grönland) 1991 – 2008

-6,7 -8,2 -13,8 -11,8 -12,7 -8,5 -10,6 -8,1 -6,9 -8,6 -5,7 -9,4 -6,6 -9,2 -2,7 -2,8 -7,2 -8,6

(Mitteilung von Wolfram.von-Juterczenka@dw-world.de)

******************************************************************

NASA-Forscher suchen verzweifelt nach Sonnenflecken

Anfang Januar 2008 schien es so, als käme der angesagte 24. Sonnenfleckenzyklus (seit dem 18. Jahrhundert) endlich in Gang. Doch das erste zaghafte Vorzeichen neuer Sonnenflecken verschwand schon nach drei Tagen. Nun wächst die Furcht vor einer neuen Kleinen Eiszeit. Die von interessierter Seite geschürte hysterische Angst vor einer Klimaverbesserung, Verzeihung: globalen Erwärmung dürfte schon bald als Problem erscheinen, das man gerne hätte.

Inzwischen tauchten auf den Fotos der Sonnen-Sonde SOHO zwar einige kleine Flecken auf. Doch diese erwiesen sich aufgrund der Polarität ihres Magnetfeldes eindeutig als Reste des auslaufenden 23. Zyklus. Die Freunde der Sonne wurden auf den Monat März vetröstet. Doch nichts tat sich. Nun erhoffen die Beobachter der NASA den Start des 24. Zyklus in der zweiten Jahreshälfte, vielleicht aber auch erst im nächsten Jahr. Dann wäre der 23. Zyklus der längste seit dem Jahre 1800. Das klingt nicht sehr beruhigend. (8. April 2008)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Kürzlich hat der Britische Wetterdienst (UK/CRU/UEA) die „Global-Temperatur 2007“ publiziert.

2007 kommt seit 1998 nur auf Platz 8, bei fallender Tendenz. Wie peinlich für die Klimagogen, hatten sie doch noch vor wenigen Wochen einen „neuen Rekord“ mit 14.54° (1998: 14.52°) hinaustrompetet. Stattdessen nun weiterhin fallende Tendenz, und zwar recht deutlich. Damit gibt es seit 1998 keinen weiteren Temperaturanstieg mehr – im Gegenteil. (Danke an Dipl. Met. Klaus-Eckart Puls für die Mitteilung)

Januar 2008 war nach Satelliten-Messungen der zweitkälteste Januar in den letzten 15 Jahren.

Der Winter 2007/2008 gilt schon jetzt auf der Nordhalbkugel als der kälteste Winter seit Menschengedenken. Nur die Deutschen haben davon nicht viel mitbekommen.

100 Jahre Erwärmung in einem Jahr rückgängig gemacht

Inzwischen zeigen Zusammenstellungen von unzweifelhaften Messdaten aus der ganzen Welt, dass der in hundert Jahren erreichte Gesamtbetrag der Klimaverbesserung (ein Anstieg des globalen Temperaturmittelwerts von etwa 0,7 °C) in einem einzigen Jahr verloren gegangen ist. Das meldet der Blog DailyTech.com. Dort findet sich auch eine beeindruckende Temperaturkurve für die letzten Jahre.

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Schwerwiegende Fehler im IPCC Report 2007

Quelle: IPPCC, 2007: Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Solomon, S., D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M.Tignor and H.L. Miller (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA.

Hier der Link zum AR 4

von Ernst-Georg Beck, Dipl. Biol. 1/2008

Statement:

Der 4. Klimabericht des IPCC (Weltklimarat) 2007 der UNO enthält in wesentlichen Teilen falsche Informationen. Deshalb sind alle daraus abgeleiteten politischen Konsequenzen haltlos und ohne wissenschaftliche Basis. Alle Verweise und Diskussionen über mögliche Konsequenzen in Publikationen der Medien, Schulen und Universitäten beruhen auf Pseudowissenschaft. Politische und wirtschaftliche Aktivitäten gemäß der irrigen Behauptungen des IPCC müssen sofort beendet werden. Eine unabhängige, wissenschaftliche Debatte muß zur Aufklärung stattfinden.

1. Falsche Temperaturdaten:

a)Die Temperaturkurven S. 25 und 29 (pdf) seit 1960 beruhen hauptsächlich auf dem Wärmeinseleffekt, da besonders für die ansteigenden Temperaturen seit 1975 wenige in Städten liegende Stationen verwendet werden. Tatsächlich steigen die Temperaturen nicht wie gezeigt an, sie fallen weltweit laut Satellitenmessung:

Nachweis: Ross McKitrick

Satellitendaten: MSU

b) Die gezeigten Kurven S. 29 (PDF, S. 121 IPCC) enden alle 2001. Warum im Bericht 2007, wo doch der letzte IPCC Bericht 2007 erschien?

Weil die mittlere Erdtemperatur seit 1998 nicht mehr steigt, sondern fällt! Treibhauseffekt?

Nachweis: Hier der Lieferant der IPCC-Temperaturdaten

CRU (England), Jones et al. (rechts die Temperaturen anklicken)

2. Falsche CO2 / Methan-Daten:

Die Kurven des CO2 und Methans sind teilweise falsch bzw. irreführend dargestellt.

CO2 war in den letzten 200 Jahren stark schwankend mit Konzentrationen wie heute um 1825, 1857 und 1942. Methan stagniert seit langem und fällt seit 2007, also kann es nicht als zusätzliches Treibhausgas wirken.

Nachweis: CO2

Methan: NOAA (2006)

3. Weniger Hurrikane:

Behauptung S. 15 „Tropical storm and hurricane frequencies vary considerably from year to year, but evidence suggests substantial increases in intensity and duration since the 1970s……. Specifically, the number of category 4 and 5 hurricanes increased by about 75% since 1970.“

Das ist nur ein Teil der Wahrheit bzw. falsch: Die Anzahl der Hurrikane mit maximaler Stärke war in den 30er Jahren des 20. Jahrhunderts am stärksten.

Nachweis: NOAA (2007)

4. Kein Meeresspiegelanstieg:

Die Kurve S. 19 ist irreführend und entspricht dem Tunnelblick des IPCC alles auszublenden, was nicht in die Hypothese passt. Derzeit steigen keine Meersspiegel!

Nachweis: Prof. N.A. Mörner

5. Kein Konsens:

Der gesamte IPCC-Bericht ist im wesentlichen Teil, der den menschengemachten Klimawandel betrifft genau von 5 Personen begutachtet worden. Die Behauptung, er sei im Konsens von 2500 Wissenschaftlern entstanden ist falsch.

Nachweis: John McLean.

Inzwischen ist übrigens die bittere und im Detail belegte Abrechnung des IPCC Expert-Reviewers Dr. Vincent Gray aus dem Internet herunterladbar. Dr. Gray fordert nach allem, was er erleben musste, nichts weniger als die sofortige Auflösung dieses Gremiums. Denn die Theorie der vom Menschen gemachten globalen Erwärmung sei von Anfang an ein krankhaft religiös begründeter Schwindel gewesen. (akt. 12. Juli 2008)

****************************************************************************************************

Werden wissenschaftliche Standards überflüssig ?

Das neue Jahr begann in den deutschen Medien mit neuen Zumutungen für den gesunden Menschenverstand. Erst berichteten mehrere Online-Magazine und Radiosender, das vergangene Jahr habe in Deutschland einen neuen Durchschnittstemperatur-Rekord gebracht. Doch kurz darauf musste die Meldung mit dem Hinweis auf einen Rechenfehler des Deutschen Wetterdienstes korrigiert werden. Nun heißt es, ein neuer Rekord sei knapp verfehlt worden. Dabei sollte ohnehin klar sein, dass die Durchschnittstemperatur unseres Landes, das nur ein Pünktchen auf dem Globus darstellt, kaum Aussagekraft besitzt. Weltweit hat sich 2007 die seit etwa einem Jahrzehnt beobachtbare Stagnation der bodennahen Durchschnittstemperatur fortgesetzt. Da der Ausstoß von Kohlenstoffdioxid (CO2) zur gleichen Zeit wegen des Wirtschaftsbooms in „Schwellenländern“ wie China, Indien und Brasilien und zum Teil auch in alten Industrieländern kräftig angestiegen ist, bedarf die Behauptung, anthropogenes CO2 sei die Hauptursache der globalen Erwärmung, inzwischen schon einer gehörigen Portion Schuzpe. Doch die herrschende nihilistische „Elite“ fühlt sich offenbar so fest im Sattel, dass sie keinen Grund für eine Korrektur ihrer kostspieligen und selbstmörderischen „Klimaschutzpolitik“ sieht. Man kann sicher sein, dass sich in unseren Medien immer jemand findet, der Wetterereignisse aller Art und vielleicht sogar eine deutliche Abkühlung der Erde als Bestätigung der offziellen Lehrmeinung bzw. als Erfolg der „Klimapolitik“ zu interpretieren weiß.

So wurde der Bielefelder Wissenschaftsphilosoph Martin Carrier wegen seiner unverholenen Rechtfertigung politischer Manipulation der Klimaforschung mit dem begehrten Leibnizpreis der Deutschen Forschungsgemeinschaft (DFG) ausgezeichnet. In einem am 2. Januar 2008 vom Deutschlandfunk ausgestrahlten Interview verriet Carrier, wie sich die Politik mithilfe serviler Eierköpfe ihre vermeintliche Legitimation beschafft. Hier ein Auszug aus dem von Christian Schütte geführten Interview:

„Schütte: Der Klimawandel wird kommen, und er ist zum Großteil durch Menschen verursacht. So hat es der Weltklimarat im vergangenen Jahr dargelegt, ein wissenschaftlicher Bericht. Dennoch sagen Sie, dass an der Entstehung im Grunde genommen auch die Politik beteiligt gewesen sei. Inwiefern?

Carrier: Wir haben hier ein Beispiel für einen positiven Einfluss der Politik auf die Wissenschaft, eben dass das Einwirken der Politik im Weltklimarat, im IPCC, wo die Politik die Wissenschaftler gedrängt hat, die verschiedenen Spezialmodelle zu Ozeanatmosphäre und so weiter zu einem aussagekräftigen Gesamtbild zu verbinden. Die Wissenschaftler selbst hatten ja hier mit Zurückhaltung ihre eigenen Spezialitäten gepflegt und den Blick über den Gartenzaun gerade nicht gewagt. Und der Grund ist klar: Der Eindruck herrschte, dass man nicht hinreichend verlässlich die verschiedenen Teilansätze miteinander verknüpfen könnte. Andererseits ist ja die Politik auf eine Gesamtsaussage angewiesen, da man sonst keine Maßnahmen einleiten oder begründen kann.

Schütte: Das heißt, die Ergebnisse und Empfehlungen sind politisch beeinflusst?

Carrier: Ja, in dem Sinne, wie gesagt, dass sich sozusagen der Druck der Politik als heilsam erwiesen hat insofern, als eine Frage von praktischer Relevanz von außen gestellt worden ist, die die Wissenschaft dann nach Kräften zu lösen versucht hat und in diesem Fall auch erfolgreich zu lösen versucht hat. Und das ist eben eine Frage, die sich so aus der disziplinären Entwicklung der Wissenschaft von selbst nicht gestellt hätte.

Schütte: Wie groß ist denn die Gefahr, dass wissenschaftliche Standards vernachlässigt würden durch den Druck der Politik?

Carrier: Natürlich besteht im Einzelfall auch jetzt immer noch wieder die Gefahr der Überforderung, wenn Fragen gestellt werden, die gewissermaßen von außen kommen, aus der Praxis kommen und sich nicht in der Wissenschaft selbst so ergeben hätten. Aber wir haben eben ganz häufig auch die Fälle, dass hier ein Anstoß, ein Anreiz ausreicht, damit die Wissenschaft dann doch belastbare Resultate erreicht.“

Mein Kommentar: Carrier hat sicher recht, wenn er darauf hinweist, dass die Wissenschaft keine letzte Gewissheit erlangen kann über das, was geht. Doch kann sie m. E. sehr wohl erkennen, was alles nicht geht. Darüber geben uns beispielsweise die Gesetze der Thermodynamik Aufschluss. Carrier aber schließt aus den Grenzen wissenschaftlicher Erkenntnisfähigkeit offenbar, man könne sich politisch darauf einigen, was möglich ist. Wissenschaftliche Standards spielen danach keine Rolle mehr. Entscheidend ist, dass etwas herauskommt, das der Politik in den Kram passt. Sollten sich die von der Politik manipulierten Aussagen des „Weltklima-Rates“ IPCC als Irrtum herausstellen, wäre das in den Augen Carriers nicht weiter schlimm. Denn das von der EU zur obersten Richtschnur der Politik erhobene „Vorsorgeprinzip“ ist so definiert, dass man damit schlicht alles rechtfertigen kann. So wird es möglich, selbst völlig unnütze Milliarden-Investitionen, die lediglich der parasitären Bereicherung der Mitglieder des Ökologisch-Industriellen Komplexes dienen, als Dienst für das „Gemeinwohl“ auszugeben. (Edgar Gärtner, 10. Januar 2008)

„Klimapolitik“ nicht wissenschaftlich begründbar

In der WELT vom 25. September 2007 stellen Prof. Hans Mathias Kepplinger und seine Assistentin Senja Post die Ergebnisse einer online-Umfrage unter sämtlichen 239 deutschen Klimaforschern vor, die ich am 10. September in meinem unten wiedergegebenen Kommentar in der gleichen Zeitung schon kurz erwähnt hatte. Zu den wichtigsten Ergebnissen dieser Umfrage zählt der Befund, dass nur eine Minderheit von 10 bis 20 Prozent der angesprochenen Forscher die empirischen und theoretischen Voraussetzungen für die Berechnung des Klimas heute schon für gegeben hält. Die große Mehrheit der Klimaforscher ist sich also ziemlich unsicher über die Zusammenhänge und die zukünftige Entwicklung des Klimas. „Diese Befunde werfen die grundlegende Frage auf, ob die weitreichenden politischen Maßnahmen zum Schutz des Klimas mit Verweisen auf die Klimaforschung gerechtfertigt werden können“, folgern Kepplinger und Post.

Senja Posts Buch „Klimakatastrophe oder Katastrophenklima?“ ist inzwischen erschienen.

Erwärmung der Arktis überwiegend natürlich

SPIEGELonline hat nun im Bericht über Untersuchungen russischer Forscher zugegeben, dass die auffällig rasche Schmelze von Teilen des arktischen Packeises im letzten Sommer zum großen Teil auf eine natürliche Veränderung von Luftströmungen zurückgeht. Während in einem Teil der Arktis die Temperatur gegen den von „Klimamodellen“ prognostizierten Trend zurückgeht, sind andere Teile der Arktis dem Einfluss warmer südlicher Luftströmungen ausgesetzt. Auf diese Entwicklung hat der inzwischen emeritierte französische Klimatologe Marcel Leroux (Lyon) in seinem im Jahre 2005 im renommierten Springer-Verlag (Heidelberg) erschienen Buch „Global Warming. Myth or Reality?“ hingewiesen. Da Leroux in diesem Buch Ansichten über Ursache und Ablauf des Wettergeschehens vertritt, die der derzeitigen Schulmeteorologie teilweise widersprechen, wurde das Buch von der Fachwelt bislang weitgehend totgeschwiegen. Die Leser meiner in der „Chemischen Rundschau“, im „Novo-Magazin“ und „eigentümlich frei“ erschienenen Artikel, meiner Homepage sowie meines Buches „Öko-Nihilismus“ konnten sich allerdings ausgiebig über die etwas ketzerischen Ansichten des französischen Wissenschaftlers informieren. Was heute in SPIEGELonline steht, weist darauf hin, dass Leroux mit seinen Ansichten wohl nicht ganz falsch liegt. Lesen Sie bitte hier unten einen meiner letzten Beiträge über Leroux und seine Klimahypothese, der im vergangenen September in der WELT erschien.

(3. Januar 2008)

Es wird kalt, nicht heiß

von Edgar Gärtner, Hydrobiologe

Warum versuchen in Europa „Experten“, den Menschen einzureden, nicht die Abkühlung, sondern die Erwärmung der Erde stelle die größere Bedrohung dar? Es muss doch einen Grund haben, dass sie bekannte Zusammenhänge buchstäblich auf den Kopf stellen.

Besuch bei Marcel Leroux, einem in Südfrankreich nicht weit von der Grabstätte Picassos lebenden emeritierten Professor für Klimatologie, der in seinen Büchern eine andere Auffassung über die Ursachen des Klimawandels vertritt als die von der Politik nominierten Experten im zwischenstaatlichen Klimarat IPCC. Der noch frisch und drahtig wirkende Skipper bretonischer Herkunft erklärt mir am Computerbildschirm anhand zahlreicher Satellitenfotos, warum in diesem Jahr in Deutschland so früh der erste Schnee gefallen ist. Er zeigt mir die von Grönland nach Süden ziehende gewaltige Kaltluftmasse mit hohem Druck, die ein charakteristisches Wolkenband vor sich herschiebt, das sich an seiner Nordostseite zu einem Tiefdruckwirbel verdichtet. In Südfrankreich macht sich dieser Kaltlufteinbruch durch einen heftigen Mistralwind bemerkbar.

Neben den Wolkenbildern findet man im Internet hochauflösende Druck-, Niederschlags- und Windkarten, vertikale Temperatur- und Windprofile beinahe für jeden Ort und viele andere Angaben, die laufend aktualisiert werden. Man kann dabei sogar die Daten konkurrierender Anbieter vergleichen, um sich sein Bild über das Wettergeschehen zu machen.

So sieht man deutlich, dass die in Form stehender Wellen durch den Trichter des Rhône-Tals gepresste Kaltluft nur bis etwa 1500 Meter Meereshöhe reicht und dass ihr größter Teil von den Alpen und den Pyrenäen nach Westen auf den Atlantik abgedrängt wird. Setzt sich ein solches Kälte-Hoch jedoch einmal irgendwo auf dem Kontinent fest (wie in diesem Sommer in Südost-Europa), kann es auch zur Ursache einer Hitzewelle werden, weil die Luft dann rasch von der Sonne aufgeheizt wird.

Leroux hat nachgewiesen, dass solche Kaltlufteinbrüche seit den 70er-Jahren in immer kürzeren Abständen aufeinanderfolgen. In Südfrankreich lässt sich das einfach überprüfen: Man braucht nur die Entwicklung der Häufigkeit von Mistralwinden in den vergangenen 30 Jahren zu vergleichen. Dann hat man einen Anhaltspunkt für die Richtung des Klimawandels. Leroux schließt aus seinen langjährigen Beobachtungen, dass wir Zeugen eines allmählichen Abkühlungsprozesses sind, der zu einer kleinen Eiszeit führen kann. Das sei vor allem eine schlechte Nachricht für Afrika.

Der Geograf, der als Sohn eines Marineoffiziers in Tunesien geboren wurde und den größten Teil seines wissenschaftlichen Werdegangs in Afrika absolviert hat, kennt die Klimageschichte des Schwarzen Kontinents wie kein Zweiter. Er zeigt mir anhand anderer Satellitenaufnahmen, dass der Einfluss der in Westeuropa einbrechenden Kaltluft bis weit nach Westafrika reicht. Dort verstärkt sie trockene Passatwinde und trägt damit zum Vorrücken der Wüste bei. Es ist seit Längerem bekannt, dass die Sahara ihre größte Ausdehnung auf dem Höhepunkt der letzten Eiszeit erreichte. Warmzeiten hingegen brachten dem Schwarzen Kontinent immer reichlich Niederschläge und damit relativen Wohlstand.

Warum wissen das in Europa so wenige? Warum versuchen dort „Experten“, den Menschen einzureden, nicht die Abkühlung, sondern die Erwärmung der Erde stelle die größere Bedrohung dar? Es muss doch einen Grund haben, dass sie bekannte Zusammenhänge buchstäblich auf den Kopf stellen. Leroux sieht ihn darin, dass die Politik sich mit einer lautstarken Minderheit computergläubiger Forscher zusammengetan hat, die von historischer Geografie und Meteorologie wenig Ahnung haben.

Der Mainzer Kommunikationsforscher Hans Mathias Kepplinger bestätigt das. Er hat in einer Umfrage herausgefunden, dass nur etwa ein Drittel der deutschen Klimaforscher glaubt, dass der Fortgang der Erwärmung überwiegend negative Konsequenzen hätte. Doch von den anderen zwei Dritteln hört und sieht man bislang nicht viel in den Medien. Es mehren sich aber die Anzeichen für ein Ende der Schweigespirale. Nicht zufällig werden neuerdings Bücher und Sendungen über den „Klimaschwindel“ zu Bestsellern.

(Kommentar erschienen am 10. September 2007 in DIE WELT, Berlin)

———————————————————————————————————————–

Klima: Crux mit grönländischen Knochen

Gemeinhin gilt die seit 1958 am Mauna Loa, einen aktiven Vulkan auf Hawaii, mithilfe der von Charles Keeling perfektionierten Infrarot-Spektroskopie aufgezeichnete gezackte Kurve eines kontinuierlichen, leicht exponentiell anmutenden Anstiegs der CO2-Konzentration der Atmosphäre als wichtigstes „Beweisstück“ für die Annahme, die massive Verbrennung fossiler Energieträger seit der industriellen Revolution des 19. Jahrhunderts trage die Hauptschuld an dem seit etwa 150 Jahren feststellbaren leichten Anstieg der Durchschnittstemperatur über den Landmassen der Erde. Der Freiburger Biochemiker und Gymnasiallehrer Ernst-Georg Beck hat seine freie Zeit genutzt, um an Hand älterer Fachveröffentlichungen über präzise Messungen des CO2-Gehaltes der Luft mithilfe der klassischen Pettenkofer-Methode zu überprüfen, ob sich die inzwischen schon legendäre Mauna-Loa-Kurve von ihrem aktuellen Wert (ca. 380 ppm CO2) tatsächlich nach rückwärts extrapolieren lässt bis zum Wert von etwa 280 ppm CO2, der in den meisten „Klima-Modellen“, die den schlagzeilenträchtigen Berichten des UN-Klimarats IPCC zugrunde liegen, als „vorindustrielles Niveau“ angenommen wird.

Becks Fleißarbeit der Auswertung von etwa 90.000 verwertbaren, weil methodisch einwandfreien historischen Messungen förderte eine Überraschung zutage: Zu Beginn der 40er Jahre des vergangenen Jahrhunderts war die CO2-Konzentration mit 420 ppm in ländlichen Gebieten Deutschlands (gemessen von einer der am besten ausgerüsteten Wetterstationen bei Giessen in Mittelhessen) schon einmal deutlich höher als heute. Auch in den Jahrzehnten davor hat der CO2-Gehalt offenbar stark geschwankt. Deutliche Einflüsse gingen z.B. um 1820 vom Ausbruch des Vulkans Tambora in Indonesien aus. Beck fragt sich nun, ob das Ignorieren dieser älteren Messungen, deren Präzision größtenteils nichts zu wünschen übrig lasse, nicht einem Betrug durch Charles Keeling gleichkommt. Jedenfalls könne der UN-Klimarat IPCC nicht so tun, als habe es vor 1958 keine exakten CO2-Messungen gegeben. Beck hat die Auswertung seiner Literatur-Recherche in diesem Jahr unter dem Titel „180 Years accurate CO2-Gasanalysis of Air by Chemical Methods“ im englischen Fachmagazin ENERGY & ENVIRONMENT (Volume 18, No. 2/2007) veröffentlicht.

Im Mai 2007 hat Beck eine deutsche Kurzfassung seiner Arbeit unter dem gewagten Titel „Der CO2-Betrug, der größte Skandal der Wissenschaftsgesichte der Neuzeit?“ im Internet veröffentlicht. Seither ist Becks Arbeit Gegenstand heftigster Polemik. Inzwischen gibt es allein unter der Internet-Adresse, auf der Becks Artikel erschien, an die 500 mehr oder weniger kritische Stellungsnahmen.

Die von Beck aufgrund älterer chemischer Messungen in Europa rekonstruierte Kurve der historischen Entwicklung der atmosphärischen CO2-Konzentration unterscheidet sich in auffälliger Weise von der vom IPCC veröffentlichten Kurve, die vor 1958 in der Hauptsache auf der Analyse der Lufteinschlüsse von Eisbohrkernen beruht. Diese Analysen spiegeln allerdings nur in den oberen Eisschichten die absoluten CO2-Konzentrationen wider. Schon in wenigen Metern Tiefe liegt die eingeschlossene Luft wegen des wachsenden Drucks nicht mehr in Form von Bläschen vor, sondern fest gebunden in Clathraten, deren Analyse bestenfalls gerade noch Aufschluss über die relativen Konzentrationen ihrer Bestandteile gibt, aber kaum noch etwas über die früher vorhandene reale CO2-Konzentration in der Luft aussagt. Insofern sind die in wissenschaftlichen Veröffentlichungen dokumentierten historischen CO2-Bestimmungen von großem Interesse.

Die Korrektheit der von Beck gesammelten und ausgewerteten historischen CO2-Messungen steht wohl außer Frage. Immerhin zählen zu deren Autoren Persönlichkeiten wie der Nobelpreisträger Otto Warburg und der durch das Linde-Lufttrennverfahren bekannt gewordene Paul Schuftan, deren Messtechniken über allen Zweifel erhaben scheinen. Doch bleibt die Frage, ob die korrekt gemessenen Konzentrationen auch als repräsentativ für die jeweilige globale Durchschnittskonzentration gelten können. So wies Urs Neu vom Pro Clim – Forum for Climate and Global Change der Swiss Academy of Sciences, Bern, im Internet darauf hin, dass Beck Messungen aufführt, die beinahe zur gleichen Zeit vorgenommen wurden, aber zu weit voneinander abweichenden Ergebnissen gelangten. Das sei ein Hinweis auf die fehlende Representativität der von Beck zitierten Messwerte, meint Neu. Außerdem seien Beck bei der Auswertung der unterschiedlichen Messreihen Fehler in der Kalibrierung und Skalierung unterlaufen, die an Manipulation grenzten.

Ähnlich argumentiert Prof. Stefan Rahmstorf vom Potsdam Institut für Klimafolgenforschung (PIK) auf der Internet-Seite „RealClimate“. Rahmstorf knöpft sich hauptsächlich Becks Darstellung der aus Proxydaten (fossile Baumringe, Stalagmiten usw) rekonstruierten Temperaturkurve der vergangenen 1000 Jahre vor, die schon einmal 1990 im 1. IPCC-Bericht gezeigt wurde. Danach war es in der mittelalterlichen Warmzeit, als auf Grönland Weizen angebaut wurde und Kühe grasten, deutlich wärmer und in der darauf folgenden „Kleinen Eiszeit“ erheblich kühler als heute. Rahmstorf streitet ab, dass es im Hochmittelalter tatsächlich wärmer war als heute und verteidigt die erstmals im IPCC-Bericht von 2001 gezeigte „Hockey-Schläger“-Temperatur-Rekonstruktion von Michael Mann et al. Diese Kurve hat in etwas modifizierter Weise auch Eingang in den neuesten IPCC-Bericht gefunden. Danach ist die heutige Durchschnittstemperatur der Erde deutlich höher als jemals zuvor in den letzten 1000 Jahren, was in den Massenmedien als Zeichen einer drohenden „Klimakatastrophe“ gedeutet wird.

Immerhin haben die Kanadier Steve McIntyre und Ross McKitrick Manns „Hockey-Schläger-Kurve“ schon vor zwei Jahren in den „Geophysical Research Letters“, dem Organ der US Geophysical Society, einer fundierten Methodenkritik unterzogen und als statistisches Artefakt entlarvt. Und wie will Stefan Rahmstorf mit der vom IPCC akzeptierten Temperaturkurve erklären, dass bis ins 12. Jahrhundert, durch zahlreiche Knochenfunde belegt, auf Grönland tatsächlich Viehzucht betrieben wurde? Es scheint, dass das letzte Wort in Sachen CO2 und Klima noch nicht gesprochen ist.

Edgar Gärtner

(erschienen in: Chemische Rundschau Nr. 9/2007, VS-Medien, CH-Solothurn)

Rahmstorf entlarvt sich selbst