EU-Betrug mit „heißer Luft“

Nach Angaben von Europol gingen in den vergangenen 18 Monaten bis zu 90 Prozent der Transaktionen im Rahmen des europäischen CO2-Emissionshandelssystems ETS auf Mehrwertsteuerbetrug zurück. Politisch kreierte virtuelle Produkte wie CO2-Zertifikate laden eben zu Betrug und Korruption ein. So erhielt auf der Kopenhagener Klimakonferenz die Forderung nach einem kommunistischen Polizeistaat Auftrieb.

„ETS-Gate“

Heiße Luft ist kaum kontrollierbar

von Edgar L. Gärtner

Betrug mit CO2-Zertifikaten als Schritt zum kommunistischen Weltstaat

Während Vertreter der EU auf der Kopenhagener Klimakonferenz das Europäische CO2-Emissionshandelssystem ETS noch als Zauberformel für den „Klimaschutz“ anpreisen, schlägt die europäische Kriminalbehörde Europol Alarm: In den vergangenen 18 Monaten seien die europäischen Steuerzahler durch Mehrwertsteuerbetrug beim internationalen Handel mit CO2-Zertifikaten um über fünf Milliarden Euro erleichtert worden. Nach Schätzungen von Europol hängen bis zu 90 Prozent des gesamten Emissionshandelsvolumens von immerhin bereits 40 Milliarden Euro mit Mehrwertsteuerbetrug zusammen. Dabei haben betrügerische Kleinfirmen, die bislang im Computerchip- oder Mobilfunkhandel tätig waren, leichtes Spiel: Sie kaufen in einem anderen EU-Land angebotene freie Emissionsrechte ganz legal ohne Mehrwertsteuer für derzeit etwa 14 Euro je Tonne CO2 und verkaufen sie in einem anderen EU-Land mit Mehrwertsteuer-Aufschlag. Bevor die zuständigen Finanzämter sich um die Rückerstattung der einkassierten Mehrwertsteuer kümmern können, sind diese Firmen schon wieder vom Markt verschwunden. Nun schützen sich die am stärksten betroffenen EU-Mitgliedsstaaten Großbritannien, Frankreich, Spanien und die Niederlande durch die Verlagerung der Mehrwertsteuer-Erhebung vom Verkäufer auf den Käufer gegen dieses Abkassieren. Auch die deutsche Finanzverwaltung hat reagiert. Hier gibt es inzwischen Ermittlungen gegen 40 verdächtige Firmen.

Doch ist diese noch verhältnismäßig leicht kontrollierbare Form des Schwindels mit heißer Luft wohl nur die Spitze des Eisbergs. Es gibt weitaus subtilere Betrugsmöglichkeiten im Rahmen des vom Kioto-Protoll vorgesehenen Clean Development Mechanism (CDM). Auf dessen Grundlage können Firmen in den Industrieländern Treibhausgas-Zertifikate beziehungsweise Gutschriften erwerben, wenn sie sich in armen Ländern an Energie und Treibhausgase sparenden Investitionen beteiligen. Damit solche Projekte als CDM-Maßnahme anerkannt werden können, müssen die Geschäftspartner allerdings nachweisen, dass die anstehenden Investitionen ohne CDM-Hilfe nicht getätigt würden.

Nichts leichter als das. Ein gerade von einem UN-Ausschuss abgelehntes Windparkprojekt bei Harbin in Nordostchina zeigt, wie leicht die Kostenvoranschläge in Richtung Förderungswürdigkeit manipuliert werden können. Die chinesische Regierung brauchte nur den Einspeisetarif des Windparks zu senken, um ihn als zuschussbedürftig erscheinen zu lassen. In Nigeria wurde der Verzicht auf die Abfackelung von Bohrloch- und Raffinerie-Abgasen hinausgezögert, um dafür CDM-Mittel kassieren zu können. Nach Schätzung des kalifornischen Professors David G. Victor sind bis zu zwei Drittel der knapp sieben Milliarden Dollar, die im letzten Jahr in CDM-Maßnahmen geflossen sind, Projekten zugute gekommen, die ohnehin realisiert worden wären.

Noch ist das nur der Anfang. Der Kopenhagen-Gipfel soll das Signal für eine sprunghafte Ausweitung des internationalen Emissionsrechtehandels geben. Dessen mögliches Volumen wird auf nicht weniger als zwei Billionen US-Dollar geschätzt. James Bone warnt in der Londoner „Times“ vom 7. Dezember vor kriminellen Machenschaften in großem Stil. Die Geldsummen, die auf dem Spiel stehen, lüden geradezu zum Aufbau von Korruptions-Netzwerken nach dem Vorbild des „Oil-for-Food“-Programms der UN ein. Schon wird IPCC-Chef Rajendra K. Pachauri verdächtigt, im großen Stil an dem vom IPCC geförderten CO2-Emissionshandel zu verdienen. Man kann hinzufügen: Wenn es schon kaum möglich ist, nicht nur den Handel mit Drogen, sondern auch den Ölhandel wirksam zu kontrollieren, dann wird sich der Handel mit virtuellen Produkten wie CO2-Zertifikaten erst recht der Kontrolle entziehen. Ein globaler Zertifikatehandel dürfte über kurz oder lang einen globalen Polizeistaat nach sich ziehen. Tatsächlich enthält nicht nur der im Frühsommer von diversen NGOs vorgestellte, sondern auch der offizielle Entwurf eines Kopenhagener Klima-Vertrages deutliche Bekenntnisse zur Errichtung eines kommunistischen Weltstaates, der allen Erdbürgern die gleiche Kohlenstoff-Ration zuteilt. Darauf hat Lord Christopher Monckton erst kürzlich auf der Zweiten Internationalen Klimakonferenz in Berlin hingewiesen. Niemand soll behaupten können, er sei nicht vorgewarnt worden. (11. Dezember 2009)

Internet

Europol: Carbon Credit fraud causes more than 5 billion euros dammage

The Climate Mafia: Fraudulent Emissions-Trading Schemes Rob German Tax Authorities

Climate Change or Hot Air?

Oil-for-Food scandal ‘a warning for all at Hopenhagen’

Pachauri verdient am Emissionshandel

All roads lead to Pachauri

Germanwatch: Copenhagen climate treaty version 1.0

Draft Copenhagen Treaty Download

Christopher Monckton on the Copenhagen Treaty

Zweite Internationale Klima-Konferenz, Berlin

==========================================================================================

Europäischer Emissionshandel:

Chemie stärker betroffen als gedacht

Als die EU-Kommission am 23. Januar 2008 den Entwurf ihres „Klimapakets“ mit Vorgaben für die dritte CO2-Emissionshandelsperiode (2013 bis 2020) vorlegte, gingen etliche Akteure und Beobachter noch davon aus, dass energieintensiven Industriezweigen wie die Chemie-, Papier-, Glas-, Keramik-, Aluminium- und Stahlindustrie großzügig kostenlose Zertifikaten zugeteilt würden, um Nachteile gegenüber außereuropäischen Wettbewerbern wettzumachen. Doch seit der ersten Lesung des „Klimapakets“ im Dezember 2008 zeichnet es sich immer deutlicher ab, dass diese Hoffnung auf einer Illusion beruhte.

Ziel des „Klimapakets“ ist die Senkung der Treibhausgasemissionen der dem Emissionshandelssystem ETS unterliegenden Produktionsanlagen gegenüber dem Basisjahr 2005 um 21 Prozent bis zum Jahre 2020. Diese im Anhang I der EU-Verordnung aufgelisteten Anlagen benötigen eine Emissionsgenehmigung, die alle fünf Jahre überprüft werden muss. Die Anlagenbetreiber müssen die zuständige Behörde laufend über Verfahrens- und Kapazitätsänderungen informieren. Schon in der Mitte der zweiten Handelsperiode (2008 bis 2012) beginnt die sukzessive Abschmelzung der einmal zugeteilten Emissions-Zertifikate um linear 1,74 Prozent jährlich. Zu Beginn der dritten Handelsperiode läge also die Zuteilungsmenge bereits um etwa 7 Prozent unter der durchschnittlichen Zuteilungsmenge der zweiten Handelsperiode. Eine von der EU-Kommission in Auftrag gegebene Gesetzesfolgenabschätzung (Impact Assessment) erwartet infolge dieser Verknappung ein Ansteigen der Zertifikatpreise auf bis zu 6o Euro je Tonne CO2 gegenüber aktuell etwa 15 €/t. In dieser Studie wurden allerdings absehbare Auswirkungen der inzwischen infolge der Finanzkrise eingetretenen Produktionseinbrüche allerdings noch nicht berücksichtigt.

Grundsätzlich sollen die Zertifikate über Auktionen zugeteilt werden. Für die Stromerzeugung müssen ab 2013 alle Zertifikate ersteigert beziehungsweise anderen Zertifikate-Inhabern abgekauft werden. Betreiber anderer Industrieanlagen erhalten zunächst noch einen Teil der benötigten Zertifikate umsonst. Die Auktionserlöse, die in den Kassen der EU-Mitgliedsstaaten landen, müssen mindestens zur Hälfte in Klimaschutzprojekte investiert werden.

Außer Stromerzeugungskapazitäten unterliegen in der chemischen Industrie alle „Verbrennungsanlagen“ mit einer thermischen Leistung von über 20 MW (unabhängig von ihrem Zweck) dem Emissionshandel. Dazu zählen laut Anhang I Anlagen zur Herstellung von Ruß, Salpetersäure, Adipinsäure, Glyoxal beziehungsweise Glyoxalsäure, Ammoniak sowie Anlagen zur Herstellung organischer Grundchemikalien durch Cracken, Reformieren, partielle oder vollständige Oxidation mit einer Kapazität von über 100t/d. Weiter Anlagen zur Herstellung von Wasserstoff und Synthesegas durch Reformieren oder partielle Oxidation mit einer Kapazität von über 25 Tonnen am Tag und schließlich Anlagen zur Herstellung von Soda und Natriumbicarbonat. Neben typischen Chemieanlagen können auch Hilfsanlagen wie Trockner und Destillationsanlagen unter die Verbrennungsdefinition der EU fallen und somit bei entsprechender thermischer Kapazität (über 20 MW) der Emissionshandelspflicht unterliegen. Vom Emissionshandel ausgenommen sind Anlagen, die ausschließlich Forschungszwecken dienen, ausschließlich Biomasse nutzen oder Abfälle verbrennen. Für Kleinanlagen mit Feuerungswärmeleistungen unter 35 MW gibt es nach Artikel 27 gesonderte Regelungen. Sie können vom Emissionshandel ausgenommen werden, wenn die zuständigen Mitgliedsstaaten bei diesen Anlagen durch Maßnahmen wie zum Beispiel Energiesteuern auf anderem Wege eine Emissionsminderung zu erreichen suchen. Deren Erfolg muss durch ein Monitoring dokumentiert werden.

Als problematisch erscheint die absehbare starke Belastung aller stromverbrauchenden Anlagen der chemischen Industrie. Denn die chemische Industrie ist bekanntlich die Branche mit dem höchsten Stromverbrauch. Besonders betroffen sind die Hersteller von Chlor und Industriegasen. Da die Stromerzeuger alle von ihnen benötigten Zertifikate ersteigern und deren Preis auf ihre Kunden abwälzen müssen, hängt die Gesamtbelastung der Industrie von „CO2-Gehalt“ des jeweiligen nationalen Strom-Mixes ab. Dieser liegt im EU-Durchschnitt bei 0,4 kg/kWh, in Deutschland jedoch bei 0,6 kg CO2/kWh, in Polen wegen des hohen Kohlestromanteils sogar bei 0,9 kg CO2/kWh, liegt aber im Nachbarland Frankreich wegen des hohen Atomstromanteils deutlich unter dem Durchschnitt.

Kraft-Wärme-Koppelungs-Anlagen, die in der Energieversorgung der chemischen Industrie eine bedeutende Rolle spielen, sind ebenfalls in den Emissionshandel einbezogen. Sie können aber, sofern sie bestimmte Effizienzkriterien erfüllen, von der Zuteilung kostenloser Zertifikate profitieren, und zwar bis 2013 bis zu einem Anteil von 80 Prozent. Dieser Prozentsatz wird dann bis 2020 auf 30 Prozent abgeschmolzen. Die EU-Kommission ist verpflichtet, bis Ende 2010 einheitliche Regeln für die kostenlose Zuteilung von Zertifikaten auf der Basis von Benchmarks zu veröffentlichen.

Besondere Zuteilungsregeln soll es für „exposed sectors“ der Industrie geben, d.h. für Branchen, die starkem Wettbewerbsdruck von außerhalb der EU ausgesetzt sind. Die Kriterien für die Klassifizierung als „exposed sector“ werden vom Inhalt eines Analyseberichts abhängig sein, den die EU-Kommission im Juni 2010 nach dem Abschluss der internationalen Klimaschutzverhandlungen vorlegen muss. Sofern diese Konferenz überhaupt zu greifbaren Ergebnissen (insbesondere hinsichtlich der Einbeziehung großer „Schwellenländer“ wie China, Indien oder Brasilien in CO2-Reduktionsverpflichtungen) gelangt, müssen diese in die Definition von „exposed sectors“ einfließen. Außer durch kostenlose Zertifikate-Zuteilungen auf der Basis von Benchmarks der CO2-Kosten je Euro Bruttowertschöpfung und der Handelsintensität können EU-Mitgliedsstaaten Benachteiligungen stromintensiver Produktionsanlagen auch finanziell kompensieren. Solche Maßnahmen gelten aber als Beihilfen, die von der EU-Kommission genehmigt werden müssen.

Vor dem Kopenhagener Klima-Gipfel ist es also nicht möglich, einigermaßen realistisch abzuschätzen, ob die Chemie bei der Zuteilung von Emissionszertifikaten von Ausnahmeregelungen wird profitieren können. Zumindest Dr. Jörg Rothermel, der im deutschen Chemieverband für den Klimaschutz zuständige Geschäftsführer, gibt sich optimistisch: „Das ‚Klimapaket‘ der EU ist zwar hastig und dilettantisch zusammengeschnürt worden. Wir gehen aber davon aus, dass wir letztlich damit werden leben können, zumal Günter Verheugen, der Vizepräsident der EU-Kommission, noch im Februar 2009 auf die Unverzichtbarkeit der Innovationskraft der Chemie für eine nachhaltige Entwicklung in Europa hingewiesen hat. Die EU muss den Emissionshandel so gestalten, dass ein ‚carbon leakage‘, ein Auswandern von Industrien in Regionen mit niedrigeren Umweltstandards, vermieden wird.“

Dagegen scheint es in der deutschen Wirtschaft noch kaum Überlegungen für den Fall eines völligen Scheiterns des Kopenhagener Klima-Gipfels beziehungseise einer krisenbedingten vorzeitigen Beendigung des CO2-Hype zu geben. Zumindest in England und in Schweden treffen sich aber inzwischen schon Parlamentarier und Industrielle bei informellen Seminaren zum Thema „Was tun, wenn die CO2-Blase platzt?“

Edgar Gärtner (erschienen in: CR-Chemische Rundschau Nr. 5/30. April 2009)

Emissionshandel vertreibt die Industrie

================================================================================================

Ärger beim Handel über REACh-Artikel 33

Die Industrie hat die neue EU-Chemikalienverordnung REACh, eine Ausgeburt bürokratischen Denkens, am Ende akzeptiert. Schon vor deren Inkrafttreten am 1. Juni 2007 hat sie begonnen, sich auf die Registrierung und Prüfung von ca. 30.000 Stoffen vorzubereiten. Weitgehend übersehen wurde bislang, was auf den Einzelhandel zukommt.

Erklärtes Ziel der REACh-Verordnung ist die Verbesserung des Verbraucherschutzes durch mehr Transparenz über die Inhaltsstoffe von Endprodukten. Nach Artikel 33 REACh ist jeder Lieferant eines Erzeugnisses, das in verschiedenen Anhängen der Verordnung aufgelistete „besorgniserregende“ Stoffe in einer Konzentration von mehr als 0,1 Masseprozent enthält, verpflichtet, seine Kunden darüber zu informieren. Gleichzeitig formuliert der besagte Artikel einen Anspruch privater Verbraucher, Anfragen über die stoffliche Zusammensetzung von Endprodukten binnen 45 Tagen kostenlos beantwortet zu bekommen. In welcher Form der Einzelhandel diesen Verpflichtungen nachkommen kann, hat der Gesetzgeber aber offen gelassen. Obendrein wird erst frühestens um die Jahreswende 2008/2009 feststehen, um welche „besorgniserregenden“ Stoffe es sich dabei im Einzelnen handelt. Denn dann endet die Frist für die Vorregistrierung der REACh unterliegenden Stoffe.

Erst von diesem Zeitpunkt an werden die Chemikalienhersteller in Zusammenarbeit mit der zentralen Agentur (EChA) der EU in Helsinki daran gehen können, systematisch Problemstoffe zu ermitteln, die den Kriterien des REACh-Artikels 57 entsprechen. Es handelt sich dabei um Substanzen, die sich in der Praxis oder in Tierversuchen mit höheren Dosen als krebserregend, erbgutverändernd oder die Fortpflanzung beeinträchtigend erwiesen haben (CMR-Stoffe). Hinzu kommen Stoffe, die zugleich persistent, bioakkumulierbar und toxisch sind (PBT-Stoffe), sowie sehr persistente und sehr bioakkumulierbare (vPvB) Substanzen. Darüber hinaus bezieht sich Art. 57 auch auf Stoffe, die zwar keines der angeführten Kriterien erfüllen, aber dennoch (nach wissenschaftlichen Erkenntnissen) wahrscheinlich „schwer wiegende Wirkungen auf die menschliche Gesundheit und die Umwelt haben“ und deshalb „ebenso besorgniserregend sind.“ Art. 59 zählt die Verfahren auf, nach denen diese Stoffe im Einzelfall ermittelt werden.

„Der Gesetzgeber hat leider keine Übergangszeiten vorgesehen“, beklagt sich Beat Alexander Spaeth vom Brüsseler Büro des Hauptverbandes des Deutschen Einzelhandels e.V. (HDE). „Deshalb bemüht sich unser Verband schon heute darum, ein geeignetes Format für diese Informationen festzulegen. Wir müssen versuchen, Missverständnisse zu vermeiden. Denn die bloße Anwesenheit verdächtiger Stoffe bedeutet nicht automatisch, dass damit Gesundheitsrisiken verbunden sind.“ Spaeth gehört zu den Teilnehmern einer von Werner Preusker, dem Geschäftsführer der Bonner Arbeitsgemeinschaft PVC und Umwelt (AgPU), initiierten und in Zusammenarbeit mit der Chemie- und Kunststoffindustrie durchgeführten Gesprächsreihe über die praktische Umsetzung von REACh im Handel.

Im Einzelhandel herrscht, nach einigen bitteren Erfahrungen mit diffamierenden Veröffentlichungen des Magazins „Öko-Test“ und mit Kampagnen von Umwelt- und Verbraucherverbänden zur Verteufelung und Ächtung bestimmter Stoffgruppen, heute die Tendenz, Produkte mit verdächtigen bzw. verunglimpften Inhaltsstoffen vorsorglich auszulisten oder die Lieferanten in Form von Negativlisten zu drängen, in ihren Rezepturen auf die inkriminierten Substanzen zu verzichten. Ein solches Vorgehen, das wurde in den Gesprächen zwischen Vertretern der Kunststoffindustrie und des Einzelhandels schnell klar, erscheint angesichts der bei REACh zur Debatte stehenden großen Zahl von Stoffen von vornherein aussichtslos. Dann müsste man wohl auf ganze Produktgruppen verzichten. Denn schon heute ist absehbar, dass allein die frühestens am 1. Juni 2009 von der Chemikalienagentur in Helsinki erwartete „Kandidatenliste“ vordringlich („prioritär“) zu prüfender Stoffe für den REACh-Anhang XIV vermutlich weit über 1.000 Substanzen enthalten wird. Zudem stehen diese Stoffe, wie die inoffizielle Bezeichnung „Kandidatenliste“ schon andeutet, erst einmal nur unter Verdacht, gesundheits- oder umweltschädlich zu sein. Wieweit der Verdacht begründet ist, muss noch mithilfe mehr oder weniger aufwändiger Testverfahren (oft unter Einschluss teurer und langwieriger Tierversuche) überprüft werden.

Es besteht aber die Gefahr, dass die Ergebnisse dieser Prüfungen zu spät kommen. Denn die „Kandidatenliste kann von NGOs und den Massenmedien leicht als „schwarze Liste“ interpretiert werden. Nur mit großer Mühe kann es den Herstellern und Lieferanten dann noch gelingen, ihre Kunden davon zu überzeugen, das Ende des Verfahrens abzuwarten. Davon wissen die PVC- bzw. Weichmacher-Hersteller und –verarbeiter ein Lied zu singen. So verbannte die EU den derzeit gebräuchlichsten PVC-Weichmacher Di-Isononyl-Phthalat (DINP) im Jahre 2005 aus Baby- und Kleinkinder-Spielzeug, obwohl der Stoff fast zur gleichen Zeit in der amtlichen Risikobewertung der EU bei allen Anwendungen (einschließlich Spielsachen) als für Mensch und Umwelt unbedenklich eingestuft wurde. Während der jahrelangen wissenschaftlichen Untersuchung möglicher Beeinträchtigungen von Gesundheit und Umwelt durch DINP hatte es in den Medien, genährt durch eine Kampagne von Greenpeace, wilde Spekulationen über Gesundheitsgefahren durch synthetische Kunststoff-Weichmacher gegeben, wobei die Vielzahl unterschiedlicher Phthalate sozusagen in „Sippenhaft“ genommen wurde. Dem dadurch aufgebauten Druck hatten die Mitglieder des Europa-Parlaments (EP), mit wenigen Ausnahmen, am Ende nachgegeben. Das war dem öffentlichen Image des bewährten Weichmachers DINP sicher nicht förderlich – auch bei den nach wie vor erlaubten Standardanwendungen.

In den heißen Debatten vor der Verabschiedung von REACh hat die Mehrzahl der Europa-Parlamentarier dieses Risiko durchaus erkannt und in den Bestimmungen des Art. 59 einzugrenzen versucht. Da der vom Umweltausschuss des EP befürwortete Zwang zur Substitution bedenklicher Stoffe, das strenge „Substitutionsprinzip“, im harten Ringen zwischen EP, EU- Rat und Kommission („Trialog“) im letzten Moment gekippt wurde, scheinen etliche Parlamentarier nicht unglücklich über die nach wie vor bestehende Möglichkeit, mithilfe von Massenmedien Druck in Richtung einer gewünschten „Substitution“ ausüben zu können. So sieht es zumindest Werner Preusker.

Über eines wurden sich die Teilnehmer der Gesprächsreihe jedenfalls einig: Der Einzelhandel muss sich auf eine Phase der Unsicherheit vorbereiten, weil er sich erst nach der Veröffentlichung der „Kandidatenliste“ durch die EChA im nächsten Jahr im Detail mit Strategien einer angemessenen Verbraucherinformation befassen kann, dafür bislang aber keine Übergangsfrist eingeräumt bekam. Diskussionen gibt es noch über die Art dieser Vorbereitung: Soll jeder Lieferant eine Datenbank bereitstellen, damit Kunden bei Bedarf binnen 45 Tagen individuell informiert werden können? Oder sollen sich alle Lieferanten der gleichen Stoffe zu einem „Informationskonsortium“ zusammentun? Oder wäre es nicht besser, wenn sich unabhängige private Dienstleister um den Aufbau einer Datenbank kümmern, damit der Einzelhandel und kleinere Lieferanten entlastet werden? Soll jeder Endverkäufer die Informationen mit der Ware geliefert bekommen? Oder sollen mehrere Anbieter eine gemeinsame Datenbank für Verbraucherinformationen für alle Einzelhändler aufbauen? Fragen über Fragen.

In diesem Zusammenhang kam vom Vertreter der Düsseldorfer Metro-Gruppe, Holger Stappen, die Anregung, eine einheitliche, kompakte, die Handelshäuser übergreifende Datenbank zu entwickeln, in der die Lieferanten mit wenigen notwendigen Daten (z.B. EAN-Code, Produktname, Modellnummer, im Falle von Stoffen, die REACh Art. 33 unterliegen, die CAS-Nummer und CMR-Einstufung) darauf hinweisen, dass Erzeugnisse von REACh betroffen sind. Auf diese Datenbank würde exklusiv der Handel Zugriff haben, um nur im Falle einer Kundenanfrage schnell und unproblematisch reagieren zu können. „Diese Datenbank wäre eine enorme administrative Entlastung für alle Beteiligten – Handel und Industriepartner -, da das durch die Gesetzgebung forcierte ‚receive & forward’ der Kundenanfragen an den Industriepartner entfallen würde“, meint Stappen. Ebenfalls sollte nach Aussagen des Metro-Vertreters die fachliche Kommunikation zum Endkunden hin harmonisiert werden, um eine Vergleichbarkeit zu gewährleisten und potentielle Angriffsflächen zwischen Handelspartnern zu reduzieren. Aus der chemischen Industrie kam die Anregung, sich dabei das bereits existierende weltweite Stoffregister der Automobilindustrie zum Vorbild zu nehmen.

Die Zeit drängt, da bekannt geworden ist, dass Greenpeace schon Postkarten-Vordrucke für massenhafte Kundenanfragen bereithält. „Es kann nicht sein, dass am Ende demokratisch nicht legitimierte Gruppierungen darüber entscheiden, welche Artikel noch angeboten werden dürfen, zumal die in Boykott-Kampagnen angepriesenen Alternativen oft noch problematischer, weil weniger intensiv geprüft sind“, unterstreicht Werner Preusker.

Ungeklärt ist vor allem das Problem, in welcher Form und wissenschaftlicher Tiefe die Informationen am besten bereitgestellt werden sollten. Angaben, die für eine sichere Verwendung eines Erzeugnisses erforderlich sind, gehören ohnehin zu einem ordentlichen Kaufvertrag und werden in Form von Gebrauchsanweisungen mitgeliefert. Wie die Anwender damit zurechtkommen, steht auf einem andern Blatt. Viel schwieriger ist es, den Verbrauchern zu erklären, warum sich auf der Zutatenliste von Endprodukten auch Stoffe finden können, die auf der „Kandidatenliste“ stehen. Das können zum Beispiel Phosphorverbindungen sein, die für sich genommen hoch giftig, als Flammschutzausrüstung aber unverzichtbar für den sicheren Gebrauch von Kunststoffartikeln sind und in dieser Form gesundheitlich unproblematisch sein können, weil sie nicht in bedenklicher Menge in den menschlichen Organismus gelangen können. „Gerade die Darstellung, dass ein besorgniserregender oder potenziell problematischer Stoff in einem Erzeugnis vorhanden, aber unbedenklich ist, wenn er beim Gebrauch nicht freigesetzt werden kann, wird sehr schwierig zu bewerkstelligen sein“, warnt Werner Preusker.

„Der Verbraucher hat Anspruch auf verständliche, zutreffende, weder verharmlosende noch Angst machende Darstellungen. Man muss hier den Mittelweg zwischen Laieninformation und wissenschaftlicher Vollständigkeit eines Sicherheitsdatenblatts finden“, fordert Preusker. Keine leichte Aufgabe, denkt man dabei nur an die zwiespältigen Erfahrungen mit den Beipackzetteln von Medikamenten. Viele Patienten lesen diese meist klein gedruckten Informationen gar nicht oder nur bis zur Einnahme-Anleitung. Wer sich aber die Mühe macht, zum Beispiel den Beipackzettel einer Allerwelts-Arznei wie Aspirin mit einer langen Liste nicht ausgeschlossener gefährlicher Nebenwirkungen ganz zu studieren, dem vergeht dann oft die Lust, die Arznei noch zu schlucken. Edgar Gärtner

(erschienen in: Chemische Rundschau Nr. 1-2/2008, VS-Medien, CH-Solothurn)

==========================================================================

H-FCKW-Ausstieg

Eiszeit für Kältemittel

Im September 2007 einigte sich eine internationale Konferenz in Montreal darauf, den Ausstieg aus der Verwendung teilhalogenierter Fluor-Chlor-Kohlenwasserstoffe (H-FCKW) als Kältemittel um 10 Jahre vorzuziehen. Schon jetzt zeigt es sich, dass dieser Beschluss Auswirkungen hat, die den hinter ihm stehenden Absichten zuwider laufen.

Im Vorfeld der vage ausgegangenen aufwändigen Klimakonferenz auf Bali im Dezember 2007 hatten sich anlässlich des 20. Jahrestages des Montréaler Protokolls über Stoffe, die die Ozonschicht schädigen (ODS), schon im September 2007 Vertreter von 191 Regierungen in Montreal getroffen. Im Unterschied zum Spesen-Spektakel auf Bali kam diese Veranstaltung zu einem Ergebnis, das Achim Steiner, der Direktor des UN-Umweltprogramms (UNEP) als „historische Einigung“ feierte. Die in Montreal getroffene Vereinbarung sei „vielleicht der wichtigste Durchbruch in einer internationalen Umweltverhandlung seit mindestens fünf oder sechs Jahren“, ließ er verlauten. Kern der Vereinbarung ist eine Vorverlegung des vollständigen Ausstiegs aus der Verwendung teilhalogenierter Fluorchlorkohlenwassserstoffe (H-FCKW) auf das Jahr 2020 in den Industrieländern und das Jahr 2030 in den Entwicklungsländern.

Im September 1987 hatten sich 24 Regierungen und die EU-Kommission darauf geeinigt, die als chemisch inerte und somit „langlebige“ Kälte- und Treibmittel seit Jahrzehnten bewährten Fluor-Chlor-Kohlenwasserstoffe (FCKW) zu verbieten. In der Zwischenzeit haben 191 von 196 Staaten das Montréaler Abkommen ratifiziert. Grundlage dieser Übereinkunft waren theoretische Arbeiten der dafür mit dem Nobelpreis ausgezeichneten Wissenschaftler Sherwood Rowland, Mario Molina und Paul Crutzen, die den photolytisch aus den FCKW freigesetzten Chlor-Radikalen die Hauptschuld an der beinahe in jedem Winter beobachteten extremen Ausdünnung der Ozonschicht über der Antarktis (das sog. Ozonloch ) gaben. Wie weit das von Rowland, Molina und Crutzen vorgeschlagene Modell der Ozonzersetzung der Realität entspricht, konnte nie geklärt werden, zumal in der Zwischenzeit bedeutende natürliche Quellen langlebiger halogenierter Kohlenwasserstoffe entdeckt wurden.

Einmal in Gang gesetzt, war die UN-Bürokratie von der von den späteren Nobelpreisträgern gewiesenen Fährte aber nicht mehr abzubringen. So kamen konsequenterweise auch die nach dem Montreal-Beschluss zunächst massiv als FCKW-Ersatzstoffe eingesetzten teilhalogenierten Fluor-Chlor-Kohlenwasserstoffe (H-FCKW) immer mehr unter den Beschuss einflussreicher Umweltverbände wie vor allem Greenpeace. Deshalb wurde bereits im Mai 1991 eine deutsche FCKW-Halon-Verbots-Verordnung verabschiedet, die gegenüber dem Montréaler Protokoll deutliche Verschärfungen aufwies. Seit 1994 werden in Deutschland überhaupt keine vollhalogenierten FCKW mehr hergestellt. Entsprechend dieser Verordnung von 1991 wurde ab 1. Januar 1996 auch der Einsatz von H-FCKW als Kältemittel in nicht geschlossenen Direktverdampfungssystemen, in Haushaltskühl- und –gefriergeräten sowie in Straßenfahrzeugen verboten. 1998, 2000 und 2001 traten weitere Verbotsstufen in Kraft. Die später verabschiedete EU-Verordnung EG 2037/2000 ging in fast allen Teilen noch über die deutschen Vorschriften hinaus.

Das bis dahin wegen seiner hervorragenden volumetrischen Kälteleistung und Energieeffizienz mit Abstand gebräuchlichste halogenierte Kältemittel Chlordifluormethan (R 22) darf in Deutschland seit dem 1. Januar 2000 nicht mehr in neuen Erzeugnissen, wie z.B. Kälte-, Klima- und Wärmepumpenanlagen verwendet werden. Zwischenhändler und „Nichthersteller“ durften allerdings mit R 22 befüllte Anlagen, die vor diesem Datum hergestellt worden waren, weiterhin vermarkten. Das Nachfüllen von R 22 in Altanlagen sollte solange erlaubt bleiben, bis geeignete Ersatzkältemittel mit geringem Ozonabbaupotenzial (ODP) verfügbar sind. Nur für Produkte, die in Länder exportiert werden, in denen der Einsatz von H-FCKW noch uneingeschränkt erlaubt ist, sollten die Verwendungsbeschränkungen für H-FCKW bis zum 31. Dezember 2009 ausgesetzt bleiben. Denn außerhalb Europas (vor allem in den Boom-Ländern Asiens, aber auch in Amerika) wird R 22 in stationären Kälte- und Klimaanlagen wohl noch einige Zeit das Kältemittel der Wahl bleiben. Der europäische Kältemittelmarkt ist demgegenüber relativ klein. Die Frage nach geeigneten Alternativen für R 22 scheint übrigens noch nicht befriedigend beantwortet. Es wird befürchtet, dass sich vor allem in Südeuropa R 22-Anwender mit Schmuggelware aus China oder durch die Wiederverwendung nicht entsorgter Altware aus eigenen stillgelegten Anlagen behelfen werden. Ähnliches war bereits beim F 12-Ausstieg zu beobachten.

Weitere Regelungen brachte ab 4. Juli 2006 die EU-Verordnung EG 842/2006 über den Einsatz bestimmter fluorierter sog. Treibhausgase (F-Gase-Verordnung). Diese Verordnung, deren wesentliche Bestimmungen am 4. Juli 2007 in Kraft traten, zielt, wie ihr Name bereits andeutet, auf die Vermeidung bzw. Begrenzung der Emissionen von F-Gasen (H-FKW, SF6 und PFC). Dadurch geraten nun auch chlorfreie, teilfluorierte FCKW-Ersatzstoffe (H-FKW) wie vor allem das bislang insbesondere in mobilen Klimaanlagen (MAC), aber auch in stationären Kälteaggregaten als Ersatz für das klassische FCKW „Frigen“ oder „Kaltron“ (R 12) eingesetzte R 134a (Tetrafluorethan) ins Blickfeld der politischen Regulierung. Umweltverbände und nationale Behörden wie das deutsche Umweltbundesamt (UBA) in Dessau dringen allerdings bereits darauf, H-FKW unter Hinweis auf ihr Treibhauspotenzial vollständig durch „natürliche“ Kältemittel wie Propan, Isobutan, Ammoniak oder Kohlenstoffdioxid zu ersetzen, obwohl das nicht Ziel der F– Gase-Verordnung ist, die sich mit wenigen Ausnahmen hauptsächlich auf die Emissionsvermeidung (containment, recovery, etc.) bezieht.

Bei diesen Vorschlägen wird nicht berücksichtigt, dass der Einsatz von H-FKW wesentlichen Anteil bei der Vermeidung von indirekten CO2 Emissionen hat und damit ein wichtiger Beitrag zur CO2 Emissionsreduzierung insgesamt geleistet wird.

Im Detail werden die Durchführungsbestimmungen der Verordnung in den EU – Mitgliedsländern ausgearbeitet und sind noch nicht in allen Punkten eindeutig, weshalb die Diskussion über die Auslegung einzelner Bestimmungen anhält.

Für den Einsatz von H-FKW in mobilen Kälteanlagen wurde separat zur Verordnung 842/2006 eine EU – Direktive erstellt.

Die europäischen F-Gase-Hersteller haben im Rahmen des Chemiedachverbandes CEFIC im Oktober 2007 eine Internet-Plattform (www.figaroo.org) eingerichtet, um einen besseren Informationsaustausch zwischen Herstellern, Vertreibern und Anwendern fluorierter Kälte- und Treibmittel sowie den nationalen und internationalen Regulierungsbehörden zu ermöglichen und dadurch zu praktikablen Umsetzungsschritten der EU–Verordnung und der EU–Direktive zu gelangen.

Die in der „Multisectoral Initiative in Potent Industrial Greenhouse Gases (www.mipiggs.org/)“ zusammengeschlossenen Umweltinitiativen versuchen nach wie vor, das absehbare Wachstum des HFKW-Einsatzes zu einer neuen Gefahr für das Weltklima aufzubauschen. Die auf der Basis des Kyoto-Protokolls erzielbaren Fortschritte bei der Einsparung klassischer Treibhausgase würden angeblich durch die rasche Zunahme des Einsatzes von R 134a in Kfz-Klimaanlagen wieder zunichte gemacht. Doch unverdächtige Hochrechnungen, die Winfried Schwarz und André Leisewitz vom Frankfurter Ökorecherche-Büro (www.oekorecherche.de ) im Auftrag des UBA durchführten, gelangten zum Schluss, dass H-FKW-Emissionen selbst bei pessimistischen Annahmen bis zum Jahre 2010 weniger als 1,5 Prozent aller deutschen Treibhausgasemissionen ausmachen werden. Das hängt vor allem mit dem geringeren GWP von R 134a (1.430) im Vergleich zum ersetzten R 12 (8.500) zusammen.

Da R 134a als sehr gutes und energieeffizientes Kältemittel gilt, wäre es eigentlich vernünftig, es in stationären Anlagen weiter zu verwenden, dabei aber dafür zu sorgen, dass die Verluste durch Leckagen oder die unfachmännische Entsorgung von Altgeräten deutlich vermindert werden. Diese Meinung vertritt Richard Longden von Ineos Fluor in England. Er verweist dabei (wie die Frankfurter Öko-Recherche) auf die guten Erfahrungen, die die Niederlande mit ihrem STEK-System der Leckage-Kontrolle und Wartungspflicht gemacht haben. Die Leckagerate konnte damit von 30 Prozent zu Beginn der 90er Jahre auf unter 5 Prozent gesenkt werden. Über 90 Prozent der Geräte sind nun völlig dicht.

Auch bei nicht hermetisch geschlossenen mobilen Klimaanlagen könnte R 134a noch eine Zeit lang weiterverwendet werden. Denn die nun von der europäischen Automobilindustrie mehr oder weniger einvernehmlich verfolgte Politik der späteren Umstellung der Pkw-Klimaanlagen auf CO2 (R 744) hat sich als nicht ganz einfach erwiesen. Der beim Einsatz von CO2 notwendige hohe Betriebsdruck von 130 bis 150 bar erfordert schwerere Bauteile, was sich auf den Treibstoffverbrauch des Autos auswirkt. Diesen Nachteil konnte man inzwischen im Rahmen des gemeinsamen Forschungsprogramms europäischer Kfz-Hersteller und Klimaanlagenbauer mit dem Titel RACE (Refrigeration and Automotive Climate under Environmental Aspects) zwar im Prinzip durch eine Reduzierung des Volumens ausgleichen, doch bleibt die Kühlleistung von CO2-Systemen gerade bei hohen Außentemperaturen den 134a-Anlagen deutlich unterlegen.

Noch im vergangenen Jahr widersetzten sich die Autohersteller Ford und Fiat einem einheitlichen Vorgehen im Rahmen der europäischen Kfz-Herstellervereinigung ACEA. Das hängt damit zusammen, dass es für Kältemittel in mobilen Klimaanlagen bislang nur in der EU einen strengen GWP-Grenzwert von 150 und bindende Termine für das Auslaufen der Zulassung von R 134a gibt: 2011 für neue Kfz-Baureihen, 2017 für alle Neuwagen. Außerhalb Europas können die Kfz-Hersteller sehr viel gelassener mit R 134a und möglichen Alternativen umgehen. Da sich die jüngste Vereinbarung von Montréal ausschließlich auf

ODS wie H-FCKW und nicht auf H-FKW bezieht, dürfte es noch relativ lange dauern, bis das bewährte R 134a vom Weltmarkt verschwunden sein wird.

Für die europäischen Hersteller halogenierter Kältemittel bedeutet das, dass sie sich auf gewichtige Umschichtungen ihrer Absatzmärkte einstellen müssen. Die inzwischen in China errichteten Kapazitäten reichen wahrscheinlich aus, um den gesamten Weltmarkt für R 134a konkurrenzlos billig zu versorgen. Folglich hat Solvay Fluor, der größte europäische 134a-Hersteller, Ende Oktober 2007 angekündigt, seine Kapazitäten durch die Schließung des italienischen Produktionsstandortes Porto Marghera zu halbieren. Die Produktion am Standort Frankfurt-Höchst (Kapazität schätzungsweise 10.000 Jahrestonnen) wird vorerst weiter laufen. Ähnlich wird Solvay mit der Produktion von R 22 verfahren: Der Standort Tarragona in Spanien wird stillgelegt, während die Kapazität von schätzungsweise 20.000 Jahrestonnen am deutschen Standort Bad Wimpfen bis auf Weiteres aufrecht erhalten bleibt. Insgesamt gehen dabei 250 Arbeitsplätze verloren. Bernd Wilkes, der Geschäftsführer von Solvay Fluor, stellte klar: „Wir verlagern keine Kapazitäten und verabschieden uns erst recht nicht von der Fluorchemie, sondern konzentrieren uns stärker auf fluorierte Spezialitäten, die mehr Know-how erfordern und eine größere Wertschöpfung ermöglichen. Mit billigen Massenprodukten aus Fernost, die den Weltmarkt überschwemmen, können wir wegen der hohen Energie- und Arbeitskosten in Europa sowie des starken Euro nicht konkurrieren.“

Edgar Gärtner

(erschienen in: Chemische Rundschau Nr. 1-2/2008, VS-Medien, CH-Solothurn)

======================================================================================

Über die politische Chemie des Kohlendioxids

Etliche deutsche Konzerne und Branchenverbände haben Broschüren veröffentlicht, große Anzeigen in Printmedien geschaltet, und sogar die Verbreitung von Al Gores Propaganda-Film „An Inconvenient Truth“ gesponsert, um Bundeskanzlerin Angela Merkel vor dem G-8-Gipfel in Heiligendamm den Rücken zu stärken. Offenbar in der Hoffnung, ihren Konkurrenten in Amerika und Asien das Leben ebenso schwer machen zu können wie in Europa, fordern sie eine strenge hoheitliche Rationierung des CO2-Ausstoßes und einen weltweiten Emissionshandel. Auch der Verband der Chemischen Industrie (VCI) beteiligt sich an der Kampagne, und zwar in Form einer gesponserten Beilage zur Juni-Nummer des Magazins „Bild der Wissenschaft“ mit dem Titel „Ran ans CO2-Problem.“ Darin schließen sich die angeheuerten Journalisten-Kollegen voll und ganz der Weltsicht des Intergovernmental Panel on Climate Change (IPCC) an, nach der es als ausgemacht gilt, dass menschliche CO2-Emissionen für den in den letzten 100 Jahren registrierten leichten Anstieg der Durchschnittstemperatur über den Landmassen der Erde verantwortlich sind. Vor der Industrialisierung sei der Kohlensäuregehalt der Atmosphäre über 10.000 Jahre konstant geblieben.

In einem der Beiträge heißt es: „Die Lufthülle (der Erde) wirkt wie das Glasdach eines Treibhauses. Sie lässt die Sonnenstrahlung durch, aber hält die von der Erdoberfläche abgegebene Wärme zurück. Für diesen Effekt sorgt an erster Stelle das Kohlendioxid.“ Dieser Satz ist, gelinde gesagt, haarsträubend. Er beschreibt nicht den vermeintlichen „Treibhauseffekt“, sondern das Wärmespeicherungsvermögen der Atmosphäre. Dieses geht aber bekanntlich zu schätzungsweise 95 Prozent auf den Wasserdampf und dessen Kondensation zu Wolken und nur zu einem ganz geringen Teil auf CO2 zurück. Beim „Treibhauseffekt“ geht es hingegen um eine zusätzliche Aufheizung des Bodens und der unteren Luftschichten durch „Rückstrahlung“ von Wärme aus angeregten „Treibhausgas“-Molekülen in der Luft. Dieser (theoretisch nicht ausgeschlossene) Effekt ist nicht messbar. Das hält aber den IPCC nicht davon ab, rein numerische Computersimulationen, die auf diesem nur angenommenen Effekt beruhen, zur Basis seiner Warnungen vor einem „Klimakollaps“ durch Überhitzung zu machen. Der VCI, so muss man aus der Beilage in „Bild der Wissenschaft“ schließen, akzeptiert diese experimentell nicht gestützten Computersimulationen als wissenschaftlichen Standard. Wie will da der Chemieverband in Zukunft noch Tierversuche rechtfertigen?

============================================================================

Zukunftsszenario

Durch REACh reif für die Insel von Edgar Gärtner*

Der Chemiker Albert Schäfer war reif für die Insel. Tatsächlich befand er sich nun, im Dezember 2012, auch auf einer Insel in der Karibik. Er konnte Weihnachten unter der subtropischen Sonne erleben, während seine Kollegen daheim in Frankfurt unter einem von Hochnebel verdüsterten Himmel des fernen Frühlings harrten. Insofern schien die Welt noch in Ordnung. Das Dumme war nur, dass Albert nicht recht wusste, wie er von dem Eiland wieder weg und zurück zu seinen Lieben kommen konnte. Bei der Insel, auf der er sich befand, handelte es sich nämlich nicht um eines jener bekannten Urlaubparadiese mit direkten Flugverbindungen zu wichtigen europäischen Großstädten, sondern um eine künstliche Plattform namens „Freedom Island“. Sie war von cleveren Geschäftsleuten chinesischer Herkunft errichtet worden, um der hohen Steuerbelastung in etlichen westlichen Wohlfahrtsstaaten zu entgehen. Inzwischen war sie aber wegen hoher Spritpreise und ihrer Ächtung als „Pirateninsel“ mit dem Hubschrauber kaum mehr erreichbar.

Immerhin fand Albert hier zum ersten Mal seit langem wieder einmal Zeit, über sich selbst nachzudenken und nicht mehr ausschließlich über die Umsetzung der REACh-Verordnung der EU, die für ihn zum Alptraum geworden war. Aber der Reihe nach. Albert war Ende der 80er Jahre aus der DDR gekommen, wo er ein solides Studium der organischen Chemie absolviert hatte. Als junger Student war ihm eines der raren Exemplare von Ulrich Plenzdorfs Kultroman „Die neuen Leiden des jungen W.“ in die Hände geraten. Dieses 1973 erschienene subversive Büchlein hatte eigenartigerweise die Hürden der Zensur überwinden können. Albert identifizierte sich stärker mit Plenzdorfs Hauptfigur Edgar Wibeau, als ihm zunächst bewusst war. Bei Edgar handelte es sich um einen eigensinnigen und eigenbrötlerischen, aber dennoch sympathischen Erfinder, der bei einem seiner Experimente ums Leben kam. Nachdem Albert 1982 mit Auszeichnung promoviert und in einem Kombinat im berüchtigten „Chemiedreieck“ angestellt worden war, hatte es sich immer deutlicher gezeigt, dass er für das Mittelmaß der Planwirtschaft nicht geschaffen war. Nicht ahnend, dass die Herrschaft der Sozialistischen Einheitspartei bald enden würde, hatte Albert noch im Juli 1989 einen Urlaub in Ungarn genutzt, um sich samt Freundin in den Westen abzusetzen.

Dass er in Westdeutschland mit offenen Armen empfangen wurde, konnte Albert freilich nicht behaupten. Die Ossis galten im Westen schon damals als eher naiv und technikgläubig, weil sie von dem Reaktorunglück von Tschernobyl nicht viel mitbekommen hatten. Immerhin gelang ihm mit seinen guten Zeugnissen der Eintritt in die Zentralforschung eines großen Chemie- und Pharmakonzerns im Rhein-Main-Gebiet. Dort beschäftigte er sich mit der Entwicklung von Katalysatoren. Dabei gelangte er an Fragestellungen und Methoden, die später unter dem Schlagwort „Nanotechnologie“ bekannt wurden. Bald kam Albert die Idee, seine in der Katalysatorforschung gesammelten Erfahrungen auch bei der Entwicklung von Produkten für den Massenmarkt zu nutzen.

Als viel versprechend erschien ihm die Entwicklung eines universell einsetzbaren Schmiermittels, das sich im Kontakt mit dem Chromstahl von Gleit-, Wälz- und Kugellagern gewissermaßen selbst erneuerte. Es konnte so mindestens ebenso lange halten wie die Teile, die es zu schmieren galt. Albert brauchte nicht lange, um von seinen Vorgesetzten grünes Licht für sein Vorhaben zu bekommen. Ideen wie seine wurden in der zuletzt ziemlich behäbig arbeitenden Zentralforschung nicht alle Tage geboren. Und wenn doch mal welche auftauchten, traten meist Bedenkenträger auf den Plan. Sie taten alles in ihrer Macht stehende, um die Marktchancen neuer Produkte klein zu reden, denn sie hatten nicht richtig mitbekommen, dass es ihre über Jahrzehnte so erfolgreiche Chemie inzwischen fast überall auf der Welt mit Märkten zu tun hatte, auf denen nicht mehr die Verkäufer, sondern die Käufer am längeren Hebel saßen. In der Konzernleitung sahen manche durchaus, dass das nicht mehr lange so weiter gehen konnte. Es gab bereits Gerüchte, die Zentralforschung solle aufgelöst und durch kleinere Einheiten ersetzt werden. Diese sollten besser geeignet sein, neue Ideen rasch in marktfähige Produkte umzusetzen, um die plötzlich erstarkte asiatische Konkurrenz zumindest eine Zeit lang abhängen zu können.

Albert bekam jedenfalls alles, was er brauchte, um sein Vorhaben in Angriff nehmen zu können. Nachdem die Zentralforschung gegen Ende der 90er Jahre im Zuge der unabwendbar gewordenen Zergliederung des Konzerns tatsächlich aufgelöst worden war, gelang es Albert mit seinem Team, bei einem der Nachfolgekonzerne seine Arbeit unter noch besseren Bedingungen fortsetzen zu können. Die Umsetzung der Produktidee war bis dahin schon so weit gediehen, dass der Name OmegaLube als Warenzeichen eingetragen und ein Patent beantragt wurde.

Zwar kam die Arbeit an dem als revolutionär gepriesenen Schmiermittel nicht geradlinig voran. Hin und wieder verloren die Forscher Zeit und Geld, weil sie sich nächtelang stritten oder monatelang falschen Fährten folgten. Außerdem stellte es sich bald heraus, dass Albert keineswegs der einzige war, der auf die Idee gekommen war, mithilfe nanotechnologischer Verfahren ein extrem haltbares Schmiermittel zu entwickeln. Doch schien es, als habe OmegaLube die Nase vorn. Der Sprung in die Großproduktion schien nur noch eine Frage der Zeit.

Doch in den folgenden Jahren drängten sich immer häufiger die fünf Buchstaben REACH in die Agenda der Forscher. Zwar war es gelungen, das Europa-Parlament davon abzuhalten, in den harten Auseinandersetzungen zwischen der ersten und der zweiten Lesung des Entwurfs der REACH-Verordnung, wie nicht nur von der Fraktion der Grünen gefordert, für die „Nanotechnik“ besonders strenge Vorschriften einzuführen. Dafür setzten sich bei der Formulierung des Substitutionsprinzips – der Pflicht, wo immer nur möglich, gefährliche durch weniger gefährliche Stoffe zu ersetzen – jene Europa-Abgeordneten durch, die dem Markt und dem freien Unternehmertum grundsätzlich misstrauten. Und dieses juristisch alles andere als eindeutige Prinzip hing fortan wie ein Damoklesschwert nicht nur über einer Vielzahl von Altstoffen, sondern auch über OmegaLube. Denn wichtige Bestandteile des neuen Schmiermittels waren nicht nur, wie gewünscht, extrem beständig, sondern standen auch im Verdacht, sich obendrein in Nahrungsketten anzureichern.

Deshalb entschied der Vorstand Ende 2006, die Weiterentwicklung von OmegaLube zu stoppen, um alle Ressourcen der Forschungsabteilung auf die Verteidigung solcher Altstoffe zu konzentrieren, die sich als Umsatzbringer bewährt hatten. Für Albert Schäfer brach eine Welt zusammen. Er war wütend und begann sogleich darüber zu grübeln, wie er sein Projekt vielleicht auf eigene Faust doch noch zu Ende bringen könnte. Seit er im Westen war, hatte er, noch immer tief beeindruckt von den „neuen Leiden des jungen W.“, die Beschäftigung mit den Abenteuern bekannter Erfinder zu seinem Hobby gemacht. Wenn andere Krimis lasen, verschlang er die Biografien von Thomas Alva Edison und anderen Helden der Technikgeschichte. Besonders hatte es ihm die tragische Geschichte des amerikanischen Chemikers Charles Goodyear angetan. Dieser hatte in unzähligen Versuchen zur Herstellung haltbaren Gummis nicht nur seine Gesundheit ruiniert und den letzten Cent geopfert, sondern sogar seine Kinder verhungern lassen. So weit würde Albert nicht gehen. Da er zwei Töchter hatte, die noch zur Schule gingen, und seine Frau einen Ortswechsel nicht in Kauf nehmen wollte, blieb ihm fürs erste kaum etwas anderes übrig, als auf das Ansinnen seines Vorgesetzten einzugehen.

Da sonst niemand frei war, bekam Schäfer die Aufgabe, gemeinsam mit den Verantwortlichen für Produktsicherheit im ganzen Konzern eine Übersicht über potentiell durch REACh gefährdete Stoffe und Produkte zu erstellen und bei den jeweils zuständigen Produktmanagern und Abteilungsleitern zu sondieren, welche davon es unbedingt zu verteidigen galt, welche man besser zu ersetzen versuchte und welche man am besten gleich vergaß, weil sie künftig ohnehin nur noch in Asien hergestellt würden. Das war eine verantwortungsvolle Aufgabe, mit der er sich aber dennoch nicht von heute auf morgen anfreunden konnte.

Um sich auf die ihm ungewohnte Arbeit vorzubereiten, begann er, zunächst widerwillig, sich mit dem über 1200-seitigen Text der Verordnung zu beschäftigen. Vieles blieb ihm zunächst unklar, zumal die noch weit umfangreicheren technischen Leitfäden (RIP) zur Umsetzung der EU-Verordnung noch nicht vorlagen. Er dachte sich aber, auch in der Chemikalienpolitik würde wohl am Ende nicht alles so heiß gegessen, wie es gekocht wurde. Kollegen jenseits des Atlantik hatten immer die Meinung vertreten, REACh werde sich als „unworkable“, als undurchführbar, da viel zu kompliziert erweisen. Erhebliche Zeitverzögerungen beim Inkrafttreten der Verordnung schienen ihnen recht zu geben. So zog sich der Aufbau der Europäischen Chemikalienagentur in Helsinki über Jahre hin, weil es sich als schwierig erwies, auf dem europäischen Arbeitsmarkt genügend Toxikologen und andere Experten der Chemikaliensicherheit zu finden und ins abgelegene Helsinki zu locken. Ohne die Einschaltung zahlreicher externer Berater wäre die Agentur wohl überhaupt nicht arbeitsfähig geworden.

Doch es zeigte sich, dass REACH im europäischen Norden durchaus ernst genommen wurde. Die wichtigsten Abnehmer der chemischen Industrie wie große Konsumgüter- und Automobilkonzerne hatten angekündigt, nur noch Produkte mit dem Label „REACh approved“ abzunehmen, weil sie so Verbrauchervertrauen zurück zu gewinnen und nebenbei der US-Konkurrenz das Leben schwer zu machen hofften. Einige beschleunigten die schon vor REACh begonnene Auslagerung der Produktion von „Commodities“ nach China und Indien, um sich in Europa auf die Herstellung anspruchvoller Stoffe mit höherer Wertschöpfung zu konzentrieren. Die Verordnung war noch gar nicht richtig in Kraft getreten, da kündigten erste größere Lieferanten bereits die Einstellung der Produktion wichtiger Hilfsmittel an, da es sich nicht lohne, diese registrieren zu lassen. Kleinere Hersteller lieferten zwar zunächst weiter. Man wusste aber nicht, ob sie die fraglichen Substanzen wirklich registrieren wollten oder ob sie vielleicht die für kleinvolumige Stoffe vorgesehene lange Registrierungsphase nur als Gnadenfrist vor der Geschäftsaufgabe betrachteten. Andere Hilfsmittel gerieten auf die „Kandidatenliste“ besorgniserregender Stoffe.

Wie schon vor der Verabschiedung von REACH befürchtet, wurde diese Liste nicht nur von Umweltverbänden, sondern auch von großen Vermarktern von Konsumgütern und selbst von manchen Herstellern als „Schwarze Liste“ interpretiert. Es bedurfte großer Überredungskünste, um Hersteller und Importeure davon abzuhalten, Stoffe aus dem Sortiment zu nehmen, bevor diese überhaupt vorschriftsgemäß geprüft worden waren.

So wurde Albert Schäfer noch vor dem Beginn der Vorregistrierungsphase klar: Sein Unternehmen musste sich möglichst rasch an den vorgesehen Foren für den Austausch von Stoffinformationen (SIEF) beteiligen, um zu vermeiden, Stoffe nicht mehr geliefert zu bekommen oder ihre Anwendungen alleine registrieren zu müssen. Über Langeweile brauchte er sich fortan nicht mehr zu beklagen. Zum Teil waren die SIEF durchaus anregende und produktive Veranstaltungen. Viele Teilnehmer kannten sich bereits aus Geschäftsbeziehungen oder aus Diskussionen in Ausschüssen von Industrie- und Fachverbänden. Gehörte es doch zu den Eigenheiten der chemischen Industrie, dass viele Konkurrenten gleichzeitig auch Kunden waren. Es konnte dabei aber auch zu Konflikten zwischen Zulieferern und Verarbeitern von Stoffen kommen. Viele kleinere Anwender scheuten sich, den Stoffherstellern zu verraten, was sie mit den gelieferten Substanzen alles anstellten. Andere SIEF-Teilnehmer hüteten sich, ihren schärfsten Konkurrenten zu verraten, womit sie sich gerade beschäftigten. Nicht selten gab es Streit um die Aufteilung der Kosten von Tierversuchen, die nach dem Willen des Gesetzgebers nur einmal durchgeführt werden durften, um den missliebigen Versuchstierverbrauch in Grenzen zu halten. Es gab auch gerichtliche Auseinandersetzungen um Eigentumsrechte an Test-Daten.

Diese sich manchmal länger hinziehenden Auseinandersetzungen setzten Albert ganz schön zu, zumal es ihm seine pubertierenden Töchter oft verwehrten, sich zu Hause vom REACh-Stress zu erholen. Aber er wollte sich nicht beklagen. Immerhin hatte er gelernt, Forscherteams zu führen und galt bei seinen Mitarbeitern trotz einer gewissen Halsstarrigkeit als eher pflegeleichter Kumpel, der auch mal etwas einstecken konnte. In der DDR hatte er auch gelernt, wie man mit dem Hochmut bornierter Bürokraten oder mit Qualitätsmängeln und Lieferengpässen zurecht kam. Er wusste aus seinem Leben in einem Obrigkeitsstaat, die immer wieder entstehenden kleinen Freiräume zu nutzen. Aber er tat sich schwer im Umgang mit politischen Netzwerken in den westeuropäischen Mediendemokratien.

Darauf aber kam es an bei der Verteidigung oder Abwicklung von Produkten, die auf die Abschussliste so genannter Nichtregierungsorganisationen (NGO) geraten waren (deren Kampagnen in Wirklichkeit oft zu über 50 Prozent von der EU-Kommission finanziert wurden). Um „Problemstoffe“ weiterhin im Sortiment halten zu können, musste die Firma überzeugend nachweisen, dass es dafür keine praktikablen Alternativen gab und dass ihre Handhabung und Anwendung „angemessen“ kontrolliert wurde. Gelang der Nachweis nicht, mussten Substitutionspläne vorgelegt werden. Die Anerkennung mit rein technischen Argumenten zu erlangen, erwies sich rasch als unmöglich. Er musste sich mit Vertretern der zentralen Genehmigungsagentur sowie externen Beratern und NGO in so genannten Stakeholder-Foren zusammensetzen.

Dort schien weniger fachliche Kompetenz, sondern vielmehr diplomatisches Geschick und Konsensfähigkeit um beinahe jeden Preis gefragt zu sein. Was die Endkunden, das heißt die „schweigende Mehrheit“ über die heftig diskutierten „Innovationen“ dachten, schien die wenigsten zu interessieren. Albert Schäfer hatte den Eindruck, dass es oft gar nicht darum ging, bedenkliche Stoffe durch etwas Besseres zu ersetzen. Eher schien ausschlaggebend, Stoffe und Problemlösungen als politisch korrekt anerkannt zu bekommen. Er musste zusehen, wie immer mehr Köche im Brei herumrührten. Das kostete ihn beinahe den letzten Nerv.

Obendrein musste Albert auch noch zur Kenntnis nehmen, dass vor allem im Süden Europas vieles ganz anders lief, als es sich die Eurokraten ausgedacht hatten. Kleine Textilunternehmen, denen infolge von Reach wichtige Hilfsmittel für ihre Produktion fehlten, fanden bald heraus, dass sie die nur in kleinen Mengen benötigten Stoffe über die Häfen von Neapel oder Piräus aus China beziehen konnten. Und zwar ohne teure Registrierungen und nahezu unbehelligt von Kontrollen. Als er eines Tages auch noch aus einem Fachblatt erfuhr, dass die Konkurrenten von OmegaLube ihr Produkt unbeeindruckt von REACh zielstrebig zur Marktreife gebracht hatten, sah er sein Lebenswerk verloren.

An diesem Abend fand er sich verstört am Tresen einer rauchfreien Kneipe wieder (wohin ihn sein Weg sonst nur sehr selten führte). Dort lauschte Albert mehr oder weniger freiwillig dem angeregten Gespräch zweier Gäste, die sich als Berufskollegen zu erkennen gaben. Sie schwärmten von einer Plattform namens „Freedom Island“, auf der man unbehelligt von Stakeholder-Foren und Finanzämtern neue Produkte entwickeln konnte. In seinem Zustand bemerkte Albert nicht, dass die beiden ihm einen Bären aufbanden. Die Freiheitsinsel gab es zwar. Aber außer einigen halb vergammelten Aussteigern lebte dort inzwischen niemand mehr. Sie hatte sich nach einer kurzen Blüte als überflüssig erwiesen, weil US-Bürger so ihrer Steuerpflicht nicht entgehen konnten und weil es sich bald zeigte, dass man Erfindungen andernorts unter besseren Bedingungen vorantreiben konnte. Albert aber dachte gar nicht daran, dass etwas mit der Freiheitsinsel nicht stimmen könnte, sondern malte sich aus, wie er sein Lebenswerk unter Palmen und blauem Himmel zu einem guten Ende führen konnte. Kurz entschlossen packte er seine Koffer, um zur Trauminsel aufzubrechen und sich die Arbeitsmöglichkeiten auf der Plattform etwas genauer anzusehen. Nebenbei konnte er dadurch dem Vorweihnachts-Stress mit seinen nörgelnden Töchtern entfliehen. Allerdings konnte er die künstliche Insel nur über Umwege erreichen. Das letzte Stück musste er in einem altersschwachen Schiff zurück legen.

Erst als er auf „Freedom Island“ angekommen war, wurde Albert bewusst, dass er hereingelegt worden war. Da saß er nun und dachte darüber nach, was in den letzten Jahren alles falsch gelaufen war. Albert fragte sich, ob es nicht abwegig war, Innovationen an runden Tischen vorantreiben zu wollen. Hätten sich auf diese Weise jemals revolutionäre Neuerungen wie die Anti-Baby-Pille oder das Internet durchsetzen lassen? Die wichtigste Frage, die ihm durch den Kopf ging, war aber, wie er schnellstmöglich wieder von dieser gottverlassenen Plattform wegkommen konnte.

*) Bei diesem Text handelt es sich um die Langfassung eines Beitrags, der zuerst in Nr. 1/2007 von „Clartext“, des Mitgliedermagazins der Clariant Deutschland, und danach im Magazin NOVO Nr. 88/5-6/2007 erschien.

Öko-Industrie-Komplex

Reichtum schützt vor Dummheit nicht. Der im Alter von über 80 Jahren zur grünen Ersatzreligion konvertierte amerikanische Öl- und Gas-Milliardär T. Boone Pickens muss den Plan, sich in Texas in Form des größten Windparks der Welt ein Denkmal zu setzen, wegen der Finanzkrise auf Eis legen. Nun weiß er nicht, wohin mit den bei General Electric bereits fest bestellten Windrädern. Das könnte ein Vorbote des Platzens der grünen Blase sein.

US-Milliardär Pickens sucht Garage für seine Windmühlen

Wegen der wirtschaftlichen Depression und des damit verbundenen Sinkens des Ölpreises muss der im Öl- und Gasgeschäft zum Milliardär gewordene „grüne“ Investor T. Boone Pickens seinen Plan, in seinem Heimatstaat Texas den größten Windpark der Welt zu erreichten (siehe Bericht über das Wind-Gas-Kartell auf dieser Seite weiter unten) auf Eis legen. Sein Problem: Er hat bereits beim Anlagenkonzern General Electrics für nicht weniger als zwei Milliarden Dollar eine erste Tranche Windräder fest geordert. Nun weiß er nicht, wohin damit. Die Moral von der Geschicht‘: Reichtum schützt vor Dummheit nicht.

===================================================================

Björn Lomborg über den Klima-Industrie-Komplex

Im „Wall Street Journal“ vom 21. Mai 2009 analysiert der bekannte dänische Statistik-Professor Björn Lomborg anlässlich des gerade in Kopenhagen stattfindenden Wirtschafts-Klimagipfels die hinter dem „grünen“ Engagement großer Energiekonzerne stehdnen parasitären Geschäftsinteressen. Lomborg bestätigt alles, was ich selbst seit Jahren zu diesem Thema geschrieben habe.

===================================================================

Die Hitparade der Öko-Profiteure

Die Londoner Sunday Times wartet am 1. März 2009 mit einer langen Liste reicher „Weltbürger“ auf, die es besonders gut verstehen, die von ihnen selbst und ihnen hörigen Massenmedien geschürte Angst vor einer uns angeblich drohenden Klimakatastrophe auf Kosten wirtschaftlich benachteiligter Familien mit hohem Energieverbrauch zu Geld zu machen. Diese Liste ergänzt sehr gut meine eigene Analyse des deutschen Öko-Industrie-Komplexes (ÖIK), die im letzten Spätherbst im Magazin „eigentümlich frei“ erschienen ist:

Die Allparteien-Koalition Grüner Amigos

Über die endliche Erfolgsgeschichte des Ökologisch-Industriellen Komplexes (ÖIK) in Deutschland

von Edgar Gärtner

Das Scheitern der Machtübernahme Andrea Ypsilantis in Hessen an der der schmerzlichen, weil persönlich nachteiligen und deshalb späten Gewissensentscheidung von vier sozialdemokratischen Landtagsabgeordneten hat sicher nicht wenig mit der Entlarvung der Inkompetenz des „Sonnenpapstes“ Hermann Scheer im SPIEGEL 45/2008 zu tun. Zum ersten Mal hat ein führendes deutsches Print-Medium hier den Heiligenschein des Trägers des alternativen Nobelpreises zerrissen, indem sie den Präsidenten des von seiner Ehefrau Irm Pontenagel gemanagten Vereins „Eurosolar“ als ebenso verbohrten wie skrupellosen Lobbyisten für die von der ganzen politischen Klasse Deutschlands zum Heil der Menschheit verklärte und daher hoch subventionierte, in Wirklichkeit aber unzuverlässigste und unwirtschaftlichste Form der Stromerzeugung dastehen lässt. (Vorausgegangen war dem SPIEGEL-Artikel ein Forums-Beitrag des freien Journalisten Jan-Philipp Hein, der am 14. April 2008 in der WELT erschien.) Die Tatsache, dass Scheer nun bei den in Hessen vorgesehenen Neuwahlen nicht mehr dem Schattenkabinett von Ypsilantis Platzhalter Thorsten Schäfer-Gümbel angehört, signalisiert darüber hinaus – allen gegenteiligen Beteuerungen zum Trotz – eine Infragestellung von Scheers Plan, die Stromversorgung des Verkehrsknotenpunktes und Industriestandortes Hessen bis zum Jahre 2025 zu 100 Prozent auf Wind-, Solar-, Biomasse- und Wasserkraft umzustellen.

Schneller als selbst von Skeptikern erwartet, erweist sich der Börsenboom rund ums Themenfeld „erneuerbare Energien“ als eine politischen Signalen folgende Blase, die nun platzt. Vordergründig ist daran die durch das Platzen der US-Immobilienkredit-Blase ausgelöste globale Finanzkrise schuld. Das wegen des Verdachts, auch die Bücher bislang als seriös eingeschätzter Geldhäuser könnten noch viele faule Hypotheken enthalten, verschwundene Vertrauen zwischen den Banken hat zu drastischen Restriktionen bei der Kreditvergabe geführt, die sich bei den stark expandierenden Stars der Solar- und Windbranche als kaum überwindbare Kreditklemme bemerkbar macht. Deshalb sind Werte wie Q-Cells, SMA Solar, Solon und sogar die noch etwas besser dastehende Solarword AG, die den TecDax dominieren, in den letzten Monaten noch viel stärker eingebrochen als Dax und M-Dax. Ein kurzfristiges Hochschießen der Solarwerte anlässlich des Wahlsieges von Barack Obama in den USA hat daran nichts geändert.

Es spricht sich auch herum, dass die Durchschnittstemperatur über den Landmassen der Erde, trotz eines kräftigen Anstiegs der Konzentration des als „Klimakiller“ verteufelten Verbrennungsabgases Kohlenstoffdioxid (CO2), seit zehn Jahren nicht mehr weiter steigt. Angesichts leerer Staatskassen und einer beginnenden Rezession, die höchstwahrscheinlich deutlich länger als nur ein paar Monate anhalten wird, fragen sich immer mehr Investoren, die sich zumindest einen Rest gesunden Menschenverstands bewahrt haben, ob sie sich den Luxus leisten können, in Technologien zu investieren, die CO2 auf die denkbar teuerste Weise einsparen. Wer soll, angesichts der sich abzeichnenden Verarmung ganzer Bevölkerungsschichten und Regionen, die Kosten dieser vermeintlichen „Zukunftstechnologien“ aufbringen? Können wir es uns wirklich noch leisten, die Nutzung des reichlich verfügbaren, leicht transportier- und lagerfähigen und daher konkurrenzlos preisgünstigen Energieträgers Kohle zu verzichten, nur um bei grünen Nihilisten gut Wetter zu machen? Ist nicht der soziale Frieden in höchster Gefahr, wenn den Menschen in Zeiten wachsender Arbeitslosigkeit immer höhere Energiekosten aufgebürdet werden?

Solche Fragen deuten an, dass das Ersatz-Feindbild „Umweltveränderung“ beziehungsweise „Klimawandel“, mit dessen Hilfe es die politischen und wirtschaftlichen Eliten des Westens seit der Entspannungsphase des Kalten Krieges gelang, das Volk einigermaßen bei Stange zu halten, inzwischen auf dem Prüfstand steht. Die Ablösung des Feindbildes „Kollektivismus“ durch das Ersatz-Feindbild „Klimawandel“ bot der herrschenden politischen Klasse den großen Vorteil, die Aufmerksamkeit der Beherrschten auf einen abstrakten, weder mit den fünf Sinnen noch durch den Verstand fassbaren Gegner zu lenken. Doch angesichts der beginnenden Wirtschaftskrise und der wenig dramatischen Entwicklung der Wetterabläufe gelingt es immer weniger, den Menschen damit noch Angst zu machen. Schon ist die Europäische Union dabei, ihr auf Betreiben der deutschen Bundeskanzlerin Angela Merkel angenommenes „Klima-Paket“ (jeweils 20 Prozent CO2-und Energieeinsparung und Steigerung des Anteils „erneuerbarer“ Energien bis zum Jahre 2020) aufzuschnüren und deutlich abzuschwächen. Das muss Auswirkungen auf einen durchwegs politischen Markt haben, auf dem sich in den vergangenen drei bis vier Jahrzehnten staatsmonopolitische Kartellstrukturen besonderer Art, der Öko-Industrie-Komplex (ÖIK), etabliert hatten. Damit wird auch die wirtschaftliche Basis einer historisch einmaligen politischen Allparteien-Koalition in Frage gestellt.

Wie kam es überhaupt dazu, dass sich das im Kern absurde Ersatzfeindbild „Klimawandel“ und das dadurch begründete staatsmonopolitische Industriekartell so rasch auch in der Privatwirtschaft durchsetzten? Dieser Frage möchte ich im Folgenden vorwiegend auf dem Hintergrund eigener Erfahrungen nachgehen und dabei auch andeuten, wo ich noch Klärungsbedarf sehe.

Zur Geschichte des Öko-Industrie-Komplexes

Schon in den Anfängen der um 1970 gestarteten systematischen Umweltpolitik galt für den auf den Bau von Filtern aller Art spezialisierten neuen Zweig des Anlagenbaus der Satz „Gesetze bestimmen die Umsätze“. So der Titel eines Beitrages in einem der damals eigens gegründeten Fachmagazine für Umwelttechnik. D.h. je schärfer die Grenzwerte für Schadstoffe in Abwasser und Abluft, desto besser die Geschäftschancen der Umweltbranche. Das wurde bereits auf der ersten deutschen auf Umwelttechnik spezialisierten Messe, der ENVITEC 1973 in Düsseldorf, thematisiert. Bei dieser vom damaligen Bundesinnenminister Hans-Dietrich Genscher (FDP) eröffneten Ausstellungs- und Kongress-Veranstaltung (auf der ich, nebenbei gesagt, mir meine ersten Sporen und Kröten als Umweltjournalist verdiente) wurde auch deutlich, dass die Branche stark von Konzernen des Militärisch-Industriellen Komplexes (MIK) dominiert wird. Deren Manager waren es seit der nazistischen Kriegswirtschaft (insbesondere in deren Endphase unter Albert Speer) gewohnt, in einer korporatistischen, aber hoch effizienten Form von Vetternwirtschaft auf politisch-bürokratisch bestimmten Märkten zu arbeiten.

Der Begriff „Militärisch-industrieller Komplex“ wurde vom Ex-General und späteren US-Präsidenten Dwight D. Eisenhauer geprägt. Dieser warnte seine Landsleute am Ende seiner Amtszeit vor der Eigendynamik der in der Kriegswirtschaft des Zweiten Weltkriegs aufgebauten kartellartigen Wirtschaftsstrukturen. Der Begriff „Öko-Industrie-Komplex“ wurde bereits im Jahre 1970 vom linksliberalen amerikanischen Publizisten Martin Gellen eingeführt. Dieser sah schon damals deutlich, dass die von US-Präsident Richard Nixon in großem Stil aus der Taufe gehobene Umweltpolitik als relativ eigenständiger Politikbereich zu dem MIK vergleichbaren parasitären Wirtschaftsstrukturen führen muss. Durchaus nicht zufällig ging übrigens der Start der Umweltpolitik einher mit der Abkehr der Nixon-Regierung vom wenigstens noch formalen Gold-Bezug des 1944 in Bretton Woods begründeten internationalen Währungssystems. Seither manifestiert sich die von der wachsenden Staatsverschuldung erzeugte Geldentwertung weniger in einer kontinuierlichen Verteuerung von Waren des täglichen Bedarfs als vielmehr in Form des Platzens politisch erzeugter Spekulationsblasen.

Einer der Vordenker des ÖIK in Deutschland war Ludwig Bölkow, der damalige Vorstandsvorsitzende des Rüstungskonzerns Messerschmidt-Bölkow-Blohm (MBB). Schon 1970 forderte dieser, um angesichts der sich abzeichnenden Ost-West-Entspannung, diversen Nachteilen der einseitig militärischen Ausrichtung seines Geschäfts zu begegnen, eine Ausweitung des zivilen Anteils der Fertigung seines Konzerns auf 50 Prozent. Dabei dachte er hauptsächlich daran, Umweltschutztechniken zum zweiten Standbein des durchwegs politisch bestimmten Geschäfts seines Konzerns zu machen. Neben Bölkow gehörte auch der ehemalige MBB-Manager und spätere „Atomminister“ Prof. Dr. Siegfried Balke zu den Vordenkern des ÖIK. Die Technologieberatungsfirma MBB Systemtechnik in Ottobrunn hat bis heute einen beträchtlichen Einfluss auf die deutsche und zum Teil auch europäische Forschungs- und Technologiepolitik im Bereich Energie und Umwelt – zum Beispiel in Form von Gutachten für Bundesministerien und Enquete-Kommissionen des Deutschen Bundestages. Gleichzeitig fördert die Bölkow-Stiftung, in deren Stiftungsrat Grüne den Ton angeben, gezielt Pioniere „grüner“ Energietechnik.

Zu den Firmen, die das erste Umweltprogramm der deutschen Bundesregierung von 1971 und die darin enthaltenen (und von ihnen direkt beeinflussten!) Emissions-Grenzwerte in Form diverser Filter- und Reinigungstechniken umsetzten, gehörten denn auch fast durchwegs Töchter von Rüstungskonzernen wie Flick (insbesondere Krauss-Maffei), Quandt, Klöckner, Krupp, Haniel, MBB, Rheinstahl und, Siemens. Hinzu kamen Töchter von Metallgesellschaft, Degussa und Hoechst sowie des Energiekonzerns RWE, die (wie auch die meisten der vorgenannten Konzerne) in der Nuklearindustrie eine große Rolle spielten.

Begleitet wurde diese Neuausrichtung des MIK durch die allmähliche Transformation von Massenmedien in eine Angstindustrie. Eine große Gelegenheit dafür bot die Veröffentlichung der Studie „Die Grenzen des Wachstums“ durch den Club of Rome. Das Thema „CO2 und Klima“ spielte dabei in Deutschland jedoch zunächst kaum eine Rolle. Statt in Deutschland spielte die alte, aber im Grunde längst widerlegte Hypothese des schwedischen Chemikers Svante Arrhenius von 1896, der wachsende Ausstoß des Verbrennungsabgases CO2 führe zu einer Verstärkung des „Treibhauseffekts“, zunächst nur in Skandinavien eine Rolle. Vor allem die schwedischen Sozialdemokraten unter Olof Palme erwogen schon im Umkreis der ersten UN-Umweltkonferenz 1972 in Stockholm und des neu gegründeten internationalen Umwelt-Fachmagazins „Ambio“ die Einführung von CO2-Steuern, stießen damit jedoch zunächst in Kontinentaleuropa auf wenig Resonanz. Erst als der Preis des Nordsee-Öls in den 80er Jahren unter 10 Dollar je Barrel absackte und die Erdgasförderung in der Nordsee infolge der Koppelung des Gaspreises an den Ölpreis unrentabel geworden war und es deshalb in Europa nahe lag, in der Wärme- und Stromproduktion massiv zur reichlich vorhandenen billigen Kohle zurückzukehren, starteten die skandinavischen Sozialdemokaten unter der Norwegischen Ministerpräsidentin Gro Harlem Brundtland, später Vorsitzende der nach ihr benannten UN-Kommission für Umwelt und Entwicklung, mithilfe der Sozialistischen Internationale eine europaweite Kampagne für CO2-Steuern, um den Kohle- und Öleinsatz künstlich zu verteuern und die Erdgasförderung in der Nordsee wie später auch in Russland wieder rentabel zu machen.

Das CO2-Thema war aber auch einigen Persönlichkeiten der damals in Bonn regierenden Großen Koalition von CDU/CSU und SPD und der sie ablösenden sozial-liberalen Koalition unter Willy Brandt jedoch durchaus von Anfang an bekannt. Zu diesen Persönlichkeiten zählt der heutige Lord Prof. Ralf Dahrendorf. Der bekannte liberale Soziologe beteiligte sich als Staatssekretär im Bundesaußenministerium aktiv an Debatten über die Ausgestaltung der „Dritten Dimension“ der NATO, wo das Klima-Thema im Wissenschaftsausschuss über den Klimatologen Prof. Herrmann Flohn (Bonn) zu einer Zeit, als die Wissenschaftlergemeinde noch beinahe einhellig vom Herannahen der nächsten Eiszeit überzeugt war, schon mit anthropogenen CO2-Emissionen in Zusammenhang gebracht wurde.

Wichtige Anstöße gingen auch von den US-Wissenschaftlern Roger Revelle und Charles Keeling sowie von dem später zum wichtigsten Kritiker der Klima-Hysterie gewandelten österreichisch-amerikanischen Weltraum-Physiker Fred Singer aus. Im Prinzip war auch Günter Hartkopf, FDP-Staatssekretär in dem damals noch für den Umweltschutz zuständigen Bundesinnenministerium, darüber informiert, hat aber dazu nichts verlauten lassen. Frage: Gab es damals Versuche der Brandt-Regierung, sich in dieser Angelegenheit mit den schwedischen Sozialdemokraten zu verständigen? Ich vermute: Da Umweltschutz Angelegenheit der FDP war, haben sich die Sozialdemokraten um das Thema „Klima“ längere Zeit wenig gekümmert. Wegen ihrer engen Verzahnung mit dem Deutschen Gewerkschaftsbund (DGB) standen stattdessen Probleme der Arbeitswelt im Vordergrund.

In Deutschland war die Zeit nach der Ölkrise von 1973 geprägt von einer wachsenden Konfrontation zwischen der sozial-liberalen Regierung und der erstarkenden Anti-Atom-Bewegung. Beim Abwehrkampf des zuständigen sozialdemokratischen Forschungs- und Technologieministers Hans Matthöfer spielte das Klima-Thema aber so gut wie keine Rolle. Erst nach dem Reaktorunfall von Tschernobyl wurde das Thema auf Betreiben der deutschen Nuklearindustrie und ihr nahe stehender Naturwissenschaftler wie den Bonner Physiker Prof. Klaus Heinloth in Form einer „Warnung vor einer drohenden Klimakatastrophe“ durch die Deutsche Physikalische Gesellschaft (DPG) offensiv in die Medien gebracht.

Diese Kampagne mündete in der Einsetzung der Enquête-Kommission „Schutz der Erdatmosphäre“ durch den 11. und 12. Deutschen Bundestag (BT). Ihr Vorsitzender war der als Lobbyist der Hanauer Nuklearindustrie (NUKEM) bekannte CDU-Abgeordnete Klaus Lippold. Die Kommission forderte schon vor der UN-Konferenz über Umwelt und Entwicklung (UNCED) 1992 in Rio de Janeiro eine Reduktion der CO2-Emissionen der Mitglieder der Europäischen Gemeinschaft (EG) um 20 bis 25 Prozent bis zum Jahre 2005 sowie eine Förderung „erneuerbarer“ Energien. Dem kam der BT erstmals 1991 in Form des „Einspeisegesetzes“ nach, das die Betreiber öffentlicher Stromnetze verpflichtet, jederzeit Strom aus Wasser-, Wind-, Sonnen- und Biomassekraftwerken abzunehmen. Hinter dem Gesetz standen u.a. die Abgeordneten Peter Ramsauer (CSU) und Peter Paziorek (CDU), die beide als Betreiber einer Mühle mit Wasserkraftwerk beziehungsweise als Teilhaber von Windparks ein unmittelbares finanzielles Interesse an der Förderung „erneuerbarer“ Energien hatten. Das Gesetz erregte damals wenig Aufsehen, da es zunächst nur kleine Strom-Mengen betraf. Als der Widerstand gegen die „Verspargelung“ der Landschaft durch riesige Windräder wuchs, hat der Bundestag 1996 noch unter Kohl und quer durch alle Fraktionen einen kleinen Zusatz zum Paragraphen 35 des Baugesetzbuches (BauGB) beschlossen. Dieser macht es möglich, Windräder, die höher sind als der Kölner Dom, schneller genehmigt zu bekommen als eine Frittenbude.

Schon im Vorfeld der Rio-Konferenz gab es Versuche, neben Sozialdemokraten auch die Grünen in den ÖIK einzubinden. Das geschah unter anderem auf einer Serie großzügig gesponserter Konferenzen, an denen neben Wirtschaftsvertretern des In- und Auslandes auch Spitzenpolitiker und bekannte Medienvertreter teilnahmen. (Ich kann mich erinnern an eine Konferenz im Kongresszentrum der Hannover Messe und an eine Konferenz im Hotel Maritim am Timmendorfer Strand mit Patricia Cairncross vom „Economist“, dem Schweizer Großindustriellen Stefan Schmidheiny, Klaus Töpfer usw.) Vermittelt über den Grünen Bundestagsabgeordneten Willi Hoss (eines abtrünnigen DGB-Gewerkschafters und Betriebsrats bei Daimler) finanzierte die Daimler AG einer starken „Delegation“ von Grünen die Reise nach Rio. Als „Gegenleistung“ sollten diese in Europa Positives über die Nutzung von Kokos- und Sisalfasern als nachwachsende Rohstoffe im Daimler Werk bei Bélem berichten.

Im Vorfeld der Rio-Konferenz gab es bei den Grünen und in ihrem Umkreis auch eine wegweisende Debatte im grünen Wirtschaftsinformationsdienst „Ökologische Briefe“ und in der „Frankfurter Rundschau“ (FR) über ein Zusammengehen mit verschiedenen privaten Großkonzernen. Diese Debatte habe ich als damals verantwortlicher Redakteur der „Ökologischen Briefe“ dummerweise selbst angestoßen (Eröffnungsartikel in der FR am 19. November 1991 während der Konferenz am Timmendorfer Strand). Im Rahmen dieser Debatte gab es im Frühjahr 1992 ein wichtiges Treffen in einem Düsseldorfer Nobelrestaurant. Beherrscht wurde dieses Treffen, an dem verschiedene Abgeordnete und Vorstandsmitglieder der Grünen (u. a. die Unternehmensberaterin Ruth Hammerbach) teilnahmen, von Michael Vester, Sohn eines Düsseldorfer CDU-Politikers und später Grüner Bauminister in Nordrhein-Westfalen (NRW). Auch Frank Asbeck, der spätere „Sonnenkönig“ von Bonn, war dabei.

Asbeck kommt aus einer alten Dortmunder Unternehmerfamilie, die mit der Stahlverarbeitung ein Vermögen machte. Er galt nie als typischer Grüner und wäre heute genauso gut in der rheinischen Klüngel-CDU aufgehoben. Außer mit Michael Vester ist Asbeck gut mit einflussreichen Politikern wie Kurt Biedenkopf (CDU), Jürgen Rüttgers (CDU), Gerhard Schröder (SPD), Joschka Fischer und Jürgen Trittin (Grüne) sowie mit dem FDP-Vorsitzenden Guido Westerwelle vernetzt. In seiner Jugend sympathisierte er eine Weile mit der Sozialistischen Deutschen Arbeiterjugend (SDAJ), der Jugendorganisation der Deutschen Kommunistischen Partei (DKP). Er betrieb zunächst ein auf die Reparatur und das Recycling von Industrieanlagen (insbesondere in Entwicklungsländern) spezialisiertes kleines Ingenieurbüro und vertrieb zusammen mit seinem Bruder Ralf gepanzerte Limousinen – ein Geschäft, das vor allem während des Kosovo-Krieges blühte.

Mitte der 90er Jahre baute Asbeck auf dem Dach einer Bonner Industriehalle die damals größte Photovoltaik-Anlage Deutschlands. Die Module dafür lieferte BP Solar, dessen größter Kunde Asbeck damit wurde. 1998 gründete Asbeck die SolarWorld AG, die er 1999 erfolgreich an die Börse brachte. Mit dem eingenommenen Kapital kaufte er zunächst eine schwedische Solarmodulfabrik und übernahm im Jahre 2000 die Solarsparte der BAYER AG im sächsischen Freiberg. Dabei half ihm sein kurzer Draht zu Kurt Biedenkopf. Später tat sich Asbeck mit dem Chemiekonzern Degussa (jetzt: Evonik) zur Joint Solar Silicon GmbH & Co KG (JSSI) zusammen, um ein neuartiges Verfahren zur Abscheidung von Solar-Silizium anwendungsreif zu machen.

In die Zeit zwischen dem Tschernobyl-Unglück und der Rio-Konferenz fällt auch die Gründung des Verbandes EUROSOLAR durch den SPD-Abgeordneten Hermann Scheer und den Grünen-Abgeordneten Hans-Josef Fell (ebenfalls Sohn eines CDU-Politikers). Das Ziel von EUROSOLAR: Die völlige Umstellung der Energieversorgung auf „Erneuerbare“ bis zum Jahre 2050, wenn nicht schon früher. Somit handelt es sich, im Vergleich zum eher pragmatischen und wirtschaftsfreundlichen rheinischen Netzwerk Asbecks, um eine eher fundamentalistische Gruppierung. Beide Strömungen verbanden sich aber im Bundesverband Erneuerbare Energien (BEE) mit CDU/CSU-Politikern zu einer starken Lobby für den Ausbau des „Einspeisegesetzes“ zu einem „Gesetz für den Vorrang Erneuerbarerer Energien“ (EEG), das für 20 Jahre großzügige Einspeisevergütungen für Solar-, Wind- und Biomasse-Strom garantiert. Dessen 1. Fassung wurde im März 2000 unter der ersten rot-grünen Regierung verabschiedet.

Ganovenstück EEG

Als Rot-Grün 1998 die Regierungsverantwortung übernahm, hatte sich rund um die „erneuerbaren“ Energien längst ein dichtes polit-ökonomisches Geflecht ausgebildet, in dem gelten soll: Nicht Angebot und Nachfrage, sondern maßgeschneiderte Gesetze und Paragraphen bestimmen Umsatz- und Gewinnchancen. Die neuen Machthaber der Berliner Republik brauchten also nur konsequent auf dem bereits eingeschlagenen Weg fortzufahren. Das taten sie mit dem EEG. Zu dessen Urhebern zählen der württembergische SPD-Bundestagsabgeordnete Hermann Scheer und sein fränkischer Kollege Hans-Josef Fell von den Grünen. Scheer ist Präsident der Lobby-Vereinigung Eurosolar und Vorsitzender des Weltrates für Erneuerbare Energien. Er dürfte schon mit seinen Bestseller-Büchern über das kommende „Solarzeitalter“ und deren Popularisierung in jährlich etwa hundert bezahlten Vorträgen mehr verdienen als durch sein Bundestagsmandat. Fell war Vorsitzender der deutschen Sektion von Eurosolar, Sprecher der Bundestagsfraktion der Grünen für Forschung Technologie und Geschäftsführer der Hammelburger Solarstrom GmbH.

Die niedersächsische FDP-Bundestagsabgeordnete Angelika Brunkhorst, selbst EEG-Lobbyistin, nannte die Durchschleusung des EEG durch Bundestag und Vermittlungsausschuss ein „Ganovenstück“, das von der Parlamentarier-Gruppe von Eurosolar und vom weitgehend personengleichen Parlamentarischen Beirat des Bundesverbandes erneuerbare Energien (BBE) eingefädelt wurde. Vorsitzender dieses Gremiums war wiederum Hermann Scheer. Stellvertretende Vorsitzende war Michaele Hustedt, damals energiepolitische Sprecherin der Grünen im Bundestag. Neben den Abgeordneten Dietrich Austermann (CDU) und Hans-Josef Fell (Die Grünen) gehörten dem Gremium unter anderen die SPD-Abgeordneten Axel Berg, Marco Bülow und Christoph Matschie, die Unions-Abgeordneten Peter Harry Carstensen, Thomas Dörflinger, Josef Göppel und Peter Paziorek sowie Reinhard Loske, damals umweltpolitischer Sprecher der Grünen im Bundestag, heute Grüner Wirtschaftssenator im Stadtstaat Bremen, an. Loske gehörte gleichzeitig dem Kuratorium der Düsseldorfer Naturstrom AG und dem Umweltrat der Nürnberger Umweltbank an. Dietrich Austermann hatte als Mitglied des Verwaltungsrates der bundeseigenen Kreditanstalt für Wiederaufbau (KfW) direkten Einfluss auf die Unterstützung von Wind- und Solarprojekten durch zinsgünstige Darlehen.

Im Detail legt das EEG fest, wie hoch die Stromnetzbetreiber und im Endeffekt die Verbraucher die gesetzlich erzwungene Abnahme teuren Wind- und Solarstroms vergüten müssen: Für Strom aus kleinen Wasserkraftwerken und Windrädern zum Beispiel bis zu über 9 Eurocent je Kilowattstunde (KWh), das heißt fast dreimal mehr als die durchschnittlichen Stromerzeugungskosten in Deutschland. Es kam zu einem Boom von Windkraftfonds, die bei Gutverdienern mithilfe des Versprechens einer Steuerersparnis von über 100 Prozent für eine absolut saubere, sichere und profitable Geldanlage innerhalb weniger Jahre sieben bis zehn Milliarden Euro mobilisierten und damit in Deutschland über 20.000 WKA gebaut haben. Einige der genannten Parlamentarier verdienen als Teilhaber von Wind- und Solarparks oder (diskreter) als Zeichner „grüner“ Investmentfonds an dem vom EEG ausgelösten künstlichen Boom der „Erneuerbaren“ mehr oder weniger kräftig mit. Dabei halten sich die Mitglieder der Regierungsparteien aus nahe liegenden Gründen eher diskret zurück, während sich Oppositionspolitiker offen als Windmüller zu erkennen geben, um sich als besonders „klimafreundlich“ zu profilieren.

Die Bande zwischen grüner Industrie und grüner Partei sind eng. Im Wahlkampfjahr 2002, als SPD und Bündnis 90/Die Grünen bereits hoffnungslos abgeschlagen schienen, pumpten die Windkraftfirmen großzügig Geld in die Kassen der Umweltpartei. Über die Hälfte (300.000 von 550.000 Euro) der nach dem Parteiengesetz angabepflichtigen Großspenden stammte bei den Grünen im Jahre 2002 von Windkraftfirmen. Zu den Großspendern gehörten der Regensburger Windpark-Projektierer Ostwind-Verwaltungs GmbH mit 71.000 Euro, die beiden Betreiber des Windparks im hessischen Lichtenau mit insgesamt 52.500, die EWO Energietechnologie GmbH und die AGU Elektrotechnik GmbH am gleichen Ort mit 40.000 beziehungsweise 20.000 Euro sowie die inzwischen insolvente Umweltkontor Renewable Energy im rheinischen Erkelenz mit 50.000 Euro. Dass es sich dabei um gezielte Wahlkampfhilfe handelte, zeigt die Tatsache, dass die Grünen in den folgenden Jahren aus dieser Branche keine nennenswerten Spenden mehr verbuchten.

Die Sonnenwelt verfinstert sich

Auslöser des nun zu Ende gehenden Solar-Booms war die Anfang Juli 2004 vom Vermittlungsausschuss von Bundestag und Bundesrat verabschiedete Novelle des EEG. Es gäbe sonst keinen Grund, in unseren von der Sonne nicht gerade verwöhnten Breiten massiv in teure Solaranlagen zu investieren. Bis zu 57,4 Eurocent je Kilowattstunde (KWh) kassierten Hausbesitzer, die sich Photovoltaik-Module auf ihr Dach montieren lassen, wenn sie den dort produzierten Strom ins öffentliche Netz einspeisen. Das ist etwa das 20-fache der Kosten von Strom aus Atom- oder Braunkohlekraftwerken, die in Deutschland etwa 3 Cent je KWh betragen. Selbst Strom aus großen, von kommerziellen Betreibern auf Freiflächen aufgestellten Photovoltaik-Anlagen mussten die Netzbetreiber für 45,7 Cent je KWh abnehmen. Allein für die im Jahre 2007 hinzugebauten Fotovoltaik-Anlagen mussten die deutschen Stromverbraucher und Steuerzahler 7,5 Milliarden Euro für die aufbringen. Der Beitrag der Solarenergie zur deutschen Stromversorgung erreichte zu Spitzenzeiten gerade einmal 0,7 Prozent. Kein Wunder in einem Land, das nicht zum Sonnengürtel des Globus zählt.

Durch die im Mai 2008 vorgenommene Anpassung der EEG-Fördersätze hat sich an diesem Missverhältnis zwischen Aufwand und Ertrag wenig geändert. Statt die Einspeisevergütung für Solarstrom um 30 Prozent zu kürzen, wie von Teilen der CDU und der FDP gefordert, um Innovationsanreize zu geben, sieht das novellierte EEG für die kommenden zwei Jahre nur eine Kürzung um 8 Prozent vor. Die Solarlobby hat sich noch einmal durchgesetzt – und zwar vor allem mit dem Argument, sie schaffe Zigtausende von Arbeitsplätzen in den östlichen Bundesländern. Man braucht keine höhere Mathematik, um die Fadenscheinigkeit dieser Begründung zu erkennen. Nach Berechnungen des Bonner Volkswirtes Dieter Damian, die von Manuel Frondel vom Rheinisch-Westfälischen Institut für Wirtschaftsforschung (RWI) bestätigt wurden, werden die kumulierten Kosten des subventionierten Ausbaus der Fotovoltaik in Deutschland schon im Jahre 2015 die Schallmauer von 100 Milliarden Euro durchstoßen haben, obwohl die blau schimmernden Siliziumscheiben bis dahin höchstens zwei Prozent zur Stromproduktion beitragen werden. Es käme billiger, jedem Arbeitslosen einfach ein Paket 500-Euro-Scheine in die Hand zu geben.

Die Netzbetreiber, das heißt in der Hauptsache die vier großen Energieversorgungsunternehmen E.ON, RWE, Vattenfall und EnBW und die mehr als 1.500 örtlichen Versorger, können diese Zusatzkosten bis jetzt wegen des geringen Wettbewerbs auf dem deutschen Strommarkt problemlos an die Endverbraucher weitergeben und dabei (wie die Kartellbehörden vermuten) sogar noch einiges aufschlagen. Die Stromverbraucher jedoch haben kaum Möglichkeiten, der staatlich verordneten Abzocke zu entgehen. Und die allgemeine Verteuerung des Stroms wird, ganz im Gegensatz zu der Behauptung Jürgen Trittins und Sigmar Gabriels, längerfristig unterm Strich höchstwahrscheinlich viel mehr Arbeitsplätze zerstören als neu schaffen. Neue Arbeitsplätze entstehen durch das EEG hauptsächlich in China und Japan, wo die meisten Solarzellen gefertigt werden.

Ausblick

Die Hinweise auf das näher rückende Platzen der „Erneuerbaren“-Blase dürfen nicht überbewertet werden. Der Öko-Industrie-Komplex wird, wie alle einmal etablierten techno-bürokratischen Strukturen, so schnell nicht verschwinden. Zum Geschäftsmodell des ÖIK gehört neben der massiven Subventionierung „erneuerbarer“ Energien vor allem der internationale CO2-Emissionshandel. Es handelt sich dabei, in den Worten des Wall Street Journal, um den „größten Umverteilungsplan seit Einführung der Einkommenssteuer.“ Davon werden die Banken, Versicherungen, Energie- und Anlagenbau-Konzerne, die sich dafür stark machen, so schnell nicht lassen. Die US-Umweltbehörde EPA schätzt die durch die Versteigerung von „Verschmutzungsrechten“ erzielbaren zusätzlichen Staatseinnahmen auf nicht weniger als 3,3 Billionen Dollar. Zwischen verschiedenen Firmen und Branchen der Privatwirtschaft würde Wertschöpfung in der Größenordnung von Hunderten von Milliarden Dollar umverteilt. Doch könnte die Vertrauenskrise in der Finanzwelt diese Pläne vereiteln, weil die deutlich spärlicher fließenden Kredite für dringendere Probleme wie die Rettung der Automobilindustrie vor dem Zusammenbruch benötigt werden.

Es besteht daher jetzt die Chance, das Ausufern des ÖIK zu stoppen und ihn auf eine einigermaßen erträgliche Größenordnung zurechtzustutzen. Voraussetzung dafür wäre die Popularisierung eines anderen politischen Feindbildes. Dieses könnte „Energieverteuerung“ oder „Versorgungsunsicherheit“ lauten. Eine neue Partei, die sich dieses auf die Fahne schriebe, hätte meines Erachtens durchaus Chancen, die politische Landschaft Deutschlands und der EU aufzumischen.

(veröffentlicht in: eigentümlich frei N° 88)

==================================================================

Das Wind-Erdgas-Kartell

Eigennützige Förderung von Windkraft-Projekten

Von Edgar Gärtner*

Die Hersteller von Gasturbinen und die Förderer von Erdgas profitieren beide davon, wenn Strom aus Windkraft gewonnen wird. Diese Abhängigkeit führt jedoch zu Marktverzerrungen (Red.)

Der 80 Jahre alte texanische Erdöl- und Erdgas-Milliardär T. Boone Pickens möchte sich ein Denkmal setzen, indem er seine Landsleute mit Tausenden von Windrädern beglückt. Nun hat er die ersten 667 Windräder mit einer Gesamtkapazität von 1000 Megawatt (MW) für rund 2 Mrd. $ beim «grünen» amerikanischen Konglomerat General Electric (GE) bestellt. Damit möchte der anscheinend vom Saulus zum Paulus gewandelte Geschäftsmann mithelfen, die hohe Abhängigkeit seines Landes von Erdölimporten zu mindern.

Interessen der Erdgas-Industrie

Was auf den ersten Blick als grössenwahnsinnig anmutet, ist vermutlich Ausfluss einer höchst gerissenen Geschäftsstrategie. Waren frühere Windkraft-Investoren

vielleicht noch wirklich davon überzeugt gewesen, mit ihrer guten Tat die Welt retten zu helfen, so geht es den Heutigen in der Regel um etwas ganz anderes. Es hat sich herumgesprochen, dass jedes Kilowatt installierte Windleistung durch eine entsprechende Leistung eines konventionellen Kraftwerks ergänzt werden muss, um die Unstetigkeit des Windes auszugleichen. Wer sich heute für Windräder stark macht, dem geht es also höchstwahrscheinlich eher darum, Gasturbinen und/oder Erdgas zu verkaufen. In der Tat: Zu Pickens Unternehmens- gruppe gehört die ausserordentlich erfolgreiche Erdgas- Explorationsgesellschaft XTO-Energy.

Auch bei der «Ecomagination»-Kampagne von GE liegt das Erdgas-Interesse auf der Hand. GE bietet inzwischen seine Windenergieanlagen besonders preisgünstig an, um Bestel- lungen von Gasturbinen anzukurbeln. Bei Gasturbinen ist GE unangefochten Weltmarktführer und verdient damit viel mehr als auf dem umkämpften Markt für Windräder. Darüber kann sich selbst Rex Tillerson, der Chef des Erdöl-Giganten Exxon Mobil freuen. Obwohl Tillerson Umweltschützer auf die Palme bringt, weil er nicht viel von Investitionen in erneuerbare Energien hält und fortwährend wiederholt, dass Erdöl sein Kerngeschäft bleibt, hat auch er längst kapiert, dass mit Erdgas viel mehr zu verdienen ist. Dort investiert Exxon Mobil neuerdings kräftig. Sein europäischer Mitbewerber Royal Dutch Shell hat sich, kaum bemerkt von der Öffentlichkeit, längst in einen Erdgas-Konzern verwandelt, der – je nach Standort – eng mit staatseigenen Lieferanten wie Gazprom (Russland) oder Sonatrach (Algerien) kooperiert. Inzwischen sieht sich die EU in der Energiepolitik einer geschlossenen Front von Erdgaslieferanten – einer Art Erdgas-OPEC – gegenüber, zu der neben den genannten Konzernen auch das Emirat Katar und die Erdöl- beziehungsweise Erdgas-Konzerne Chevron, BP und Total gehören.

«Erdgas-Opec»

Kürzlich verlautete am World Petroleum Congress (WPC) in Madrid, über 80 Prozent der in den kommenden 20 Jahren in der EU installierten Kraftwerkkapazitäten entfielen voraussichtlich auf kombinierte Gas- und Dampfturbinen. In Spanien sind solche Turbinen mit 21 Gigawatt (GW) Gesamtkapazität bereits zur wichtigsten Stromquelle geworden. Das ist kein Zufall, denn Spanien ist nach Deutschland das EU-Land mit der höchsten Windkraft-Kapazität. Sie erreichte Ende 2006 rund 11 000 MW. Bei schätzungsweise 2000 Volllast-Stunden im Jahr entspricht das einer Elektrizitäts-Produktion von 23 Terawattstunden. Um diese sehr unregelmässig anfallende Strommenge im Übertragungsnetz abzupuffern, eignen sich am besten rasch an- und abschaltbare Gasturbinen.

Auch in Deutschland, wo über 20.000 Windräder mit einer Gesamtkapazität von 21.400 MW die Landschaft „verschönern“, stieg der Gaseinsatz für die Stromproduktion parallel zum Ausbau der Windkraft, und zwar von 35,9 Mrd. kWh im Jahre 1990 auf 74,5 Mrd. kWh in 2007. Der Anteil von Gas an der gesamten Stromproduktion wuchs von 6,5 Prozent im Jahre 1990 auf 11,7 Prozent in 2007, während der Anteil von Windstrom von Null auf 6,2 Prozent stieg (siehe Grafik)). Das ist sicher nicht ganz zufällig. Bis heute wird in Deutschland allerdings noch immer ein Teil des Windkraft-Backup von alten Kohlekraftwerken übernommen. Diese müssen dann in einem unwirtschaftlichen Stand-by-Betrieb laufen, um bei Bedarf rasch angefahren werden zu können. Die Grünen und auch beträchtliche Teile der Regierungsparteien kämpfen derzeit mit allen ihnen zur Verfügung stehenden Kräften gegen den Bau neuer Kohlekraftwerke. Deshalb ist es absehbar, dass die meisten alten Kohlekraftwerke letzten Endes durch Gasturbinen ersetzt werden.

Einen zusätzlichen Auftrieb erhalten die Verkäufer von Erdgas durch den Handel mit europäischen CO2-Emissionsrechten. Sobald die Emissionsrechte – wie vorgesehen – ab 2013 ersteigert werden müssen, macht der Emissionshandel Investitionen in die energetische Nutzung der reichlich vorhandenen Vorräte an Braun- und Steinkohle uninteressant. Der Vormarsch des Erdgases in der Stromproduktion der EU führt zur fatalen Konsequenz, dass es schon bald keine echte Wahlmöglichkeit zwischen leitungsgebundenen Energieträgern mehr geben wird. Die wichtigste Alternative zum Einsatz von Erdgas in Turbinen ist übrigens Kerosin, das zurzeit, bezogen auf die enthaltene Wärmeenergie, beinahe doppelt so viel kostet wie Rohöl. Dadurch zeichnet sich der Korridor der zukünftigen Entwicklung des Erdgaspreises ab. Es ist zu erwarten, dass der Gaspreis nicht länger vom Rohölpreis abhängen, sondern sich in 5 bis 10 Jahren dem Kerosinpreis angleichen wird. Nur Länder, die wie die Schweiz über große Wasserkraftreserven verfügen, könnten die einseitige Abhängigkeit vom Gas vermeiden.

Erdölländer setzen auf Kohle

Statt in Europa wird die weltweit zu günstigen Preisen verfügbare Kohle nun ausgerechnet in den Erdöl- und Erdgasförderländern verstärkt genutzt. Russland baut zurzeit 30 neue Kohlekraftwerke, um das immer teurer werdende Erdgas für den Export zu reservieren. Auch das Emirat Dubai setzt für die eigene Stromversorgung auf Kohlekraftwerke, weil dessen Wirtschaftsstrategen die eigenen Erdöl- und Erdgasvorräte dafür zu schade erscheinen.

*) erschienen in: Neue Zürcher Zeitung am 7. August 2008

================================================================

Umweltschutz jenseits der Rationalität von Edgar L. Gärtner*)

Jede gesellschaftliche Interessengruppe erzählt die Geschichte ihres Anliegens so, wie es ihr in den Kram passt. Auf Neudeutsch heißt das Story Telling. Wer begreifen will, wie und wann das zunächst vernünftige Anliegen des Umweltschutzes zu einem krankhaft religiösen Weltrettungswahn mit selbstmörderischen Zügen wurde, wer begreifen will, wie bürokratisch-rationale Umweltschützer zu skrupellosen Nihilisten wurden, die nicht davor zurückschrecken, Menschenleben zu opfern, um eine vermeintlich drohende Klimakatastrophe abzuwenden, der ist wohl schlecht beraten, wenn er ausgerechnet jene um Auskunft fragt, die den Umweltschutz – in welcher Form auch immer – zu ihrem Geschäft gemacht haben. Diese schwelgen im Mythos des Sündenfalls der industriellen Revolution bzw. des „Stummen Frühlings“ (Rachel Carson, 1962) infolge der Chemisierung der Landwirtschaft. Dieser Mythos steht auch hinter den „Grenzen des Wachstums“ (1972), deren Entdeckung zu Beginn der 70er Jahre des vergangenen Jahrhunderts eine politische Wende erzwungen habe.

Doch der Start der Umweltpolitik im heutigen Sinne um 1970 hatte wenig mit einer krisenhaften Zuspitzung von Umweltproblemen zu tun, sondern mehr mit einer Anpassung der Strategie des Nordatlantischen Bündnisses an gewandelte Bedingungen des Kampfes gegen den Kommunismus. Zu ihren Hintergründen zählen die Infragestellung der westlichen Lebensweise durch die Studentenrevolte von 1968, die drohende Niederlage der USA im Vietnam-Krieg und das in Form der „Entspannung“ sich abzeichnende Ende des Kalten Krieges. Die Watergate-Affäre brachte zutage, welche Panik unter US-Präsident Richard Nixon im Weißen Haus herrschte. Um davon abzulenken, bot sich der von Denkfabriken wie der RAND Corporation und der Ministerialbürokratie vorgeschlagene neue Politiktypus „Umweltpolitik“ an.

Reaktive ordnungsrechtliche Eingriffe

Auf echte stoffliche Engpässe der industriellen Umweltnutzung und die damit verbundene Verletzung von Eigentumsrechten hatten klassische Industriestaaten wie England oder Deutschland, auf Druck Geschädigter, schon seit dem 19. Jahrhundert fallweise mit durchaus wirksamen ordnungsrechtlichen Eingriffen reagiert.

• Im englischen Parlament gab es heftige Auseinandersetzungen zwischen dem eingesessenen Landadel und Sodafabrikanten, die als Emporkömmlinge einen unsicheren gesellschaftlichen Status innehatten. Der Grund war das für die Sodaherstellung zunächst angewandte Le-Blanc-Verfahren. Dabei wird Salzsäure frei, die die Vegetation in der Umgebung der Sodawerke verätzte. Aufgrund des 1863 erlassenen Alcali Act schickte der Staat Inspektoren in die Sodawerke, um für eine Verminderung der Salzsäure-Emissionen zu sorgen. Der Konflikt wurde aber letzten Endes nicht durch den Alcali Act, sondern durch den Übergang zum umweltfreundlicheren Solvay-Verfahren der Soda-Herstellung gelöst.

• 1869 kam im späteren Deutschland mit der Gewerbeordnung (GewO) des Norddeutschen Bundes die Genehmigungspflicht für alle Industrieanlagen, die Nachbargrundstücke beeinträchtigen können.

• Das deutsche Wasserhaushaltsgesetz (WHG) von 1957 war die Antwort auf die Übernutzung der Selbstreinigungskraft von Bächen, Flüssen und Seen während des Wirtschaftsbooms der Nachkriegszeit.

• Anlass für die Technische Anleitung (TA) Luft von 1964, eine Verwaltungsvorschrift auf der Basis des § 16 der GewO von 1869, war die extreme Belastung der Luft des Ruhrgebietes mit Grob- und Feinstaub sowie mit Schwefel- und Stickoxiden, die zur Abwanderung von Arbeitskräften führte und zum Hemmschuh für die Modernisierung der Industrie durch die aufkommende Elektronik wurde. Der spätere sozialdemokratische Bundeskanzler Willy Brandt hatte 1961 im Wahlkampf gefordert: „Der Himmel über der Ruhr muss wieder blau werden.“ Diese Verwaltungsvorschrift begnügte sich mit der Einführung von Emissionsgrenzwerten für wenige Schadstoffe und von Berechnungsmethoden für die für eine großräumige Verteilung von Abgasen erforderliche Höhe von Fabrikschornsteinen.

Die Bürokratie übernimmt die Führung

Doch dann geht die Bürokratie in die Offensive. Im Jahre 1969 wird anlässlich des 20-jährigen Bestehens des Nordatlantik-Paktes das NATO Committee on Challenges of Modern Societies (CCMS) feierlich aus der Taufe gehoben. Dieses wurde als “dritte Dimension” der NATO bekannt. Sein erklärtes Hauptanliegen war die “Nutzbarmachung wissenschaftlicher Erkenntnisse bei der Entscheidungsfindung”, d. h. die Übertragung betriebswirtschaftlicher und militärisch-logistischer Systemanalyse- und Planungsmethoden in die zivile Verwaltung. Erstmals wurden diese Methoden (mit überwiegend enttäuschenden Ergebnissen) im Rahmen des sozialpolitischen „Great Society“-Programms unter US-Präsident Lyndon B. Johnson erprobt. Als weitaus erfolgreicher (im Sinne der Bürokratie) erwies sich der am 1. Januar 1970 unter Präsident Richard Nixon verabschiedete US National Environmental Policy Act. Darin wurde auch der Begriff „Environmental Protection“ (Umweltschutz) geprägt. In den bis dahin eingeführten fall- und medienbezogenen ordnungsrechtlichen Regelungen wird man den heute gängigen Begriff vergebens suchen. Er tauchte erstmals in dem im September 1970 kurz nach dem US-Umweltprogramm ohne konkreten Anlass beschlossenen „umweltpolitischen Sofortprogramm“ der Bundesregierung auf.

Sehr anspruchsvoll kam dann das 1971 verabschiedete umfassende Umweltprogramm der deutschen Bundesregierung daher. Sein erklärtes Ziel: „Unerwünschte Nebenwirkungen wirtschaftlicher und gesellschaftlicher Entwicklungen sollen rechtzeitig erkannt und durch weit vorausschauende Umweltplanung vermieden werden.“ Voraussetzung dafür sei die Weckung eines „Umweltbewusstseins“ in der breiten Bevölkerung. Implizit ist hier auch schon das erst später so genannte „Vorsorgeprinzip“ angedeutet – und die damit verbundene Angstmache.

Nach dem oft gedankenlos zitierten, aber im Grunde vermessenen Grundsatz „Vorbeugen ist besser als heilen“ soll die so verstandene Umweltpolitik das Übel an der Wurzel packen und sich nicht mit dem Kurieren von Symptomen begnügen. Der gesunde Menschenverstand legt es stattdessen nahe, Probleme immer ein Stück weit auf sich zukommen zu lassen und Vorsorgeaufwendungen von ihrem absehbaren Nutzen abhängig zu machen. Denn wer sich allzu sehr um ungelegte Eier sorgt, der versäumt bekanntlich das Leben. Das „Vorsorgeprinzip“ war schon im WHG in Form des „Besorgnisgrundsatzes“ angeklungen. Im deutschen Bundesimmissionsschutzgesetz (BImSchG) von 1974, einer „ganzheitlichen“ Weiterentwicklung der TA Luft, wurde es dann weltweit zum ersten Mal kodifiziert. Es enthält, wie noch demonstriert werden wird, den Keim des Umschlags der bürokratisch-rationalen Regulierung in eine von irrationalen, nihilistischen Motiven getriebene Bewegung nach dem Prinzip „Selbstmord aus Angst vor dem Tod“.

Bei der Umsetzung des Versuchs, schon im Vorhinein klüger zu sein, setzten Spitzenbeamte des in Deutschland für den Umweltschutz zuständigen Bundesinnenministeriums (BMI), entsprechend des von US-Denkfabriken ersonnenen Modells der „professionalized reform“, von Anfang an auf das „Wadenbeißen“ außerparlamentarischer Gruppen, die heute als Non Governmental Organizations (NGOs) bekannt sind, und auf die Verwandlung der Massenmedien in eine „Angst-Industrie“. Die „Bürgerinitiativen“ wurden von der Ministerialbürokratie, wenn nicht aus der Taufe gehoben, so zumindest gezielt mit Informationen und einer „Anschubfinanzierung“ versorgt. Der damals im BMI für den Umweltschutz zuständige Staatssekretär Günter Hartkopf (FDP) hat das nach seiner Pensionierung in einer Rede auf dem Deutschen Beamtentag 1986 in Bad Kissingen offen ausgesprochen. Außerdem bedurfte die bürokratische Offensive einer Art von Zeigefinger-Pädagogik. Darum kümmerte sich eine elitäre Gruppe mit dunklem Hintergrund: der Club of Rome. Dessen Bericht „Die Grenzen des Wachstums“ (1972) half entscheidend mit, die Idee einer geschlossenen Welt mit absolut begrenzten Rohstoffvorräten bzw. den Mythos „Sündenfall industrielle Revolution“ zu verbreiten.

Bürokratie birgt nihilistische Versuchung

Der Übergang von der rationalen bürokratischen Planung und Regulierung zur Anbiederung an galoppierende Ängste bzw. nihilistische Auslegungen des „Vorsorgeprinzips“ begann schon zu Beginn der 80er Jahre, als die Vergilbung von Nadelbäumen in deutschen Mittelgebirgen als Symptom eines allgemeinen „Waldsterbens“ gedeutet wurde, das nur durch eine Drosselung des Kraftverkehrs und durch Milliarden-Investitionen in Rauchgasreinigungsanlagen aufgehalten werden könne. Kosten-Nutzen-Abwägungen spielten dabei offenbar schon keine Rolle mehr. Später stellte es sich heraus, dass die Entschwefelung der Rauchgase von Kohlekraftwerken zu weit getrieben worden war. Verblasste Rapsblüten auf den Feldern wiesen unmissverständlich auf Schwefelmangel in den Ackerböden hin.

1986 kam das Prinzip „Selbstmord aus Angst vor dem Tod“ vollends zum Durchbruch. Wichtigster Auslöser war die Reaktorexplosion von Tschernobyl in der Ukraine. In Deutschland griff Hysterie um sich. Aus Angst vor einer Kontamination durch den Fall Out der in Tschernobyl aufgestiegenen „Wolke“ mit radioaktiven Spaltprodukten verzichteten viele Menschen auf frische Nahrungsmittel und griffen zu Konserven. Manche retteten sich gar auf ferne Inseln. Unvergessen bleibt die Irrfahrt eines Güterzuges mit „verstrahltem“ Molkepulver kreuz und quer durch Westdeutschland. Um die seit der „Ölkrise“ von 1973/74 getätigten riesigen Investitionen in Kernkraftwerke zu retten, machten sich Ministerialbürokratie und Atomindustrie die Hypothese einer durch übermäßige Kohlenstoffdioxid-Emissionen verursachten Überhitzung der Erde zu Eigen. Dieser erstmals gegen Ende des 19. Jahrhunderts vom schwedischen Chemiker Svante Arrhenius in die Welt gesetzte verstiegene Ansatz für die Erklärung der Eis- und Warmzeiten in der Erdgeschichte (unabhängig von heute bekannten astronomischen und geologischen Zyklen) spielte zwar schon bei der Begründung der „dritten Dimension“ der NATO eine Rolle und war auch von amerikanischen Investoren-Kreisen schon als weit tragende Geschäftsidee erkannt worden, wurde aber bis dato in Europa sowohl in der Wissenschaft als auch in den nationalen Bürokratien zu recht nicht ernst genommen.

Schließlich erklärte der „Erd-Gipfel“ 1992 in Rio de Janeiro das „Vorsorgeprinzip“ in der Rio-Deklaration, in der „Agenda 21“ und in der Klima-Rahmenkonvention zur obersten Richtschnur der Politik. Grundsatz 15 der Rio-Deklaration lautet auf Deutsch: “Drohen schwerwiegende oder bleibende Schäden, so darf ein Mangel an vollständiger wissenschaftlicher Gewissheit kein Grund dafür sein, kostenwirksame Maßnahmen zur Vermeidung von Umweltverschlechterungen aufzuschieben.” Was heißt „kostenwirksam“ (cost effective)? Kosteneffizienz ist damit offenbar nicht gemeint. Denn Kosten-Nutzen-Vergleiche sollen keine entscheidende Rolle spielen, wenn es darum geht, eine hypothetische Klimakatastrophe aufzuhalten. Die Europäische Union bezieht sich im Maastricht-Vertrag von 1992 ebenfalls auf das „Vorsorgeprinzip“, und zwar ohne es zu definieren und ohne klar zu stellen, in welchem Verhältnis dieses zu dem im gleichen Vertrag verankerten Prinzip der Verhältnismäßigkeit steht. Der Versuch einer Klärung erfolgte erst acht Jahre später in einer im Jahr 2000 veröffentlichten „Communication“ der EU-Kommission. Deren Einfluss auf grundlegende politische Entscheidungen hat aber seit der Jahrtausendwende kontinuierlich abgenommen. Vor zwei Jahren forderte der amtierende EU-Umweltkommissar Stavros Dimas offen den Übergang zu einer planmäßigen „Kriegswirtschaft“, um den Klimawandel – koste es, was es wolle – durch eine „ökologische Revolution“ zu bekämpfen.

Eindeutig pathologische Züge trägt der Beschluss Deutschlands und der EU, den CO2-Ausstoß bis zum Jahre 2020 im Alleingang um 20 Prozent zu reduzieren. Überschlägige Berechnungen weisen aus, das die „Maßnahmen-Pakete“, mit deren Hilfe dieser Beschluss in Deutschland umgesetzt werden soll, zwischen 500 und 900 Milliarden Euro verschlingen werden. Auf der Ebene der EU kommt man schnell in die Billionen. Dabei geht es insbesondere um physikalisch oft mehr als fragwürdige Energiesparmaßnahmen. Selbst wer an die CO2-Hypothese glaubt, wird nicht behaupten können, diesem Aufwand stände irgendein messbares Ergebnis gegenüber. Deutschland wird, wenn die Entwicklung „nach Plan“ verläuft, im Jahre 2030 nur noch mit 1,2 Prozent zum weltweiten CO2-Ausstoß beitragen, während allein auf China über ein Viertel entfiele. Selbst das völlige Verschwinden Deutschlands hätte unter dieser Bedingung keinerlei Einfluss auf die globale Durchschnittstemperatur.

Man sieht hier, dass der gefährliche Schwebezustand zwischen einem pervertierten Christentum und dem Glauben an den Übermenschen, den Friedrich Nietzsche als Nihilismus bezeichnete, schlicht mit Dummheit gleichgesetzt werden kann. Um die Dummheit zu verbreiten, bedarf es keiner Verschwörung, denn Dummheit ist von sich aus hoch ansteckend. Wie Dummheit zur Epidemie werden kann, hat Elisabeth Noelle-Neumann mit ihrer Theorie der „Schweigespirale“ gezeigt.

Von einer vagen Hypothese zur totalitären Fiktion?

Inzwischen ist die verstiegene Hypothese eines „Treibhauseffektes“ und dessen Verstärkung durch CO2-Emissionen menschlichen Ursprungs infolge ihrer Verbindung mit einer breiten politischen Bewegung und einem immer mächtiger werdenden „Ökologisch-industriellen Komplex“ (ÖIK) von Profiteuren hoch subventionierter „erneuerbarer“ Energien, des CO2-Emissionshandels und damit verbundener wachsender Erdgasabhängigkeit dabei, sich zu einer gegenüber der Realität abgedichteten totalitären Fiktion zu verselbständigen. Wer heute möglichst viel Erdgas zu möglichst hohen Preisen verkaufen will, der sorgt dafür, dass ganze Länder wie Deutschland oder Spanien voll Windräder gestellt werden. Denn deren unstete Stromproduktion lässt sich am besten mit rasch an- und abschaltbaren Gasturbinen kompensieren. Die Zunahme des Erdgasverbrauchs korreliert in beiden Ländern sehr eng mit der Zunahme der Anzahl von Windrädern. Nur mithilfe marktwidriger staatlicher Vorgaben wie dem deutschen Gesetz über den Vorrang erneuerbarer Energien (EEG) von 2004 bzw. 2008 lassen sich diese parasitären Geschäftsstrategien umsetzen. So entstehen stabile staatsmonopolistische Kartelle.

Die Tatsache, dass die Durchschnittstemperatur über den Landmassen der Erde nun schon ein Jahrzehnt lang, trotz eines vor allem in Asien kräftig gewachsenen CO2-Ausstoßes, nicht mehr steigt, hat deshalb bislang weder in der großen Politik noch in der Wirtschaft dazu geführt, die Stichhaltigkeit der CO2-Erwärmungs-Hypothese in nennenswertem Umfang zu hinterfragen. Im Gegenteil: Es werden CO2-Rationierungs-Pläne auf der Basis persönlicher CO2-Kreditkarten geschmiedet, die bald dazu führen könnten, dass nicht nur Industrien, sondern auch Privatpersonen buchstäblich für jeden Furz CO2-Emissions-Zertifikate erwerben müssen. CO2-Sparen soll zum zentralen Lebensinhalt werden. Ein solches System als „Öko-Faschismus“ zu bezeichnen, wäre ein Euphemismus, denn das Regime Benito Mussolinis erschiene demgegenüber noch beinahe als liberal. Darin, und nicht etwa im islamistischen Terrorismus, sehe ich derzeit die mit Abstand wichtigste Gefahr für die Freiheit.

Als totalitär definierte die große politische Philosophin Hannah Arendt Fiktionen, die aufgrund gewisser politischer und ökonomischer Konstellationen allgegenwärtig und unwiderlegbar werden. Arendt hat das bekanntlich in ihrem Hauptwerk „Elemente und Ursprünge totalitärer Herrschaft“ am Beispiel der Fiktion einer jüdischen Weltverschwörung aufgezeigt. Solche Fiktionen tragen Züge einer self fulfilling prophecy. Hitler konnte nicht widerlegt, sondern nur militärisch besiegt werden, bemerkte Arendt lapidar. Auch wenn der „Krieg der Köpfe“ in der Klimafrage schon längst kaum mehr in Form wissenschaftlicher Dispute ausgetragen wird, besteht aber meines Erachtens noch immer etwas Hoffnung, dass sich auch hier zu guter Letzt die Spreu auf einigermaßen normalem Wege vom Weizen trennt. Gelingt das nicht, müsste man versuchen, die Öko-Nihilisten mit ihren eigenen Waffen zu schlagen – zum Beispiel, indem man Neid gegen die Profiteure des ÖIK schürt. Aber das wäre für anständige Liberale sicher das letzte Mittel…

*) vorgetragen am 13. Juni 2008 auf dem Symposium des Liberalen Instituts, Zürich, zum Thema „Umweltschutz als Freiheitsschutz“

Literatur:

Arendt, Hannah: Elemente und Ursprünge totaler Herrschaft. Antisemitismus, Imperialismus. Totalitarismus. Taschenbuchausgabe, München 2003

Gärtner, Edgar L.: Vorsorge oder Willkür. Kunststoffweichmacher im politischen Kreuzfeuer, Köln 2006

Gärtner, Edgar L.: Öko-Nihilismus. Eine Kritik der Politischen Ökologie, Jena 2007

Gärtner, Edgar L.: Klimaschutzpolitik als Ausdruck des Nihilismus. Ein Plädoyer für gesunden Menschenverstand und Wettbewerb statt Bürokratie und konsensuale Gutheissung, in: Neue Zürcher Zeitung vom 7. Juni 2008

Noelle-Neuman, Elisabeth: Die Schweigespirale. Öffentliche Meinung – unsere soziale Haut. 6. Aufl., München 2001

(Dieser Vortragstext wurde inzwischen veröffentlicht in: Christian Hoffmann/Pierre Bessard (Hrsg.): Natürliche Verbündete. Marktwirtschaft und Umweltschutz. Edition Liberales Institut, Zürich. ISBN 978-3-033-01795-5)

Es wird langsam kühler

Es wird immer deutlicher, dass die befürchtete Abkühlung der Erde, eine so genannte Kleine Eiszeit, schon begonnen hat. Kaltlufteinbrüche mit Schneefällen in Nordamerika, Asien und Europa lange nach Beginn der meteorologischen Sommerzeit haben in letzter Zeit zu beträchtlichen Ernteausfällen geführt und verschärfen die wegen der Finanzkrise ohnehin schon prekäre Ernährungssituation in armen Ländern.

Abkühlung lässt Agrarerträge sinken

Es lässt sich nicht mehr leugnen, dass die globale Erwärmung der Vergangenheit angehört. Seit der Jahrtausendwende wird es auf der Erde wieder langsam kühler. Kann mann über die Aussagekraft von Messungen der Bodentemperaturen noch streiten, so liefert die Entwicklung der landwirtschaftlichen Erträge ein unmissverständliches Bild. Der britische Kollege Christopher Booker hat im „Sunday Telegraph“ vom 14. Juni 2009 einen guten Überblick über witterungsbedingte Ernteausfälle in Nordamerika und in Asien zusammengestellt, der nur den Schluss zulässt, dass Klimawandel konkret Abkühlung heißt. Dazu passt auch die bei SPIEGELonline mit Verwunderung aufgenommene Nachricht, ein bedeutender argetinischer Gletscher dehne sich wieder aus. In einem schon vor über zwei Jahren erschienenen Artikel habe ich versucht zu erklären, was hinter den Wetterkapriolen steckt.

Was ist bloß mit dem Wetter los?

Von Edgar Gärtner*)

Man darf sich in Deutschland offenbar über gar nichts mehr freuen. Nicht einmal über die ermäßigte Heizkostenrechnung, die uns der erstaunlich milde Winter 2006/2007 beschert hat. Die deutschen Massenmedien haben die Veröffentlichung der (politischen!) Zusammenfassung des 4. Berichts des zwischenstaatlichen Klimarates IPCC Anfang Februar 2007 zum Anlass genommen, wie auf Kommando in einem Akt der Selbstgleichschaltung einander mit apokalyptischen Prophezeiungen, hysterischen Warnungen vor hypothetischen Gefahren und Bußpredigten zu überbieten.

Was will etwa der FOCUS-Titel „Die Erde im Klimaschock“ (Nr. 9/2007) sagen, wenn man voraussetzt, dass die World Meteorological Organisation (WMO) „Klima“ als 30-jährigen Mittelwert der Wetterabweichungen einer gegebenen Region vom Wetter anderer Regionen definiert? Ist nun der Mittelwert ein Schock oder wird er geschockt? Oder was bedeutet der Spruch „Die Klimakatastrophe ist eine Tatsache“ Anfang Februar 2007 im ZDF-heute-journal? Angesichts der geologischen Erkenntnis, dass lebensfeindliche Eiszeiten in der aktuellen Phase der Erdgeschichte mehr als zehnmal wahrscheinlicher eintreten als Warmzeiten, könnte das ja nur bedeuten, dass kilometerdicke Eisschilde bereits bis nach Hamburg oder Berlin vorgedrungen sind. Das war aber offenbar nicht gemeint. Vielmehr möchte man den Adressaten der GEZ-finanzierten Propaganda weismachen, die in den letzten 100 Jahren registrierte leichte Erhöhung der Durchschnittstemperatur über den Landmassen der Erde von 0,74 Grad Celsius sei die Katastrophe. Dabei müssten alle, die sich ein Körnchen gesunden Menschenverstand bewahrt haben, hoffen und/oder beten, die Erwärmung möge noch möglichst lange weitergehen. Ein Gemeinwesen, in dem sich eine solche semantische Umweltverschmutzung ausbreiten kann, ist dem Untergang geweiht!

Genau besehen, ist der jüngste IPCC-Bericht übrigens weniger alarmistisch als sein Vorgänger von 2001. Doch wie viele von den lieben Journalisten-Kollegen, die ihre wichtigste Aufgabe darin sehen, den Menschen Angst einzujagen und Opferbereitschaft zu predigen, haben die 13 Seiten Text und 7 Seiten Grafiken des „Summary for Policymakers“ überhaupt studiert? Jedenfalls dürfte es ihnen nicht leicht fallen, den dort projizierten möglichen Anstieg der Durchschnittstemperatur um 2 bis 4,5 Grad Celsius bis zum Jahr 2100 und den damit vermutlich einhergehenden Anstieg des Meeresspiegels um wenige Dezimeter als Katastrophe zu verkaufen.

Was verbirgt sich also hinter dem Schlagwort „Klimawandel“? Gab es in den letzten Jahrzehnten überhaupt einschneidende Veränderungen im Wettergeschehen? Wurden nicht vielmehr natürliche Schwankungen, maßlos übertreibend, zu Vorboten eines „Umkippens“ des herkömmlichen „Klima-Systems“ umgedeutet? Gab es aber dennoch in den letzten Jahrzehnten, wie ich selbst glaube, signifikante Veränderungen im Wetterablauf, wie lassen diese sich dann erklären? Zuerst eine für manche etwas enttäuschende Antwort: Was sich genau hinter den seit den 70er Jahren beobachtbaren auffälligen Veränderungen in der atmosphärischen Zirkulation verbirgt, wissen wir noch nicht. Als sicher kann hingegen gelten, dass die der „Klimapolitik“ zugrunde liegende „offizielle“ Erklärung, die dem bei der Verbrennung fossiler Energieträger (Kohle, Erdöl und Erdgas) entstehenden Kohlendioxid (CO2) und damit uns Menschen die Hauptverantwortung zuspricht, unhaltbar ist. Denn diese stützt sich ausschließlich auf numerische (nicht analytische!) Computersimulationen, deren Übertragbarkeit in die Realität höchst zweifelhaft ist.

Für Atmosphärenforscher verschiedener Disziplin ist CO2 ein Spurengas, weil es gegenüber den Hauptbestandteilen der Gashülle der Erde (78 Prozent Stickstoff und 21 Prozent Sauerstoff) nur etwa einen Teil von 3000 ausmacht. Neben CO2 gibt es noch eine Reihe weiterer Spurengase, darunter extrem reaktionsträge Edelgase und vor allem gasförmiges Wasser (Wasserdampf) in sehr stark schwankender Konzentration. Nicht von ungefähr bezeichnen Ökologen die Erde als „Wasserplanet“. Etwa 71 Prozent ihrer Oberfläche sind von kilometertiefen Ozeanen mit Salzwasser bedeckt. Dieses absorbiert und speichert einen großen Teil der bei klarem Himmel eintreffenden Sonnenwärme. Bereits die oberen drei Meter der Meere enthalten mehr Wärme als die ganze Atmosphäre. Schon allein die Existenz dieses riesigen Wärmespeichers kann, neben der sehr viel schnelleren Rotationsgeschwindigkeit und des damit verbundenen Wechsels von Tag und Nacht, die unterschiedlichen Temperaturverhältnisse auf der Erde und ihrem Trabanten, dem Mond, zu einem beträchtlichen Teil erklären.

Aber auch das bei der Aufheizung der Meere durch Verdunstung in die Lufthülle gelangende, dann zu Wolken kondensierende und als Regen oder Schnee auf die Landmassen fallende Süßwasser ist ein Klimafaktor ersten Ranges und bekanntlich auch in anderer Hinsicht lebenswichtig. Der Kreislauf des Wassers ist der mit Abstand wichtigste Stoffkreislauf auf der Erde. An zweiter Stelle steht der Sauerstoff-Kreislauf. Und erst an dritter Stelle folgt der Kreislauf des Kohlenstoffs, bei dem das Kohlendioxid Ausgangs- und Endpunkt zugleich darstellt. Denn CO2, obwohl in der Luft nur in Spuren vorhanden, bildet die Grundlage für den Aufbau organischer Substanz (Biomasse) durch die pflanzliche Photosynthese. Dabei erweist sich die aktuelle atmosphärische CO2-Konzentration als deutlich unteroptimal, denn eine künstliche Anreicherung dieses Gases in Gewächshäusern führt zu einer deutlichen Steigerung der Photosyntheserate und damit der Rentabilität der Pflanzenzucht.

Kohlendioxid und Wasser haben als dreiatomige Moleküle Eigenschaften, die sich von denen der zweiatomigen Hauptbestandteile der Luft (Stickstoff und Sauerstoff) unterscheiden. Beide werden durch die vom aufgeheizten Erdboden in Form von Infrarotstrahlen (IR) reflektierte Sonnenenergie für winzige Bruchteile von Sekunden zu Schwingungen angeregt. Es ist aber noch längst nicht ausgemacht, ob diese Anregung zu einer zusätzlichen Aufheizung des Bodens durch Rückstrahlung („Treibhauseffekt“) oder nicht im Gegenteil zu einer Abkühlung durch eine Beschleunigung des Wärmetransports ins kalte Weltall führt. Da es in den feuchten Tropen tagsüber längst nicht so heiß wird wie in den trockenen Subtropen, scheint der kühlende Effekt des Wasserdampfes zu überwiegen. Experimentell lässt sich diese Frage aber nicht klären.

Immerhin zeigten spektroskopische Messungen schon in der ersten Hälfte des 20. Jahrhunderts, dass der mögliche Einfluss von CO2 auf das Verhalten der Atmosphäre gegenüber dem Einfluss des Wassers vernachlässigbar gering sein muss. Denn die IR-Absorptionsspektren beider Gase überlappen sich sehr stark. Es gibt ein „Fenster“, durch das Wärmeenergie ungehindert in den Weltraum entweichen kann, weil in diesem Spektralbereich keines der Spurengase IR-Strahlen absorbiert. Die außerhalb des „Fensters“ einzige vom Wasser noch frei gelassene Absorptionsbande (bei 15 Mikrometer Wellenlänge) war – nach spektroskopischen Messungen, die der Wiesbadener Chemiker Heinz Hug durchgeführt hat – schon bei einer CO2-Konzentration von 280 ppm, die als „vorindustrielles Niveau“ angenommen wird, weitgehend gesättigt. Nur in Randbereichen des Absorptionsspektrums der Atmosphäre könnte zusätzliches CO2 überhaupt noch etwas ausrichten. Konkret heißt das: Fast alles, was durch die Menschen zusätzlich in die Luft geblasenes CO2 theoretisch in der Atmosphäre anrichten könnte, wurde schon von H2O getan, das dort (in schwankenden Konzentrationen) ohnehin vorhanden ist. Deshalb hat das „Compendium of Meteorology“ der US Meteorological Society schon 1951 festgestellt, die 1896 vom schwedischen Chemiker Swante Arrhenius (als Erklärung für die Eiszeiten!) formulierte Hypothese eines steuernden Einflusses von CO2 auf die Durchschnittstemperatur der Erde könne ad acta gelegt werden.

An diesem Wissensstand hat sich seither nicht viel geändert. Um die CO2-Treibhaus-Hypothese zu retten, brachte der US-Ozeanograf Roger Revelle, der später zum Mentor des Öko-Kreuzzüglers Al Gore wurde, die Hypothese einer Verstärkung der geringen Wirkung von CO2 durch den Wasserdampf in die Diskussion. Auf dieser „positiven Rückkoppelung“ beruhen heute alle numerischen Simulationsmodelle, mit deren Hilfe Großrechner die Entwicklung der Klimaentwicklung in den nächsten hundert Jahren simulieren sollen. Bei diesen Modellen handelt es sich also in Wirklichkeit um Wasserdampfmodelle, was dem Publikum der Massenmedien meist nicht bekannt ist. Da Wasserdampf aber auch im Gegenteil (vor allem über die Kondensation zu Wolken) eine negative Rückkoppelung bewirken kann, ist diese Einseitigkeit kaum nachvollziehbar. Sie beruht, wie leicht demonstriert werden kann, auf einer mehr oder weniger bewussten politisch-religiösen Vorentscheidung: Nur Modellierer, die dem Zeitgeist folgend, von vornherein davon überzeugt sind, dass die Menschen die Hauptschuld am Klimawandel tragen, werden nichts dabei finden, die mögliche kühlende Wirkung des Wasserdampfes zu vernachlässigen, wenn nicht zu unterschlagen.

Ein weiteres grundsätzliches Manko der „Klimamodelle“, die den IPCC-Berichten zugrunde liegen, ist die nahezu vollständige Verdrängung des realen Wettergeschehens durch die Betrachtung von Korrelationen zwischen Mittelwerten von Wetterdaten und anderen Konstrukten. Aber wie aussagekräftig sind Mittelwerte aus Messdaten, die in Wetterstationen aufgezeichnet werden, die z. T. einige Tausend Kilometer voneinander entfernt liegen? Die Antwort liegt auf der Hand. Tatsächlich verbergen sich hinter dem errechneten (nicht gemessenen!) durchschnittlichen Temperaturanstieg der vergangenen 100 Jahre gegenläufige Entwicklungen, die vermutlich nicht auf eine einzige Ursache, den CO2-Anstieg, zurück geführt werden können. So ist die globale Durchschnittstemperatur der Erde zwischen 1940 und 1975, trotz einer in dieser Zeit weiter gehenden CO2-Zunahme, wieder gesunken und erst in den letzten Jahrzehnten wieder angestiegen.

Dabei gab es auffällige regionale Unterschiede. Die Südhalbkugel ist daran überhaupt nicht beteiligt. Und auf der Nordhalbkugel gibt es vor allem in Polnähe extrem gegenläufige Tendenzen. Das wurde erst in den 90er Jahren bekannt, weil Amerikaner und Russen die Temperatur- und Niederschlags-Messwerte der Arktis während des Kalten Krieges aus militärischen Gründen geheim hielten. So wissen wir erst seit wenigen Jahren, dass die Luft in der Nachkriegszeit nördlich von Norwegen und Alaska in mittlerer Höhe über dem Meeresspiegel im Schnitt deutlich wärmer geworden ist. Damit hängt offenbar die z. T. spektakuläre Schrumpfung des Packeises in diesen Gebieten zusammen. Das Arctic Council (ACIA), eine Art Untergliederung des IPCC, hat daraus im Jahre 2004 geschlossen, bis zum Ende des Jahrhunderts werde die Arktis im Sommer vollkommen eisfrei sein. Doch diese primitive Hochrechnung ist unbegründet, weil größere Teile der Arktis (insbesondere über Ostsibirien sowie Ostkanada und Nord-Grönland) im gleichen Zeitraum in Bodennähe deutlich kälter geworden sind. Im Großen und Ganzen hat sich die Arktis seit 1950 stetig abgekühlt. Das mussten vor kurzem zwei tapfere Frauen (Ann Bancroft und Liv Arnesen) zur Kenntnis nehmen, die in der Absicht, die Welt vor der globalen Erwärmung zu warnen, mitten im Winter zu einer Nordpol-Expedition aufgebrochen waren. Sie mussten ihr Unterfangen aber abbrechen, weil bei Temperaturen von bis zu minus 100 Grad Fahrenheit (-73°C) die Batterien ihres Equipment den Geist aufgaben.

Von den über dem größten Teil der Arktis liegenden Kaltluft-Seen lösen sich, wie Aufnahmen von Wettersatelliten seit dem Ende der 70er Jahre zeigen, in den letzten Jahrzehnten immer häufiger flache Kaltluftlinsen mit hohem Druck. Diese ziehen auf charakteristischen Bahnen Richtung Süden, weil sie Gebirgszüge von über 1000 Metern Höhe nicht überqueren können. Das bekommen vor allem die Nordamerikaner zu spüren, die auch in diesem Winter bis ins Frühjahr hinein wieder von einer Kältewelle nach der anderen heimgesucht wurden. Zur gleichen Zeit konnten sich die Westeuropäer über deutlich sinkende Heizkosten freuen, mussten dafür aber größtenteils Schmuddelwetter in Kauf nehmen, das von häufigen feucht-milden Südwestwinden herangetragen wurde. Bei diesen Winden, die entlang der norwegischen Berge bis in die Arktis vorstoßen können, handelt es sich, wie Satelliten-Aufnahmen zeigen, eindeutig um Warmluft, die durch die auf der Ostseite des Atlantik gen Süden ziehenden Kältehochs verdrängt wurde. Das Gleiche spielt sich über dem Pazifik ab. Die dort von sibirischen und mongolischen Kältehochs verdrängte Warmluft strömt auf amerikanischer Seite entlang der Rockies nach Alaska.

Das alles kann man, wie angedeutet, auf den immer besser aufgelösten und präzise datierten Satellitenaufnahmen anhand charakteristischer Wolkenbilder beinahe lückenlos verfolgen. Leider sieht man diese schönen (und obendrein kostenlos verfügbaren) Bilder in unseren TV- und Printmedien immer seltener. Warum wohl? Die öffentlich-rechtlichen Fernsehkanäle zeigen ihrem Publikum stattdessen Isobaren-Karten, mit denen Laien kaum etwas anzufangen wissen. Die meisten Tageszeitungen sind nicht viel besser. Die FAZ zeigt immerhin noch in Tiefblau die wandernden Kaltluftmassen. Die einzige mir bekannte deutschsprachige Tageszeitung, die ihre Wetterseite bis vor kurzem jeden Tag mit einen aussagekräftigen Satellitenfoto aufmachte, ist die NZZ. Dort wurden diese aber meist mit eigenartigen Kommentaren versehen. Oft fand sich darin kein Hinweis auf durchaus nicht unauffällige Kältehochs, die von der Grönlandsee herunter ziehen. Stattdessen stehen Tiefdruckwirbel im Vordergrund, die sich mithilfe der Erdrotation bilden, wenn Warmluft der anrückenden Kaltluft durch Aufsteigen ausweicht. Die Wetterfrösche erwecken den Eindruck, nicht die von der Arktis Richtung Äquator ziehenden Hochs, sondern Tiefs seien die Motoren der atmosphärischen Zirkulation.

Nach Ansicht des inzwischen leider zu früh verstorbenen französischen Meteorologen und Klimatologen Marcel Leroux ist diese Fehlinterpretation die Folge des sturen Festhaltens der staatlichen Wetterdienste an Theorien der atmosphärischen Zirkulation aus der ersten Hälfte des vorigen Jahrhunderts. Danach befindet sich der Motor der globalen Wettermaschine im Tropengürtel der Erde, d.h. in einem Tiefdruckband, auch meteorologischer Äquator genannt, das sich infolge des Aufsteigens feucht-warmer Luftmassen bildet. Die aufgestiegene Luft regnet und kühlt sich in Tropengewittern ab und sinkt in den so genannten Rossbreiten, abgelenkt durch die Erdrotation, als trockener Fallwind (Passat) wieder zu Boden. Diese Dynamik soll auch das Wettergeschehen in der gemäßigten Westwindzone stark prägen.

Marcel Leroux konnte schon in seiner Habilitationsschrift („Thèse d’état“) zeigen, dass diese Vorstellung nicht haltbar ist. Als Sohn eines bretonischen Marineoffiziers in Nordafrika aufgewachsen, absolvierte er seinen gesamten wissenschaftlichen Werdegang im tropischen Afrika. Für seine „Thèse d’état“ reiste Leroux ein Jahrzehnt lang kreuz und quer durch den schwarzen Kontinent, um alle verfügbaren historischen Wetterdaten (meist von Kolonialverwaltungen) zusammenzutragen und auszuwerten. Das Ergebnis war ein zweibändiger Klima-Atlas des tropischen Afrika, der 1983 von der WMO in Genf publiziert wurde und, da 2001 auf Englisch neu aufgelegt und um eine CD ROM ergänzt, noch heute als alternativloses Standardwerk gilt. Bei der Datenauswertung fiel Leroux auf, dass der meteorologische Äquator keine stabile Lage hat. Vielmehr wird er relativ oft von starken, je nach Jahreszeit von der Arktis oder der Antarktis heranrückenden Hochdruckgebieten nach Süden oder Norden verschoben. Leroux deutet u. a. die Trockenheit der Sahel-Zone als Folge einer solchen Verschiebung. Der Tropengürtel spielt nach diesem Befund also eher eine passive als eine aktive Rolle in der globalen Luftzirkulation.

Als Professor an der Universität Jean Moulin in Lyon konnte Leroux später durch die Auswertung einer Vielzahl von Satellitenfotos zeigen, dass die Motoren der Wettermaschine tatsächlich an den Polen und nicht am Äquator zu finden sind. Er konnte anhand dieser Bilder und durch den Vergleich von Wetterdaten zeigen, dass sich die (diskontinuierliche) atmosphärische Zirkulation auf der Nordhalbkugel seit den 70er Jahren deutlich beschleunigt hat. Das Wetter wechselt häufiger als früher, weil sich ein Hoch nach dem andern, immer begleitet von Tiefdruckwirbeln, nach Süden bewegt. Mitunter kommt es aber doch zu sehr stabilen Wetterlagen, wenn sich etliche kleinere Hochs zu einem Riesenhoch zusammenballen. Auf diese Weise entsteht das bekannte „Azorenhoch“ über dem Atlantik. Es handelt sich dabei aber nicht um eine autonome Wesenheit, sondern um eine statistische Größe, die nur die hohe Wahrscheinlichkeit anzeigt, mit der sich von der Labradorsee oder vom Europäischen Nordmeer herunter ziehende Kältehochs (Leroux und seine Schüler nennen sie „Mobile Polar Highs“, MPH) in diesem Gebiet vereinigen. Das gleiche gilt für die Bezeichnung „Island-Tief“, die nur andeutet, dass die vom Vordringen der MPH erzeugten Tiefdruckwirbel oft dorthin ziehen.

In den letzten Jahrzehnten sind nach Leroux’ Statistik die MPH nicht nur häufiger geworden. Gleichzeitig stieg auch ihr durchschnittlicher Druck. Und sie drangen immer weiter nach Süden vor, während die sie begleitenden Tiefdruckwirbel immer weiter nach Norden gelangten. Über die Tiefdruckrinne am Vorderrand der Hochs kann so warme Luft nicht nur aus den Subtropen, sondern sogar aus den Tropen bis in die Arktis gelangen. Auf der Südhemisphäre ist übrigens Ähnliches zu beobachten. Dort wird Warmluft von der Andenkette direkt auf die antarktische Halbinsel gelenkt. Dort schmilzt das Eis, während sich der antarktische Kontinent, im Ganzen genommen, weiter abkühlt. An der (geringen) Veränderung der Durchschnittstemperatur lässt sich diese Dynamik überhaupt nicht ablesen.

Die gelegentlichen Hitzewellen, die in den letzten Jahren in Westeuropa auftraten, wurden übrigens immer von Kaltlufteinbrüchen verursacht. Mehrere MPH stauten sich an der Alpenbarriere und ihre Luftmassen heizten sich dann infolge der starken sommerlichen Sonneneinstrahlung an Ort und Stelle auf. Das kann man gut in diesem sonnigen Frühjahr beobachten: Immer sind es Kaltlufteinbrüche, die bei uns für schönes Wetter sorgen. Häufigere Kaltlufteinbrüche könnten auch erklären, warum die durchschnittliche Oberflächentemperatur der Ozeane in den letzten Jahren nicht gestiegen, sondern nach Lyman und Mitarbeitern wahrscheinlich sogar leicht gesunken ist. Die Bestätigung dieses Trends steht freilich noch aus.

Leroux ist deshalb der Meinung, hinter der in einem Teil der Welt registrierten Erwärmung verberge sich in Wirklichkeit ein Abkühlungsprozess. Die beschriebene Beschleunigung der atmosphärischen Zirkulation sei ein Vorzeichen des langsamen Heranrückens der nächsten Eiszeit. Denn Geologen wissen, dass die globale Wettermaschine in der jüngeren Erdgeschichte zwischen zwei Gangarten, einer schnellen und einer langsamen, hin und her gependelt ist. Dabei blieben die langsamen, mit einer Erwärmung verbundenen Phasen eher Ausnahmesituationen. Die mit einer Abkühlung verbundenen schnellen Phasen währten etwa zehnmal länger.

Es kann ausgeschlossen werden, dass der CO2-Gehalt der Luft für dieses Auf und Ab direkt oder indirekt verantwortlich ist. Analysen von Eisbohrkernen von der Antarktis zeigen eindeutig, dass der CO2-Anstieg Erwärmungsphasen immer mit einer Zeitverzögerung von 800 bis 1000 Jahren folgte, also keineswegs als Ursache der Erwärmung in Frage kommt. Dieses Nachhinken des CO2-Anstiegs gegenüber dem Temperaturanstieg ist auch in der neueren Zeit beobachtbar. So wissen wir seit kurzem durch die Auswertung alter, aber verlässlicher CO2-Messungen mithilfe klassischer chemischer Analysemethoden durch den Freiburger Biologen Ernst Georg Beck dass dem Hitzejahr 1940 zwei Jahre später eine CO2-Spitzenkonzentration von 420ppm folgte. Heute versucht das IPCC den Menschen einzureden, die aktuelle CO2-Konzentration von 380 ppm sei bereits bedenklich.

Aus alledem lässt sich nur schließen: Kohlendioxid aus natürlichen Quellen und von Menschen gesteuerten Verbrennungsprozessen kann nicht Ursache des Klimawandels sein. Das heißt nicht, die Menschen hätten überhaupt keinen Einfluss auf ihr (regionales) Klima. Tatsächlich haben sie dieses seit grauen Vorzeiten tief greifend verändert, und zwar vor allem durch die Rodung von Wäldern, die Schaffung von Acker- und Weideland sowie nicht zuletzt durch die Anlage von städtischen Siedlungen und Stauseen.

Viel besser lässt sich der Wechsel von Kalt- und Warmzeiten nach Ansicht namhafter Astronomen mit natürlichen Variationen der Sonneneinstrahlung und des Magnetfeldes erklären, wobei jedoch berücksichtigt werden muss, dass sich hier astronomische und terrestrische Zyklen sehr unterschiedlicher Länge und Größenordnung (wie die Exzentrizität des Erdumlaufs um die Sonne, die Neigung der Erdachse, kürzere und längere Schwankungen der Sonnenaktivität sowie kosmische Einflüsse) in komplizierter Weise überlagern. Unter Umständen können Zyklen gegenläufige Einflüsse ausüben. Deshalb ist gegenüber Prognosen, die nur einen bekannten Zyklus berücksichtigen, Vorsicht geboten.

So deutet zur Zeit Vieles darauf hin, dass wir die Häufung warmer Sommer seit den 90er Jahren zum beträchtlichen Teil einer außerordentlichen Verstärkung des Magnetfeldes der Sonne im Laufe des 20. Jahrhunderts verdanken. Nach einer inzwischen schon halbwegs bestätigten Hypothese der dänischen Atmosphärenphysiker Henrik Svensmark und Eigil Friis-Christensen wird dadurch die Erde vor kosmischen Partikeln geschützt, die beim Eindringen in die Atmosphäre als Kondensationskeime für die Wolkenbildung wirken könnten. Gibt es weniger Wolken, steigen die sommerlichen Temperaturen. Umgekehrt kann es aber auch in den langen Winternächten bitter kalt werden. Da der hyperaktive Sonnenzyklus nun vorüber ist, erwartet der bekannte russische Astronom und Mathematiker Habibullo Abdusamatow (St. Petersburg) eine schon im nächsten Jahrzehnt beginnende Abkühlungsphase, eine „Kleine Eiszeit“, die um die Mitte des Jahrhunderts ihren Tiefpunkt erreichen soll. Aber auch die nächste „Große Eiszeit“ rückt näher, denn die Geologen sind sich im Prinzip einig, dass der Höhepunkt der gegenwärtigen Warmzeit längst überschritten ist. Welche Ursachen aber im Einzelnen hinter der beobachtbaren Beschleunigung der Luftzirkulation stehen, weiß noch niemand. Deshalb würde ich zur Zeit noch nicht wetten, dass es auf der Erde schon in zehn Jahren spürbar kühler sein wird.

Literatur

Ernst Georg Beck: 180 Years of Accurate CO2-Gas-Analysis of Air by Chemical Methods (Short Version), in: Energy & Environment Volume 18 No. 2/2007

Heinz Hug: Die Angsttrompeter. Die Wahrheit über die Gefahren aus der Umwelt. Signum Verlag (F.A. Herbig), München 2006. ISBN 3-7766-8013-X. 360 Seiten.

Marcel Leroux: Global Warming. Myth or Reality? The Erring Ways of Climatology. Springer-Praxis, Berlin-Heidelberg-New York 2005. ISBN 3-540-23909-X. 509 Seiten.

Marcel Leroux: Les échanges méridiens commandent les changements climatiques. Vortrag in der Académie des Sciences, Paris, 5. März 2007

John M. Lyman/Josh K. Willis/Gregory C. Johnson: Recent Cooling of the Upper Ocean, in: Geophysical Research Letters, Vol. 33, L 18604, doi: 10.1029/2006GL027033, 2006

Henrik Svensmark/Jens Olaf Pepke Pedersen/Nigel Marsh/Martin Enghoff/Ulrik Uggerhoj: Experimental Evidence for the Role of Ions in Particle Nucleation under Atmospheric Conditions, in: Proceedings of the Royal Society A, 2006, October 3rd

*) veröffentlicht 2007 in „eigentümlich frei“ (Lichtschlag-Medien, Grevenbroich)

Für ein menschliches Klima

Das von mir sehr geschätzte Frankfurter Magazin „NOVO Argumente“ stellt im Internet ein alternatives Kopenhagen-Manifest zur Diskussion. Die Menschen erscheinen darin nicht wie in der grünen Ideologie als Schädlinge, sondern als Mitschöpfer einer humanisierten Erde. Die Energiegewinnung aus Uran, Kohle, Rohöl und Erdgas sei kein Problem, sondern Teil der Lösung. Das gelte auch für das Bevölkerungs- und Wirtschaftswachstum.

Das alternative Kopenhagen Manifest

1. Der „ökologische Fußabdruck“ der Menschen wächst zu Recht!

Von der Schöpfungslehre bis hin zur Aufklärung sah sich die Menschheit als Herrscher über den Planeten. Wir Menschen „herrschen über die Fische im Meer und über die Vögel unter dem Himmel und über das Vieh und über alle Tiere des Feldes und über alles Gewürm, das auf Erden kriecht“, heißt es in der Bibel. „Lasst uns die Natur auf den Seziertisch legen und ihre Geheimnisse erforschen!“, sagten die großen Denker der Aufklärungszeit. Heute jedoch reden Menschen über sich selbst als bösartige Wesen oder „ernste planetarische Krankheit“, wie es ein führender Vertreter der Grünen formuliert hat. All unsere Errungenschaften – seien es Industrie, Städte, moderne Landwirtschaft oder Hochhäuser – werden als schädlicher „ökologischer Fußabdruck“ verunglimpft. Den will die Umweltschutzbewegung reduzieren, denn sie betrachtet die Menschen als destruktive Spezies. Die jahrhundertlange Arbeit am Fortschritt wird dargestellt als gigantische Dummheit, der heute schleunigst Einhalt zu gebieten sei. Hier muss Einspruch erhoben werden! Wir haben die Erde nicht vergiftet, wir haben sie humanisiert. Und unser „Fußabdruck“ ist ein fünftausendjähriges Projekt zur Beherrschung der Naturgewalten und Gestaltung unserer Umwelt, das weiter voranschreiten muss.

2. Kohlenstoff-Rechner gehören abgeschaltet!

Jede menschliche Aktivität wird heute daran bemessen, wie viel CO2 sie freisetzt. Fliegen, Arbeiten, Essen und selbst Kinderkriegen wird in Tonnen CO2 aufgerechnet. Ein Neugeborenes produziere jährlich zehn Tonnen CO2, bekommen wir zu hören. Neue Kühlschränke in China zerstörten das Klima, wird gesagt. Doch das menschliche Dasein lässt sich nicht auf die Anzahl der Schadstoffe reduzieren, die es angeblich produziert. CO2-Kalkulationen haben das Urteil Gottes ersetzt. Doch während die Anhänger Gottes wenigstens zwischen guten und bösen Taten unterscheiden, gilt der moralisierenden, schadstofffixierten Tyrannei der Kohlenstoffkirche jede menschliche Aktivität als potenziell gefährlich. Wir plädieren dafür, umgehend damit aufzuhören, unsere Leben in Tonnen CO2 zu berechnen. Menschliches Handeln ist nach menschlichen Maßstäben zu bewerten. Wir sollten es als gut, kreativ, erfindungsreich, fleißig oder einfach beglückend anerkennen.

3. Wirtschaftswachstum ist gut!

Überfluss zu erzeugen war und ist das überragende Ziel fast jeder menschlichen Gesellschaft: Überfluss an Nahrung, Wohnraum und Waren aller Art. Von der israelitischen Vorstellung eines Landes, „in dem Milch und Honig fließt“, bis hin zu Sozialisten, die davon träumten, mehr Güter zu produzieren, als alle Menschen verbrauchen können, herrschte Einigkeit, dass materieller Wohlstand unser Leben angenehmer und freier macht. Je weniger Zeit wir mit Arbeit verbringen, desto mehr bleibt für intellektuelle Vorlieben, Zwischenmenschliches oder einfach nur Lebensgenuss. Im Öko-Zeitalter jedoch wird Überfluss verteufelt und Genügsamkeit gefeiert. Doch wer entscheidet, was genügt? Wirtschaftswachstum wird als zerstörerisch denunziert und die Sehnsucht nach Wohlstand und Konsum zur Überflusskrankheit „Affluenza“ umdefiniert. Wir sollten darauf bestehen, dass Wirtschaftswachstum im Kern gut und überdies unverzichtbar ist. Es ist die Voraussetzung dafür, dass Menschen keine materielle Not leiden und genügend Freizeit und Freiheit haben, um ihre persönlichen Ziele zu verwirklichen.

4. Entwicklung gelingt nur ohne Nachhaltigkeitsdogma!

Akzeptabel erscheinen in diesen Tagen Wachstum und Entwicklung nur, wenn sie „nachhaltig“ sind. Das klingt nett. Wer möchte sich schon als Gegner der Nachhaltigkeit bekennen? Doch das Dogma der Nachhaltigkeit legt menschliches Handeln in Ketten. Es gestattet nur bescheidene Projekte, die sich sanft in die Umwelt schmiegen. Es lähmt Mut und Tatkraft. Dem Nachhaltigkeitskult folgend darf nur erdacht und gemacht werden, was weder Kräfte verschlingt noch entfesselt. Große Sprünge sind tabu. Innovationen im klassischen Sinn kann es aus dieser Perspektive nicht geben. Undenkbar erscheint es da, Altes zu überwinden, um wirklich Neues und Besseres zu schaffen. Die Forderung, sich immer und überall dem Diktat der Nachhaltigkeit zu unterwerfen, verhindert das Überdenken des Hergebrachten, unterbindet Kreativität und Fantasie und richtet sich gegen das Entwerfen und Erschaffen einer neuen Welt. Der Nachhaltigkeitsgedanke wirkt wie eine mentale Zwangsjacke. Von dieser sollten wir uns besser heute als morgen befreien.

5. Bevölkerungswachstum ist besser als Geburtenkontrolle!

Aus fortschrittlicher Perspektive sind Arbeitslosigkeit, Armut und Hunger soziale Probleme, die wir durch gemeinsame Anstrengungen überwinden können. Heute scheint stattdessen Konsens zu sein, dass es sich hier um natur- oder demografiebedingte Probleme handelt, die dadurch zu lösen seien, dass wir dem Menschen von Mutter Natur vorgegebene Grenzen respektieren. Dies wird nirgendwo so klar wie beim ökologistisch inspirierten Neo-Malthusianismus, der meint, unser Planet sei von zu vielen hungrigen Mäulern bevölkert. Dass wir die Welt noch nicht so eingerichtet haben, dass sie den Bedürfnissen der Menschen gerecht wird (also als Welt im Überfluss), wird umgedeutet als Versagen der Einzelnen, ihren Fortpflanzungstrieb, ihre Konsumwünsche und ihren Ressourcenverbrauch zu drosseln. Als mangelnder Fortschritt noch als Ursache sozialer Missstände galt, konnten kollektive politische, technische und wirtschaftliche Lösungen in Angriff genommen werden. Heute, wo Missstände als Folge der Überschreitung naturgegebener Grenzen definiert werden, erscheint als einzig vorstellbare Lösung die Beschränkung des menschlichen Aktionsradius. Bevölkerungswachstum ist kein Problem. Der Mangel an sozialer Vorstellungskraft ist das Problem.

6. Freier Austausch statt Dämonisierung der „Leugner“!

Eine ernsthafte Debatte über die Menschheit und ihre Zukunft wird permanent behindert. Wer heute die gängigen Thesen zum Klimawandel infrage stellt oder an anderer Stelle der grünen Weltsicht widerspricht, wird auf eine Stufe mit Kreationisten oder Hohlwelttheoretikern gestellt. Manche bezeichnen die „Leugnung des Klimawandels“ sogar als psychische Störung und behaupten, solche „bösen Worte“ würden buchstäblich zu Tod und Zerstörung führen. Zensurfreunde haben ihre Gegner schon immer als nicht nur fehlgeleitet, sondern auch moralisch verwerflich und Bedrohung für den sozialen Frieden dargestellt. Das Konzept der „Leugnung“ impliziert, dass es eine etablierte Wahrheit gibt, die man zu akzeptieren hat und die infrage zu stellen nur krankhaften Exzentrikern in den Sinn kommen könnte. Wir sollten das Recht auf Widerspruch verteidigen. Nicht, weil „Klimaskeptiker“ permanent Interessantes zu sagen hätten, sondern weil Durchbrüche in der Geschichte der Menschheit immer auf der Bereitschaft beruhten, unangenehme und provokante Fragen zu stellen – gerade in Bezug auf vermeintliche Wahrheiten.

7. Nord-Süd-Partnerschaften ohne Öko-Protektionismus!

Einst sangen selbst Marxisten Loblieder auf die kapitalistische Tendenz, Produktion und Handel zu internationalisieren. Die rasante Entwicklung von Produktion, Transport und Kommunikation auf dem Planeten hätte viele Gesellschaften in die Zivilisation geführt, schrieben Marx und Engels im Jahre 1848. Heute hingegen gilt es als vorbildlich, beispielsweise nur Lebensmittel zu kaufen, die im Umkreis von wenigen Kilometern produziert worden sind. Grüne Lobbygruppen verbreiten pseudowissenschaftliche Märchen über die besondere Qualität regionaler Kost, um den (oft auch nur vermeintlich) CO2-intensiveren Import ausländischer Nahrungsmittel zu verhindern. Ökologistische Schwarzmaler haben sogar den Begriff „Liebesmeilen“ erfunden, um die Einfuhr kenianischer Blumen zum Valentinstag einzudämmen. Dieser Protektionismus im grünen Gewand verweigert Menschen in Entwicklungsregionen Zugang zu Arbeit und Einkommen. Wir brauchen mehr sinnvolle und wirklich faire Verbindungen zwischen Nord und Süd.

8. Energie ist die Lösung, nicht das Problem!

Ob man Braukohle mit dem Schaufelradbagger abbaut oder Uran aus Pechblende extrahiert, immer erntet das heute auch Argwohn. Natürliche Ressourcen werden als endlich wahrgenommen und ihr Verbrauch als unabdingbar mit der Zerstörung das Planeten verbunden. Doch das Schreckgespenst der Ressourcenknappheit basiert nicht auf wissenschaftlichen Fakten. Es entspringt vielmehr der Überzeugung, dass wir natürliche Ressourcen ohnehin am besten gar nicht für menschliche Zwecke nutzen sollten. Selbst der Wasserverbrauch auf unserem blauen Planeten wird heute problematisiert. Grüne NGOs berechnen munter „Wasserfußabdrücke“ und fordern einen „wasserneutralen“ Lebensstil. Das zeugt von der neuen Sicht auf den Menschen als Zerstörer statt als Schöpfer. Die Erde wird zum Ressourcengroßmarkt umdefiniert, und die uns gebührende Rolle scheint darin zu bestehen, auf Zehenspitzen umherzuschleichen und wirklich nur zu nehmen, was wir unbedingt brauchen. Doch Energieerzeugung, nicht Rationierung ist die Lösung. Billige Energie ist ein großer Fortschrittsmotor. Jede Art der Energiegewinnung kann erforscht werden – auch Wind- und Wellenkraft –, solange wir die Prämisse akzeptieren, dass der Energieverbrauch zunehmen muss, um die Bedürfnisse der Menschheit befriedigen zu können.

9. Demokratiedefizite offen und ehrlich angehen!

Unsere Staatsoberhäupter reisten im Dezember nach Kopenhagen, um bei dieser „historischen Veranstaltung“ Handlungsfähigkeit und Entschlossenheit zu demonstrieren – Attribute, die man in der Tagespolitik schmerzlich vermisst. Mangels glaubwürdiger Visionen für ein besseres Leben übten Politiker sich angesichts des erwarteten Klimawandels als Prediger der Sparsamkeit und des Verzichts. Bürger wurden dafür kritisiert, es an Konsequenz beim Klimaschutz mangeln zu lassen. Große Teile der Gesellschaft betrachteten die Veranstaltung in Kopenhagen hingegen als reine Zeit- und Geldverschwendung. Viele brachten in unzähligen Umfragen ihre Meinung zum Ausdruck, dass der Klimawandel in ihren Augen nicht unser größtes Problem ist. Wenn Kopenhagen etwas brachte, dann die Gewissheit, dass sich Demokratiedefizite und eklatante Wahrnehmungsdifferenzen zwischen den politischen Führungen und den Bürgern nicht durch pseudo-historische „Events“ überwinden lassen. Wir brauchen dringend mehr Offenheit und Ehrlichkeit bei der Diskussion um unsere Zukunft – und mehr kontroverse Debatten, die unseren Horizont erweitern.

10. Menschen sind wichtiger als Tiere!

Früher gingen die Menschen davon aus, dass ein weißhaariger Gott vom Himmel herab über sie wache. Heute glauben viele, wir müssten uns an weißpelzigen Polarbären orientieren. Der Eisbär ist nicht erst seit Knut zur Metapher für menschliche Destruktivität geworden. Unser Handeln wird daran gemessen, ob es die Eisschollen durcheinander bringt, auf denen die Tiere leben. Rückwärtsgewandte Naturromantik und Abscheu gegenüber Eingriffen in die Umwelt führen zu immer stärkerer Kontrolle unserer Aktivität und zur Verengung unserer persönlichen und kollektiven Horizonte. Gebetsmühlenartig beschwört man das Bild von menschlicher Konsumgier und Ressourcennutzung bedrohter Arten und festigt so eine Kultur der Geringschätzung der Menschen. Wir brauchen stattdessen eine Moral und Werte, die den Menschen und seine freie Entfaltung in den Mittelpunkt stellen. Legen wir die Leitbilder der professionellen Miesmacher, die sich hinter Eisbären verstecken, auf Eis! (5. März 2010)

Bitte diskutieren Sie hier mit!

============================================================================================

Wer verstehen möchte, was in Kopenhagen auf dem Spiel stand, der sollte sich den Vortrag von Lord Monckton auf der unten angekündigten 2. Intermationalen Berliner Klima-Konferenz zu Gemüte führen. Dieser ist inzwischen auf CFACT.TV verfügbar. Wer danach noch glaubt, „Climategate“ beweise nicht, dass es sich bei der These von der menschlichen Schuld am Klimawandel um eine bewusst organisierte Lüge handelt, dem ist nicht mehr zu helfen.

———————————————————————————————————————-

Klima-Kreuzzug stößt auf Widerstand von Edgar L. Gärtner

China wird zum wichtigsten Bündnispartner im Kampf gegen eine selbstmörderische Politik

Etwa zwei Wochen nach seiner Aufdeckung ist „Klima-Gate“ nicht nur bei Wikipedia, sondern auch auf der Titelseite der „Frankfurter Allgemeine“ vom 4. Dezember angekommen. Wichtiger als die nachträgliche Bekanntmachung eines in der Blogosphäre und in der angelsächsischen Presse längst ausgemachten Wissenschaftsskandals durch ein etabliertes deutsches Printmedium ist aber ein Artikel, den das Blatt im Feuilleton der gleichen Ausgabe unter dem Titel „Der neue Weltmoralapostel“ bringt. Der Autor Mark Siemons berichtet dort vom Peking-Gipfel der Entwicklungsländer Ende November und zitiert einen wenige Tage zuvor im Konkurrenzblatt „Die Welt“ erschienen Beitrag von Fiona Kobusingye, Vorsitzende der ugandischen Gruppe für Menschenrechte und wirtschaftliche Entwicklung CORE. Darin geißelt die Autorin den Versuch, den schwarzen Kontinent mithilfe des internationalen CO2-Emissionshandels für den Verzicht auf Entwicklung zu belohnen, mit scharfen Worten. Die Energie-Diät, auf die Klimapolitiker wie Al Gore oder Yvo de Boer, der Chef des UN-Klimasekretariats, die Menschheit setzen wollen, sei in Afrika längst verwirklicht. Sie bedeute in der Praxis Hunger, Krankheit und Tod. Kobusingye schreibt: „Den Menschen in Afrika zu erzählen, sie können keinen Strom und keine wirtschaftliche Entwicklung haben – außer dem bisschen, was einige kleine Windturbinen oder Solarzellen produzieren – das ist unmoralisch. Es ist ein Verbrechen gegen die Menschlichkeit. Inzwischen bauen China und Indien jede Woche neue Kohle-Kraftwerke, und bringen damit ihre Leute aus der Armut heraus. Daher: selbst wenn Afrika verarmt bleibt – und wenn die USA und Europa die Atomkraft durch Windmühlen ersetzen – die globalen Kohlendioxid-Werte würden jahrzehntelang weiter steigen. (…) Wir brauchen den Handel, Produktion, Strom und Treibstoffe, um moderne Industriegesellschaften aufzubauen. Wir müssen tun, was China und Indien tun – uns entwickeln – und mehr Handel mit ihnen treiben.“

Wie FAZ-Redakteur Mark Siemons richtig bemerkt, kommt dem Bezug auf China strategische Bedeutung zu. Die Volksrepublik China dient trotz ihres nicht gerade sanften Vorgehens bei der Erschließung und Ausbeutung von Rohstofflagerstätten in Afrika gerade auch bei den ärmsten afrikanischen Ländern mehr und mehr als Vorbild für eine nachholende wirtschaftliche Entwicklung, die sich nicht am dekadenten und letztlich selbstmörderischen Leitbild der „Nachhaltigkeit“ orientiert, sondern die Befriedigung der Grundbedürfnisse der Armen in den Mittelpunkt stellt. Die „Klimapolitik“ erscheint immer mehr Afrikanern als Kreuzzug im Namen des Todes, während die chinesische Politik trotz aller Grobheiten die Hoffnung auf ein besseres Leben verkörpert. Die aktuelle Politik der chinesischen Führung unter Ministerpräsident Wen Jiabao erscheint ihnen umso attraktiver, als diese angesichts der noch längst nicht ausgestandenen internationalen Währungskrise diskret, aber nachdrücklich an der Entwicklung einer vom US-Dollar entkoppelten neuen Leitwährung auf der Basis eines Rohstoff-Index arbeitet. Kein Wunder, dass neben China auch Indien, Brasilien und Südafrika angekündigt haben, in Kopenhagen keinem Abkommen zuzustimmen, das auf eine Halbierung der weltweiten CO2-Emissionen bis zum Jahre 2050 abzielt. (4. Dezember 2009)

Internet:

FAZ: Klima-Gate

Mark Siemons: Der neue Weltmoralapostel

Fiona Kombusingye: Africa’s real Climate Crisis

Dieselbe: Was soll die Klimadebatte – Afrika verhungert

Das nahende Ende einer Parenthese der Geschichte?

============================================================================================

Vor dem Kopenhagener „Klima-Gipfel“:

Der Kampf gegen die Öko-Diktatur ist noch nicht gewonnen

Von Edgar L. Gärtner

Die Veröffentlichung des offiziellen „Climate Science Statement“ durch führende britische Wissenschaftsorganisationen und das Votum der 53 Commonwealth-Länder für einen bindenden Vertrag über den „Klimaschutz“ durch CO2-Reduktion (Kohlenstoff-Kommunismus) zeigt, dass die Aufdeckung der Manipulation wichtiger Klimadaten durch internationale Seilschaften bei den Mächtigen wenig Eindruck macht. Dass der Zug in Richtung auf eine lebensfeindliche, aber staatstragende Besteuerung des Heizens, Reisens und Atmens, die sich als CO2-Marktwirtschaft tarnt, stur weiterrollt, gilt bei EU-Ratspräsident José Manuel Barroso, beim britischen Außenminister David Milliband und bei Klima-Kanzlerin Angela Merkel bereits als beschlossene Sache. Die auch in Deutschland erhobene Forderung, die in den Climategate-Skandal verwickelten Forscher Michael Mann, Phil Jones und Stefan Rahmstorf sollten vom „Weltklimarat“ IPCC ausgeschlossen, wenn nicht gar vor Gericht gestellt werden, liefen bislang ins Leere.

Es gibt sogar den Verdacht, die kompromittierenden Dateien seien nicht von einem ethisch motivierten Wistleblower ins Web gestellt worden, sondern auf Geheiß der mächtigen „Klimaschutz“-Lobby, um die „Skeptiker“ zu beschäftigen und die Teilnehmer des Kopenhagen-Gipfel zur Eile anzutreiben, damit sie die letzte Chance für die Verabschiedung eines Post-Kyoto-Vertrages und damit für den Start eines internationalen CO2-Handelssystems nicht verstreichen lassen. Schon bei der Konstituierung des „Weltklimarates“ IPCC im Jahre 1988 ging es primär um die Einführung einer CO2-Steuer. Die Idee dafür kam ursprünglich vom sowjetischen „Dissidenten“ Andrej Sacharow. Sie wurde dann unter Premierminister Ingvar Carlsson noch vor der Gründung des IPCC in Schweden aufgegriffen. Es ging der schwedischen Regierung vor allem darum, die damals abschreckend hohen Einkommenssteuern durch eine breitere Finanzierung des Staatshaushaltes abzulösen. Carlssons Berater Bert Bolin wurde erster Vorsitzender des IPCC. Da es sich aber zeigte, dass die Einführung einer solchen Steuer auf buchstäblich alles überall auf Widerstand stieß, kamen Ökonomen auf die Idee, die Steuer als CO2-Emissionshandel zu verpacken.

Man fragt sich, warum selbst liberale Ökonomen vom Emissionshandel fasziniert sind. Denn dieser hat mit freier Marktwirtschaft überhaupt nichts zu tun. Er ist eine zentralistische Form der Luftbewirtschaftung (Rationierung) auf der Basis simulierter Eigentumsrechte (Zertifikate). Zu diesem Zweck muss das ehedem „freie“ Gut Luft auf der Basis scheinbar objektiv wissenschaftlicher Annahmen über Obergrenzen menschlicher CO2-Emissionen in die Atmosphäre künstlich verknappt werden. Von diesem Schein der Wissenschaftlichkeit bleibt nach „Climategate“ nichts mehr übrig. Der britische Journalist Christopher Booker spricht vom „schlimmsten Wissenschaftsskandal unserer Generation.“ Der bekannte Klimaforscher Eduardo Zorita, der bislang keineswegs zu den „Skeptikern“ zählte, hat gefordert, Michael Mann, Phil Jones und Stefan Rahmstorf aus dem IPCC-Prozess auszuschließen. Immerhin sah sich Chef-Klimaforscher Phil Jones dadurch veranlasst, sein Amt erst einmal ruhen zu lassen.

Doch das scheint die Verfechter des Emissionshandels nicht zu stören. Die „Frankfurter Allgemeine Sonntagszeitung“ hat am 1. Advent unter dem Titel „Zauberformel gegen den Dreck“ gerade wieder den Emissionshandel in den Himmel gelobt. Skeptische Untertöne und emotionale Distanz wird man in diesem eines seriösen Blattes unwürdigen PR-Text vergeblich suchen. So deutlich hat sich die Frankfurter Zeitung noch selten zum Sprachrohr der Großbanken gemacht. Diese rechnen fest mit einem Durchbruch Kopenhagen, denn sie haben in enger Zusammenarbeit mit nationalen und internationalen Bürokratien längst umfangreiche Vorkehrungen für das Riesengeschäft mit heißer Luft getroffen. Sie wollen sich ihr Geschäft nicht durch ein paar Naivlinge verderben lassen, die noch glauben, es gehe um die Wahrheit. (1. Dezember 2009)

Internet:

Climate Science Statement

Commonwealth-Länder fordern bindenden Klimavertrag

Politischer Klimawandel vor dem Klimagipfel

Eduardo Zorita fordert Ausschluss von Mann, Jones und Rahmstorf

Christopher Booker: Climate Change: this is the worst scientific scandal of our generation

Phil Jones lässt sein Amt ruhen

Zauberformel gegen den Dreck

===================================================================================

Ein sehr nützlicher Tipp für Ihre Vorbereitung auf die Kopenhagen-Konferenz

Schauen Sie sich das nun schon einige Jahre alte, aber noch immer aktuelle 45-minütige Video „Doomsday Called Off“ von Lars Oxfeldt Mortenssen im Internet an und ziehen Sie daraus Ihre politischen Schluissfolgerungen. (21. Oktober 2009)

============================================================================

„Vergesst Kopenhagen!“

Nach den Reden des US-amerikanischen und des chinesischen Präsidenten auf New Yorker Klimakonferenz der UN am 22. September 2009 sieht die „Financial Times Deutschland“ keine Chance mehr, im Dezember auf dem Klima-Gipfel in Kopenhagen zu zu einem internationalen Abkommen zu gelangen, das mehr enthält als leere Symbolik, und plädiert für eine Verschiebung der Konferenz. (23. September 2009)

=======================================================================

Hahn zu ist billiger

Jetzt fällt auch beim Kollegen Joachim Müller-Jung der Groschen. In der FAZ vom 2. September berichtet er höchst ironisch über zwei Arbeiten von Sir Nicholas Stern und Hans-Joachim Schellnhuber. Beide gehen davon aus, dass Deutschland die ihm laut Weltklimarat IPCC zustehende CO2-Quote schon ausgeschöpft haben. Es käme also wesentlich billiger, der Wirtschaft einfach Öl- und Gashähne zuzudrehen, als zu versuchen, das gleiche Ziel über den CO2-Emissionshandel und die Milliarden schwere Förderung „erneuerbarer“ Energien zu erreichen. Merke: Das Nichts (= Nullemission) kann man auch umsonst haben. (2. September 2009)

Bonner Klimakonferenz, wie erwartet, ohne Ergebnis

Außer Spesen nichts gewesen. Wäre dieser Satz nicht so abgedroschen, träfe er inhaltlich exakt auf die Konferenz von fast zweieinhalb Tausend „Experten“ der Signatarstaaten der UN-Klimarahmenkonvention (UNFCCC) zu, die bis zum 14. August im schicken Bonner Hotel „Maritim“ tagte, um den großen „Klima-Gipfel“ vorzubereiten, der Ende des Jahres in Kopenhagen stattfinden wird. Zwar versucht UNFCCC-Generalsekretär Ivo de Boer jetzt noch Druck zu machen, indem er für den Fall des absehbaren Scheiterns des Kopenhagener Gipfels ein globales Desaster an die Wand malt, doch in der Öffentlichkeit nimmt kaum noch jemand Notiz davon. Das heißt nicht, skeptische Beobachter der Klima-Hysterie könnten nun die Hände in den Schoß legen. Denn es wäre weltfremd zu erwarten, die „Klimapolitiker“ und die bereits arbeitende internationale Klima-Bürokratie würden nun offen zugeben, einen falschen Weg eingeschlagen zu haben. Sie werden nun wohl noch zielsicherer auf einen Kompromiss hinarbeiten, der es ihnen erlaubt, das Gesicht zu wahren und die begonnene Abzocke der arbeitenden Menschen im Namen des Schutzes eines nicht definierbaren Weltklimas fortzusetzen. (14. August 2009)

============================================================================

CCS-Eulenspiegelei gestoppt

Der Deutsche Bundestag hat sich vor dem Ende der Legislaturperiode nicht auf ein Gesetz über die Abscheidung und Endlagerung von CO2 aus Kohlekraftwerken (CCS) einigen können. Damit steigen die Chancen, der Eulenspieglei definitiv ein Ende zu bereiten. Denn CCS würde alle bei Kohlekraftwerken in den letzten Jahrzehnten mühsam erreichten Effizienzgewinne wieder zunichte machen und Kohlestrom unerträglich verteuern. Es zeichnet sich immer deutlicher ab, dass vernünftige Lösungen der Energieprobleme nur gefunden werden können, wenn man CO2 schlicht vergisst. (24. Juni 2009)

====================================================================

Bonner Klimakonferenz: Lebenskraft-Rationierer am Verzweifeln. Obamas Unterhändler wissen den Schein zu wahren

Die Bonner Konferenz der Teilnehmerstaaten des UN-Rahmenabkommens über den Klimaschutz (UNFCCC) ist ohne Ergebnis zu Ende gegangen. Die Chancen, auf dem großen UN-Klimagipfel in Kopenhagen noch eine bindende Vereinbarung über eine 25-prozentige Drosselung der Freisetzung des angeblich klimaschädlichen Spurengases Kohlenstoffdioxid in die Atmosphäre bis zum Jahre 2020 zu erreichen, gehen deshalb gegen Null. Ausgerechnet das besonders „klimabewusste“ Industrieland Japan bot eine Drosselung um lediglich acht Prozent an. Andere Länder zeigen sich noch zurückhaltender. Es ist allerdings nicht ausgeschlossen, dass die Unterhändler von US-Präsident Barack Obama doch noch einen Trick finden, um zumindest den Schein zu wahren. Andeutungen in dieser Richtung machte Obama-Berater John Podesta diese Woche auf der Konferenz „The Great Transformation – Climate Change as Cultural Change“ in Essen. Jonathan Pershing, Obamas stellvertretender Chefunterhändler, kündigte am Schluss der Bonner Konferenz den US-Entwurf eines Klimaabkommens an, der das Kyoto-Abkommen von 1997 nicht fortschreiben, sondern durch mehr oder weniger verbindliche Regionen- und Länderspezifische CO2-Reduktionsziele ersetzen würde. Ergebnis wäre eine Art Drei-Klassen-Klimapolitik. Völlig offen blieb in Bonn die Frage der Finanzierung von Treibhausgas-Reduktionsmaßnahmen in armen Ländern.(12. Juni 2009)

=======================================================================

Auch zweites „Major Economies Forum“ (MEF) über Klimaschutz ohne Ergebnis

„Leider sind die Europäische Union und Deutschland immer noch allein auf weiter Flur im internationalen Klimaschutz.“ Das ist das Resümee von Bundesumweltminister Sigmar Gabriel (SPD) nach Abschluss des zweitätigen internationalen Treffens zu Klimaschutz in Paris. Unter dem Namen „Major Economies Forum“ (MEF) hatte US-Präsident Barack Obama nach einem ersten Treffen Ende April zum zweiten Mal die 16 Industrie- und Schwellenländer mit den stärksten Volkswirtschaften und den höchsten „Treibhausgas“-Emissionen eingeladen.

„Das Treffen in Paris zeigt, dass es noch sehr großer Anstrengungen und hoher Verhandlungsbereitschaft auf allen Seiten bedarf, um beim Klimagipfel in Kopenhagen Ende des Jahres zu einer anspruchsvollen Anschlussvereinbarung zum Kyoto-Protokoll zu kommen“, sagte Gabriel. Die Wirtschaft kann sich jetzt also getrost darauf einstellen, dass in Kopenhagen nichts Greifbares beschlossen werden wird.

Internet: „EU und Deutschland im Klimaschutz weiter allein auf weiter Flur“ (26. Mai 2009)

Dazu passt die Meldung, die EU verabschiede sich bereits von strengen „Klimaschutz“-Vorgaben. (29. Mai 2009)

Der französische Staatspräsident Nicolas Sarkozy hatte übrigens vor, den ausgewiesenen Klimaskeptiker Claude Allègre nach den Europawahlen zum Forschungsmininister zu ernennen. Nach dem überraschend guten Abschneiden der französischen Grünen unter Daniel Cohn-Bendit bei den Europawahlen gilt das aber nun wieder als wenig wahrscheinlich. Das Elisée hat am 23. Juni abends vorzeitig eine unerwartet umfangreiche Regierungsumbildung vorgestellt. Wie erwartet, gehört der zeitweise hoch gehandelte Claude Allègre nicht zu den neuen Ministern. (24. Juni 2009)

========================================================================

Hans Mathias Kepplinger gegen einträgliche Panikmache

Lesenswert: Ein Interview mit dem Mainzer Medienforscher Hans Mathias Kepplinger in SPIEGELonline. Er sieht eine Tendenz genereller Übertreibung von Katastrophen-Gefahren in den audio-visuellen Massenmedien. Davon profitieren kostenträchtige öffentliche Einrichtungen und internationale Gremien wie die Weltgesundheitsorganisation WHO oder der Weltklimarat IPCC, die ihre Existenz rechtfertigen müssen. (11. Mai 2009)

===================================================================================

Washingtoner Klima-Gipfel ohne Ergebnis

„Wir haben so lange über CO2-Minderung geredet, dass fürs Thema Geld keine Zeit mehr blieb“, berichtete US-Chefunterhändler Todd Stern über den Verlauf des Treffens von 17 Staaten, die etwa drei Viertel des globalen CO2-Ausstoßes repräsentieren. Im Klartext: Es wurde nur heiße Luft produziert, schreibt Christian Schwägerl in SPIEGELonline. Es wird immer unwahrscheinlicher, dass der Kopenhagener Klima-Gipfel im Dezember dieses Jahres zu mehr als symbolischen Beschlüssen kommt (29. April 2009)

======================================================================

NASA: Die Sonne verhält sich zurzeit völlig unerwartet

Die US-Weltraumbehörde weist darauf hin, dass sich keines der bislang für die Prognose von Sonnenfleckenzyklen verwendeten theoretischen Modelle als nützlich erwiesen hat. Die Sonne macht, was sie will. (30. Mai 2009)

In diesem Jahr noch weniger Sonnenflecken als im Vorjahr

Alle Indikatoren der Sonnenaktivität weisen nach unten. Auf Erden müssen wir uns auf eine Jahrzehnte währende Abkühlung gefasst machen. Dazu die Analyse eines US-Meteorologen sowie ein interessantes Interview mit David Hathaway, einem führenden US-Solarforscher, der zwar an die Vorherrschaft des „Treibhauseffekts“ glaubt, sich aber dennoch Sorgen macht über die Entwicklung der Durchschnittstemperatur auf der Erde. (12. Mai 2009)

================================================================

Daily Telegraph: Kein Meeresspiegel-Anstieg seit 50 Jahren

„if there is one scientist who knows more about sea levels than anyone else in the world it is the Swedish geologist and physicist Nils-Axel Mörner, formerly chairman of the INQUA International Commission on Sea Level Change. And the uncompromising verdict of Dr Mörner, who for 35 years has been using every known scientific method to study sea levels all over the globe, is that all this talk about the sea rising is nothing but a colossal scare story.“ Christopher Booker in: „Daily Telegraph“ vom 29. März 2009)

=================================================================

Der Hamburger Meteorologe Hans von Storch bereitet die SPIEGEL-Leser sanft auf das nahende Ende des Klima-Hype vor

Nach Ansicht von Storchs „wird deutlich werden, dass es neben der Klimaproblematik weitere schwierige Entwicklungen geben wird, mit weitreichendem Einfluss auf das individuelle sowie das globale Wohlergehen des Lebens auf der Erde: Nachwirkungen der Wirtschaftskrise, Gesundheitsgefahren, Bevölkerungszuwachs, soziale Ungleichheit, Armut, Hunger, Ressourcenübernutzung, radikal verschiedene Weltsichten. Ich erwarte, dass Klima weiter als ein gewichtiges, handlungsnotwendiges Thema verstanden wird, aber eben nur als eines unter mehreren.“ Hans von Storch schließt mit folgender plausiblen Zukunftsprojektion: „Der bisherige Hype der Klima-Angst wird durch eine andere Angst ersetzt werden. Das Klimathema wird nicht mehr wirklich ernstgenommen werden, sondern vor allem zur Motivation für eine allgegenwärtige Regulierung fast aller Lebensbereiche instrumentalisiert werden. In diesem pessimistischen, aber vielleicht nicht unrealistischen Szenario, würde die Klimaforschung die gegenwärtige Aufmerksamkeit der Öffentlichkeit verlieren – trotz eines langen Feuerwerks immer wieder neu entdeckter Gefahren und in Aussicht gestellter Weltuntergänge. Am Ende stünde ein Rückzug auf die von den Wetterdiensten betriebenen Überwachungsaufgaben, spannende Nischenforschung im Elfenbeinturm und versprengte übriggebliebene Alarmisten.“

================================================================

SPIEGELonline berichtet von angeblichen bzw. angeberischen „Polarforschern“, die im Frühjahr gegen den Kältetod kämpfen. Eigentlich waren sie im Februar losgezogen, um nach Zeichen der globalen Erwärmung zu suchen. Mein Freund und Kollege Ulli Kulke hat die ganze Geschichte in der WELT als ebenso dreiste wie gedankenlose PR-Masche entlarvt. (20. März 2009)

=================================================================

In Kopenhagen trafen sich 2000 so genannte „führende Klimaforscher“, um der politischen Klasse und dem gemeinen Volk klar zu machen, dass es keine Ausrede vor der Unterwerfung unter die globale Kohlenstoff-Rationierung (sprich: Öko-Diktatur) gibt. Statt die Erkenntnis hervorzuheben, dass die globale Durchschnittstemeperatur mindestens um 6 Grad Celsius steigen müsste, um das Grönlandeis nachhaltig zum Schmelzen zu bringen (was dann übrigens mehr als tausend Jahre in Anspruch nähme), greift SPIEGELonline am 11. März 2009 mit der Überschrift „Meeresspiegelanstieg wird sich beschleunigen“ die Warnungen von der politischen Dressurelite gehätschelter Außenseiter wie Prof. Stefan Rahmstorf vom Potsdam Institut für „Klimafolgenfoschung“ (PIK) auf. Am 12. März legte das Online-Magazin nach, indem es die Warnung des esoterischen Chefs des PIK, Hans Joachim Schellnhuber, nicht mit der Erde Roulette zu spielen, zitiert. Folgte man Schellnhuber, müsste man die menschliche Zivilisation abschaffen. Die hinter der Kopenhagener Konferenz stehende Absicht ist klar: Weil die Fortschreibung des Kyoto-Protokolls auf der nächsten UN-Klimakonferenz Ende 2009 in Kopenhagen angesichts der Wirtschaftskrise und der starken Wiederausdehnung des Arktis-Eises auf der Kippe steht, mobilisieren die, deren Geschäftsmodell von der Klimakatastrophen-Angst abhängt, von Torschlusspanik ergriffen, ihr letztes Aufgebot.

Das Europäische Institut für Klima und Energie (EIKE), in Jena hat auf seiner Website unter dem Titel „Medienflops: Medien-Enten über Klima & Energie“ eine aktuelle Liste geplatzter Klima-Lügen in der deutschen Presse zusammengestellt. Es handelt sich um eine insgesamt 40-seitige fachmännische Bewertung irreführender Pressemeldungen über Klimafragen aus der Feder von Michael Limburg (Dipl.-Ing.), Prof. Dr. Horst-Joachim Lüdecke (Diplom-Physiker) und Klaus-Eckart Puls (Dipl.-Meteorologe). Ich empfehle den Besuchern meiner Website dringend den Download des pdf-Dokuments. (9. März 2009)

===================================================================

US-Geologe Don Easterbrook erwartet Jahrzehnte lange Abkühlung

Auf der diesjährigen kritischen Klima-Konferenz des Heartland Instituts in New York erklärte der emeritierte Geologieprofessor Don J. Easterbrook aufgrund einer Analyse zyklischer Entwicklungen in der Vergangenheit, warum die Erde am Beginn einer längeren Abkühlungsperiode steht. (11. März 2009)

=================================================================

US-Klimaforscher erwarten, dass die globale Erwärmung eine 30-jährige Pause einlegt

Vor allem in Nordamerika, zum Teil aber auch in Europa hat der Winter 2008/2009 den seit Beginn des neuen Jahrtausends beobachtbaren Trend zur Stagnation, wenn nicht zu einem leichten Absinken der Kurve der glpobalen Durchschnittstemperatur bestätigt. Eine Anfang März in Washington angesetzte große Demonstration „grüner“ NGOs gegen den Bau von Kohlekraftwerken und für eine Verstärkung des Kampfes gegen die „globale Erwärmung“ musste in Wirklichkeit gegen einen heftigen Schneesturm ankämpfen und bekam wenig Zulauf. Wie „Discovery News“ meldet, erwarten US-Wissenschaftler wie Kyle Swanson von der University of Wisconsin-Milwaukee, dass der Abkühlungstrend noch 30 Jahre anhalten wird. (3. März 2009)

===============================================================

Das britische Met Office fürchtet, nicht mehr erntgenommen zu werden

Wissenschaftler vom britischen Headley Center, die bislang maßgeblich daran beteiligt waren, die Hysterie über einen drohenden Hitzetod der Erde zu schüren, warnen neuerdings davor, Naturerscheinungen wie das zeitweise Schrumpfen des Arktis-Eises der angeblich von Menschen verursachten globalen Erwärmung zuzuschreiben. Denn es ist unübersehbar, dass sich die Eisbedeckung rund um den Nordpol in diesem Winter wieder über das Vorjahresniveau ausgedehnt hat und dass das Abschmelzen des Grönland-Eises zum Erliegen gekommen ist. So macht die britische Meteorologin Dr. Vicky Pope auf der Website des linken „Guardian“ ihre Kollegen darauf aufmerksam, dass das Schwanken der Eisbedeckung der Arktis höchstwahrsceinlich natürliche Ursachen hat und nicht auf menschliche Einflüsse zurückgeht. Sie fürchtet, eine Fehlinterpretation von Naturerscheinungen arbeite letztlich den „Skeptikern“ in die Hände. Das könne die an einem seidenen Faden hängende Fortschreibung des Kyoto-Protokolls zum Ende dieses Jahres auf der Klimakonferenz von Kopenhagen gefährden. (11. Februar 2009)

=============================================================

Joachim Müller Jung führt in der FAZ vor, wie die am Staatstropf hängende Zunft der Computer-Klimatologen lückenhafte und inexitente Messdaten aus der Antarktis so zurecht biegt, dass sie die verstiegene These einer vom Menschen gemachten Erderwärmung scheinbar stützen. Zum Glück zeigen etliche der auf dem FAZ-Blog eingegangenen Diskussionsbeiträge, dass die Wirklichkeit anders aussieht.

Versicherungsschäden 2008: Kein Einfluss des klimawandels feststellbar. Doch Münchner Rück und Kanzlerinberater Schellnhuber interpretieren die Rangfolge der Versicherungsschäden, wie es ihnen in den Kram passt.

============================================================

Michael Crichton zu früh verstorben

Der bekannte amerikanische Thriller-Autor Michael Crichton ist am 4. November 2008 in seinem Haus in Los Angeles im Alter von 66 Jahren einem Krebsleiden erlegen. Der Hüne Crichton war nicht nur ein hoch qualifizierter Mediziner, der durchaus auch als Universitätsprofessor hätte Karriere machen können, sondern hatte auch einen profunden Überblick über den Stand der naturwissenschaftlichen Forschung. Das kam ihm zugute bei seinem 2004/2005 veröffentlichten Thriller-Roman „Welt in Angst“, in dem er zeigt, dass die „Klimapolitik“ auf einer menschenfeindlichen politischen Religion fußt, die mindestens so gefährlich ist wie die Rassenlehre der Nazis. Mit diesem Roman hat sich Crichton die Feindschaft der Grünen aller Schattierung in Politik und Medien zugezogen. Sie verhinderten, dass der Roman in Hollywood verfilmt wurde. Eine detaillierte Besprechung von „Welt in Angst“ finden Sie im Untermenü „Für Sie gelesen…“.

==========================================================

Mein Freund Ernst Georg Beck hat auf der Jahreshauptversammlung des BLS Bundesverband für Landschaftsschutz am 25. Oktober 2008 in Köln die Indizien zusammengefasst, die für eine globale Abkühlung sprechen.

An anderer Stelle entlarvt Der Freiburger Biologe die jüngsten Warnungen vor einer dramatischen Aufheizung der Arktis als dreisten Wissenschaftsbetrug. Wohin die Entwicklung wirklich geht, zeigt das Wiederanwachsen von Gletschern in Alaska nach einem außerordentlich kühlen Sommer.

===========================================================

Der Leipziger FDP-Europa-Abgeordnete Holger Krahmer fordert eine Aussetzung des „Klimapaketes“ der EU

===========================================================

FAZ liefert ein aufschlussreiches Porträt des „Temperaturfühlers“ Hans-Joachim Schellnhuber

Ich bin der FAZ dankbar dafür, dass sie uns solche Einblicke in die Denkweise von Top-Beratern unserer Kanzlerin gewährt. Ich möchte keineswegs die Wunderkind-Eigenschaften von Herrn Schellnhuber, seine außerordentliche Begabung für einen bestimmten Zweig der theoretischen Physik in Zweifel ziehen. Doch die Füße auf der Erde hat er nicht. Seine Vorstellung, durch ein globales Management den Anstieg der Durchschnittstemperatur über den Landmassen der Erde auf 2 Grad Celsius begrenzen zu können, kann man nur als esoterisch bezeichnen. So funktioniert unsere Welt, kosmische Dimensionen eingeschlossen, einfach nicht! Es dürfte kein Zufall sein, dass es kaum Geologen gibt, die Schellnhubers Argumentation folgen. Sehr zu empfehlen in diesem Zusammenhang das Buch des niederländischen Geologen Salomon Kroonenberg (Darmstadt, 2008).

Die Ratschläge Schellnhubers dürften dafür mitverantwortlich sein, dass Frau Merkel den Klimawandel noch immer für bedrohlicher hält als die auf uns zukommende Energieverteuerung durch wachsende Abhängigkeit von der unberechenbaren Politik autoritärer Regimes. Inzwischen hat zumindest der britische Wirtschaftsminister John Hutton klar erkannt, dass die Frage der Energiesicherheit wichtiger ist als das Klima.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Heidelberger Kernphysiker rügt deutsche Medien wegen irreführender Darstellung der Klima-Problematik

Der in Heidelberg lebende und früher in Saarbrücken lehrende Kernphysiker und Buchautor Prof. Dr. Horst-Joachim Lüdecke sah sich nach der Lektüre vieler -der gängigen Irrlehre vom menschengemachten Klimawandel folgenden- Artikel im ehemals wirtschaftsliberalen Handelsblatt veranlaßt, einen richtigstellenden ausführlichen Leserbrief an den verantwortlichen Wissenschaftsautor Ferdinand Knauß zu schreiben. Weil die Vorgehensweise des Herrn Knauß beispielhaft für ganze Heerschaaren von Vertretern der Medienzunft steht, haben wir uns entschlossen den ganzen Brief zu veröffentlichen. Er steht online beim Europäischen Institut für Klima und Energie (EIKE), Jena.

Vorab nur eine kleine Auswahl der wichtigsten Aussagen:

* Sie geben als Motivation für Ihre oben genannten Artikel und Ihr Engagement in Sachen Klimaschutz Verantwortung für Umwelt und Nachkommen an. Weil ich diese Haltung teile, habe ich mir die Mühe gemacht, Ihre Artikel anzusehen. Als Folge drängen sich mir allerdings, ich bitte sehr um Ihre Nachsicht, folgende Fragen auf: ist es unzureichendes Recherchieren, journalistisches Reiten auf der Klima-Katastrophenwelle, der verlängerte Propaganda-Arm des PIK, doch ehrliches Engagement für unsere Umwelt oder die Vorgabe der Handelsblatt -Redaktion, was Ihre Beiträge steuert?

* Zunächst die Fakten, die Sie größtenteils auch in den wissenschaftlichen Berichten des IPCC nachlesen können und sollten (natürlich nicht in den Summaries for Policymakers): Bis vor etwa 12 000 Jahren war das europäische Klima von starken, kurzfristigen Änderungen geprägt, die mehrere Celsius-Grade in einem Menschenleben erreichen konnten. Danach wurde es gleichmäßiger. Es gab aber immer noch Warm- und Kaltzeiten, etwa das warme mittelalterliche Klimaoptimum (Erwärmung = Optimum, nicht Pessimum, erstaunlicherweise darf man dies noch schreiben) oder die kleine Eiszeit im 17. Jahrhundert. Im 20. Jahrhundert setzte wieder eine Erwärmungsphase ein, die seit einem knappen Jahrzehnt, in dem es sich erneut abkühlte(!), inzwischen beendet scheint.

* Da es anthropogenes CO2 praktisch erst seit 100 Jahren gibt, stellt sich die Frage, ob es für die jüngste Erwärmung verantwortlich war. Die Größenordnung der Erwärmung, insgesamt ca. 0,6 Grad in 100 Jahren, passt mit der etablierten Atmosphärenphysik bei viel gutem Willen und Augenzudrücken grob zusammen. Das IPCC gibt sogar eine logarithmische Formel an (www.ipcc.ch, report 2001, the scientific basis, TAR-06.pdf, S. 358, Tab. 6.2), die die globale Temperaturerhöhung mit der gemessenen CO2- Konzentrationszunahme der Luft verknüpft. Diese Formel liefert im Übrigen noch nicht einmal dann katastrophale Temperaturen, wenn wir alle verfügbaren fossile Brennstoffe der Erde verfeuern würden.

* Mit der Infrarotabsorption des CO2 ist es in einem extrem vereinfachten Bild wie mit einem schwarzen Tuch zum Zweck der Verdunkelung. Hängen Sie noch ein weiteres schwarzes Tuch davor (=Verdoppelung der CO2-Konzentration), wird es nicht noch dunkler. Schlussendlich bemerkenswert: Der Verlauf der nordhemisphärischen Temperaturen mit ihren Zu- und Abnahmen im 20., einschließlich dem begonnenen 21. Jahrhundert, passt mit dem stetig zunehmenden CO2 überhaupt nicht zusammen. Auf der Südhalbkugel gibt es ferner große Zonen, die sich abgekühlt haben, während sich die Nordhalbkugel erwärmte. Niemand kann dies schlüssig erklären, zu steigenden CO2-Konzentrationen passt dieses Phänomen ebenfalls nicht.

*Wir bewegen uns bis heute in Klimaverhältnissen, die absolut im natürlichen Bereich liegen. Ungewöhnliche Zunahmen von Meerespiegelhöhen oder von Extremwettern gibt es bis heute ebenfalls nicht. In einem schon länger zurückliegenden, kontroversen E-Mail-Austausch mit Kollegen Rahmstorf (nur Prof.-Kollege, ich bin von Haus aus Kernphysiker und kein Klimaspezialist), in dem ich ihn aufforderte, die Fakten über die gegenwärtig nicht vorhandenen Meeresspiegelanstiege der Öffentlichkeit doch bitteschön einmal unmissverständlich mitzuteilen, schrieb er mir „wir erwarten diese Anstiege“. Respekt! Erwarten kann man viel, dazu weiter unten mehr. Um übrigens keine Missverständnisse aufkommen zu lassen: Man beobachtet seit 150 Jahren, also seit es ordentliche Messungen gibt, natürliche Meeresspiegelanstiege von grob 2 mm pro Jahr, die mit anthropogenem CO2 nichts zu tun haben. Auch die neuesten Satellitenmessungen zeigen hiervon keine maßgebenden Abweichungen.

* Die von Rahmstorf gerne zitierten Fingerprints, die die Schuld des Menschen beweisen sollen, sind im Übrigen netter statistischer Unfug. Ich garantiere Ihnen, sehr geehrter Herr Knauß, fast jedes Phänomen, von steigenden Scheidungsraten bis hin zu steigenden Flugkilometern, mit anthropogenem CO2 und der Klimaerwärmung in Fingerprint-Zusammenhang bringen zu können. Da Anfang des vorigen Jahrhunderts die Geburtenraten zu- und die Storchpopulationen abgenommen haben, werden wohl auch die Babys vom Storch gebracht. Propagandisten wie Rahmstorf verschweigen, dass zu einer gesicherten Statistik immer zwei Dinge gehören, ein nachgewiesener Mechanismus (der hier fehlt) und eine saubere mathematische Korrelation.

* Die „Klimaprojektionen“ in den IPCC Summaries for Policymakers, die bis zum Jahre 2100 im Höchstfall von mehreren Graden Temperatursteigerungen künden, sind reine Zukunftsvisionen. Sie haben keine Messungen sondern fiktive Klima-Computer-Modellrechnungen zur Grundlage, die ihre Zuverlässigkeit noch nicht einmal für die Klimavergangenheit unter Beweis stellen konnten. Die viel einfacheren Wettermodelle sind höchstens über wenige Wochen hinaus zuverlässig. Aber „Klima- Computer-Projektionen“ über Zeiträume bis 100 Jahren soll man ernst nehmen? Klima-Computer-Modelle beruhen auf den Vorstellungen der Programmierer und nur zum Teil auf ordentlicher, nachprüfbarer Physik. Rückkoppelungsmechanismen, Tipping-Points und weitere, durch keinerlei Messungen belegte Fiktionen werden in diesen Modellen bemüht, um irgend etwas Katastrophales zusammenzukratzen. Die IPCC- Politik wünscht es so.(siehe auch hier)

* Ich bin mit vielen Physik-Professoren-Kollegen von Universitäten und FH’s befreundet bzw. näher bekannt. Keiner von ihnen, das darf ich Ihnen versichern, nimmt die zur Zeit herrschende CO2- Hysterie ernst; überwiegend amüsiert man sich königlich über den Unsinn. Die maßgebenden Politiker nehmen die Sache wohl auch kaum ernst und Frau Merkel als promovierte Dipl.-Physikerin ihr lautstark verkündetes Zulassen von höchstens weiteren 2 Grad globaler Erwärmung schon gar nicht. Für die Politik ist die Geschichte natürlich zu wichtig geworden.

* Ihr Argument, auch bei zugegebener Unsicherheit sei die Sache zu wichtig und koste doch nur einen vernachlässigbaren volkswirtschaftlichen Anteil, können Sie bei Beachtung der Grundrechenarten und dem täglichen Blick in die Zeitungen doch wohl nicht ernst meinen. Der deutsche Windrad- und Photovoltaik-Wahnsinn ist erst ein Anfang, hat den Steuerzahler bereits Milliarden gekostet, wird unsere Volkswirtschaft zunehmend schädigen, unsere in der Vergangenheit zuverlässige Energieversorgung zunehmend gefährden und Mittel von wirklich notwendigen Umweltschutzmaßnahmen abziehen.

*Das PIK als politische Proposal-Institution wird von keinem Fachmann unter vier Augen mehr ernst genommen. Es hat seinen wissenschaftlichen Ruf durch seine politische Klima-Propaganda gründlich ruiniert. Da PIK-Professor Schellnhuber „persönlicher Klimaberater“ unserer Kanzlerin ist, können Sie sich in Klimafragen besser gleich bei der CDU-Fraktion informieren. Schellnhuber und Rahmstorf majorisieren ferner das WBGU (wiss. Beirat der Bundesregierung für globale Umweltveränderungen). Besonders vielsagend ist die Wende dieses Beirats nach 1997. Im WBGU-Bericht von 1997 können Sie noch wörtlich nachlesen, ein Einfluss des anthropogenen CO2 auf Klimawerte sei nicht nachweisbar.

* Und nun zu dem immer wieder beschworenen „Konsens“ der Fachwelt: Ich verweise hierzu auf die aktuelle Diskussion in der US-Amerikanischen physikalischen Gesellschaft, die zeigt, dass Zehntausende von Physikern, deren Zahl um mindestens den Faktor 10 höher ist, als die Anzahl der am IPCC-Prozess beteiligten Forscher, mit der Klimaschädlichkeit des anthropogenen CO2 keineswegs einverstanden sind. Zu nennen sind weiter die ICSC (International Climate Science Coalition) und schlussendlich die vielen wissenschaftlichen Manifeste gegen die IPCC-Hypothese, wie der Heidelberger Aufruf, das Leipziger Manifest, die Kanadische Petition und die Oregon Petition – es haben auch Nobelpreisträger mitunterschrieben, sie ebenfalls auf der Internetpräsentation des EIKE finden.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

International Climate Science Coalition (ICSC)

Hunderte unterzeichnen realistische Klima-Erklärung – „Die globale Erwärmung“ ist keine weltweite Krise

22.04.2008 | 22:29 Uhr

Ottawa, Kanada (ots/PRNewswire) – – Die „International Climate Science Coalition“ veröffentlicht Unterzeichner der „Manhattan-Erklärung zum Klimawandel“

Die „International Climate Science Coalition“ (ICSC) gab heute die Namen von mehr als 500 Unterstützern der „Manhattan-Erklärung zum Klimawandel“ („Manhattan Declaration on Climate Change“) bekannt, die weltweite Führungspersönlichkeiten dazu aufruft, „die Auffassungen des zwischenstaatlichen Ausschusses für Klimaänderungen der Vereinten Nationen („United Nations Intergovernmental Panel on Climate Change“ – IPCC) sowie populäre, aber irreführende Arbeiten wie „Eine unbequeme Wahrheit“ („An Inconvenient Truth“) zurückzuweisen.“ Alle Steuern, Gesetze und andere Eingriffe mit dem Ziel der Reduktion von Kohlendioxid-Emissionen (CO2) sollten „unverzüglich abgeschafft“ werden, lassen die Unterzeichner verlauten.

Die Liste der Unterstützer umfasst weltweit führende Klimaforscher, Wirtschaftsexperten, Entscheidungsträger, Ingenieure, Führungspersönlichkeiten aus der Wirtschaft, Mediziner sowie andere Experten und besorgte Bürger aus zwei Dutzend Ländern. Hier der vollständige Text der Erklärung, die Unterstützerlisten und internationalen Medienkontakte für Expertenkommentare

Die vielleicht wichtigsten Aussagen der Erklärung sind:

– „Es besteht kein überzeugender Beweis dafür, dass die CO2-Emissionen der modernen, industriellen Aktivität in der Vergangenheit, in der Gegenwart, oder in der Zukunft einen katastrophalen Klimawandel verursachen.“

– „Versuche von Regierungen, teure Vorschriften über Industrie und den einzelnen Bürger zu verhängen, um die CO2-Reduktion zu fördern, werden die Entwicklung verlangsamen, ohne einen sinnvollen Einfluss auf den künftigen Verlauf des weltweiten Klimawandels zu haben. Solche Strategien werden die künftige Prosperität spürbar verringern und damit die Fähigkeit der Gesellschaften einschränken, sich an die unabänderliche Klimaänderung anzupassen und dadurch das menschliche Leid vergrössern, nicht verringern.“

„So wie das Manhattan-Projekt eine Schlüsselrolle für das Ende des Zweiten Weltkriegs war, so wird die „Manhattan-Erklärung zum Klimawandel“ eines Tages als ein essentieller Katalysator betrachtet werden, der dazu beigetragen hat, die heutige Klima-Hysterie zu beenden“, sagte das Mitglied des Wissenschaftsbeirats der ICSC, Professor Bob Carter von der James Cook University in Australien. „Der Schutz der Umwelt ist äusserst wichtig und daher muss die Umweltpolitik auf unserem besten Verständnis von Wissenschaft und Technologie basieren, verbunden mit einer realistischen Einschätzung der relevanten Optionen für Wirtschaft und Politik. Dies findet in der Klimadebatte nicht statt.“

Der Vorsitzende der ICSC, Professor Tim Patterson von der Carleton University in Ottawa (Kanada) erklärt: „Anstatt Milliarden durch die Restriktion von CO2-Emissionen zu verschwenden, einem lebenswichtigen Gas, von dem alles Leben abhängt, müssen sich die Regierungen darauf konzentrieren, bekannte Umweltprobleme zu lösen, auf die wir einen Einfluss haben – Luft-, Land- und Wasserverschmutzung sind bekannte Beispiele dafür.“

Die ICSC ist eine Vereinigung von Wissenschaftlern, Ökonomen und Experten für Energie und Politik, die sich für ein besseres Verständnis der Öffentlichkeit hinsichtlich des Klimawandels einsetzen. Die ICSC liefert eine Analyse von Klimaforschungs- und politischen Themen, die unabhängig von Lobbys und etablierten politischen Interessen eine Alternative zu den Empfehlungen des IPCC darstellt. Die ICSC unterstützt daher eine rationale, wissenschaftlich begründete, offene Diskussion aller Themen rund um das Klima.

Für weitere Informationen über die „Manhattan-Erklärung“ oder die ICSC besuchen Sie climatescienceinternational.org oder kontaktieren Sie: Tom Harris, B. Eng., M. Eng., Executive Director, International Climate Science Coalition, P.O. Box 23013, Ottawa, Kanada, K1A 4E2, +1-613-728-9200, E-Mail: tom.harris@climatescienceinternational.net; oder Professor Robert M. Carter, Ph.D., Marine Geophysical Laboratory, James Cook University, Townsville, Qld., 4811, AUSTRALIEN, Telefon: +61-7-4781-4397, Priv.: +61-7-4775-1268, Mobil: +61(0)419-701-139, E-Mail: bob.carter@jcu.edu.au; Web: members.iinet

Pressekontakt:

Für weitere Informationen über die „Manhattan-Erklärung“ oder die ICSC besuchen Sie climatescienceinternational.org oder kontaktieren Sie: Tom Harris, B. Eng., M. Eng., Executive Director, International Climate Science Coalition, P.O. Box 23013, Ottawa, Kanada, K1A 4E2, +1-613-728-9200, E-Mail:

tom.harris@climatescienceinternational.net; oder Professor Robert M. Carter, Ph.D., Marine Geophysical Laboratory, James Cook University, Townsville, Qld., 4811, AUSTRALIEN, Telefon: +61-7-4781-4397, Privat:

+61-7-4775-1268, Mobil: +61(0)419-701-139, E-Mail: bob.carter@jcu.edu.au

Und hier der NIPCC-Bericht Nature, not Human Activity, Rules the Climate. Eine deutsche Übersetzung ist unter dem Titel „Die Natur, nicht menschliche Aktivität bestimmt das Klima“ beim TvR Medienverlag, Jena 2008 erschienen.

Meinen Bericht über die Konferenz finden Sie unter dem Titel Klimaskeptiker auf verlorenem Posten? weiter unten.

Dazu mein Kommentar:

Krieg der Meme

Die letzte Woche am New Yorker Broadway über die Bühne gegangene Klima-Konferenz der „Skeptiker“ mit über 100 Fachvorträgen renommierter Atmosphären-, Meeres- und Polarforscher zeigte meines Erachtens, dass die Beweislage gegen eine nennenswerte Beteiligung des allenthalben verteufelten Kohlenstoffdioxids (CO2) an der Erderwärmung immer erdrückender wird. Denn es wird auf der Erde seit einigen Jahren wieder kühler. Schade, dass in der deutschen Presse darüber kaum berichtet wurde. Von dem in den Massenmedien so oft bemühten „Konsens“ über die Rolle des CO2 im Wettergeschehen kann jedenfalls nicht die Rede sein, wenn sich so viele Spitzenforscher offen von der offiziellen Lehrmeinung des UN-Klimarates IPCC distanzieren.

Das Wort „Konsens“ hat in der Wissenschaft ohnehin nichts zu suchen. Hier geht es nach Karl R. Popper nicht um die konsensuale Absegnung endgültiger Wahrheiten, sondern um die „Refutation“ von Hypothesen mithilfe intelligenter Experimente und kritischer Dispute. Basis eines wirklichen Konsenses im Alltag wie in der großen Politik kann nach Hannah Arendt nur der gesunde Menschenverstand sein. Und Grundlage eines halbwegs dauerhaften Friedens zwischen Menschen unterschiedlicher Weltanschauung können nur produktive Missverständnisse sein. Ich meine: Es handelt sich bei der Auseinandersetzung zwischen „Klimaskeptikern“ und den Verfechtern der IPCC-Position nicht um einen wissenschaftlichen Disput, sondern um einen neuen Kalten Krieg zwischen Freiheit und Kollektivismus mit den Waffen der politischen Memetik. Dabei geht es darum, mithilfe von Tricks möglichst viele eigene Meme (Glaubenssätze, Symbole, Info-Viren) in die Hirne der Gegenseite zu schleusen, um sie von innen aufzuweichen. Die Urväter von Greenpeace nennen diese Meme treffend Mind Bombs.

Wenn die freiheitsliebenden „Klimaskeptiker“ im politischen Prozess vorankommen wollen, dürfen sie m. E. nicht die von der Gegenseite erfundenen Begriffe und Schlagwörter wie „ökologisches Gleichgewicht“, „Treibhauseffekt“ und „Kohlenstoff-Gerechtigkeit“ oder auch „soziale Gerechtigkeit“ verwenden. Denn diese Begriffe setzen voraus, dass wir in einer geschlossenen Welt leben. Die reale Welt ist aber offen: sowohl im Hinblick auf die Sonne und das Weltall als auch auf die Zukunft. Ein Liberaler, der sich darauf einlässt, mit einem Sozialisten über „soziale Gerechtigkeit“ zu diskutieren, hat also schon verloren. Erkannt hat das der gerade wiedergewählte tschechische Staatspräsident Václav Klaus, der in seiner mit stehenden Ovationen begleiteten Rede auf der New Yorker Konferenz darauf hinwies, es gehe im Streit mit dem IPCC gar nicht in erster Linie um das Klima, sondern um die Freiheit. (31. März 2008)

============================================================

Treibhauseffekt nicht nachgewiesen

Es gibt keine einzige wissenschaftliche Arbeit, die klipp und klar zeigt, ob und wie das Spurengas Kohlenstoffdioxid (CO2) atmosphärische Vorgänge beeinflusst. Es wurden für den Nachweis des „Treibhauseffekts“ auf beiden Seiten des Atlantik lukrative Geldpreise ausgesetzt. Doch niemand hat sich bislang dafür beworben.

Das zeigt: Der „Treibhaus

Die Tücken des Kohlenstoff-Kreislaufs

Da das Kyoto-Protokoll von 1997 nicht nur eine Begrenzung von CO2-Emissionen an der Quelle fordert, sondern auch die Anrechnung von C-Senken erlaubt, setzt es ein hinreichendes Verständnis des C-Kreislaufs voraus. Doch davon sind wir weit entfernt.

Nach der heute gängigen Vorstellung lag die Gleichgewichtskonzentration von CO2 in der Atmosphäre um 1850 bei 280 ppm. Bis zum Jahre 2001 stieg die auf dem Vulkan Mauna Loa auf Hawaii gemessene Konzentration auf 370 ppm an. Der in 150 Jahren akkumulierte CO2-Überschuss geht höchstwahrscheinlich zum größten Teil auf die Verbrennung fossiler Energieträger und auf Waldrodungen und nur zum geringeren Teil auf die Freisetzung von CO2 aus den Ozeanen zurück. So weit scheinen sich die mit Klimafragen befassten Naturwissenschaftler einig zu sein. Anlass zu Streit geben aber die Fragen, was das überschüssige CO2 bewirkt und was damit kurz- und mittelfristig geschieht.

Der von der World Meteorological Organization (WMO) und vom UN-Umweltprogramm (UNEP) eingesetzte Welt-Klimarat Intergovernmental Panel on Climate Change (IPCC) nimmt in seinen Warnungen vor einer drohenden Überhitzung unseres Planeten implizit eine mittlere Verweildauer des CO2 in der Atmosphäre von etwa 570 Jahren an und schätzt auf dieser Basis den möglichen Anstieg der globalen Durchschnittstemperatur bis zum Ende dieses Jahrhunderts auf bis zu 5,8 Grad Celsius. Schon im Herbst 2001 hatte der britische Chemiker Jack Barrett auf einem von der DECHEMA Gesellschaft für Chemische Technik und Biotechnologie in Frankfurt am Main veranstalteten Kolloquium darauf hingewiesen, aus dem Abklingen des 14C-Peaks nach der Einstellung oberirdischer Kernwaffenversuche nach dem Teststopp-Abkommen von 1962 lasse sich eine CO2-„Halbwertszeit“ von weniger als 40 Jahren errechnen.

In der Zwischenzeit hat der im (Un)ruhestand lebende Elektroingenieur und Hobby-Klimaforscher Peter Dietze als offizieller Reviewer des IPCC ein einfaches „Wasserkastenmodell“ der globalen C-Flüsse durchgerechnet. Mithilfe einer Regressionsanalyse der in der Nachkriegszeit gemessenen CO2-Werte gelangt er dabei zu einer 1/e-Lebensdauer der CO2-Überschüsse von 55 Jahren beziehungsweise einer „Halbwertszeit“ von 38 Jahren. Auf dieser Basis sei bis zum Jahrhundertende mit einer globalen Erwärmung von lediglich 0,52 °C zu rechnen.

Am 6. März gab die DECHEMA Dietze nun die Gelegenheit, seinen Ansatz mit den Auffassungen einer Reihe international anerkannter Klima-Forscher zu konfrontieren. Auf generelle Skepsis stieß die von Dietze vorgenommene Zusammenfassung der sehr unterschiedlichen Verweilzeiten des Kohlenstoffs in verschiedenen Kompartimenten der Biosphäre zu einer einzigen Zeitkonstanten analog zur Parallelschaltung elektrischer Widerstände und Kapazitäten. Der Botaniker Prof. Dr. Ernst-Detlef Schulze, Direktor des Max-Planck-Instituts (MPI) für Biogeochemie in Jena, forderte, neben der Parallelschaltung müsse auch die Reihenschaltung von C-Quellen und Senken berücksichtigt werden, was das Modell komplizierter mache und die theoretische Verweildauer des Kohlenstoffs in der Biosphäre ansteigen lasse. Dietze verwies demgegenüber auf die gute Übereinstimmung seiner Berechnung mit dem in den letzten 27 Jahren gemessenen durchschnittlichen CO2-Anstieg um etwa 1,5 ppm im Jahr. Danach würde im Jahre 2075 eine Maximalkonzentration von 470 ppm erreicht. Eine Simulation auf der Basis der IPCC-Parameter führe demgegenüber zu einem progressiven CO2-Anstieg von jährlich etwa 2,6 ppm und schon die gegenwärtig messbare CO2-Konzentration würde um 12 ppm überschritten.

Aber auch Prof. Schulze ist mit dem Kyoto-Protokoll nicht glücklich, obwohl er es grundsätzlich als einen ersten Schritt in Richtung auf eine „planmäßige Gestaltung globaler Stoffkreisläufe“ befürwortet. Die in dem Abkommen erstmals eingeräumte Möglichkeit, an Stelle der Emissionsreduktion biologische C-Senken durch Aufforstung neu zu schaffen, sei eine kaum verhohlene Einladung zum Missbrauch. Es sei versäumt worden, klar zu definieren, was überhaupt als C-Senke anerkannt werden kann. Zum Beispiel werden Flächen von 500 Hektar, die zu zehn Prozent vom Kronendach von Bäumen bedeckt sind, schon als Wälder gezählt. Da die Anrechnungsperiode erst 2008 beginnt, sind bis dahin noch großflächige Rodungen von Primärwäldern möglich. Dabei wird viel Kohlenstoff durch Humusabbau freigesetzt. Werden gerodete Flächen für den humuszehrenden Kartoffelanbau genützt, entstehen weitere C-Verluste. Auch beim Weizenanbau sei die C-Bilanz negativ, betont Schulze. Und bei der oft gepriesenen energetischen Nutzung landwirtschaftlich erzeugter Biomasse sei auch nicht viel zu gewinnen. Bei der Erzeugung von Rapsöl zum Beispiel gehe der anfängliche Gewinn größtenteils wieder durch die notwendige Methylierung verloren.

Andererseits würden nachhaltig bewirtschaftete Wälder in den gemäßigten Zonen nicht als Senken anerkannt, obwohl die Annahme, nicht bewirtschaftete Wälder seien bessere C-Senken, nachweislich falsch sei. Schulze bezieht sich dabei auf den Modellwald Hainich in Thüringen, in dem mithilfe eines Messnetzes die jährliche Fixierung von sechs Tonnen Kohlenstoff je Hektar nachgewiesen wurde. Im B-Horizont des Waldbodens (Mineralboden) kann Kohlenstoff übrigens bis zu 6.000 Jahre gespeichert werden, wobei sich langkettige Lipide (Wachse) und nicht etwa Lignin am langlebigsten erweisen.

Wie Prof. Dr. Wolfgang Cramer vom Potsdam-Institut für Klimafolgenforschung in Frankfurt darlegte, beträgt die gesamte jährliche Aufnahme von Kohlenstoff durch die Landpflanzen etwa 60 Gigatonnen (Nettoprimärproduktivität). Die nach Abzug der Atmung verbleibende Nettoökosystemproduktivität beträgt aber nur ein Zehntel davon. Noch geringer ist mit 1 bis 2 Gt/a die Nettobiomproduktivität, die Ernte-Entnahmen und Schädlingsfraß Rechnung trägt. Diese Schätzungen stimmen durchaus mit dem Modell Dietzes überein.

Schwieriger ist die Abschätzung der Auswirkungen historischer und aktueller Landnutzungsänderungen. Cramer geht davon aus, dass durch die historischen Entwaldungen insgesamt 180 bis 200 Gigatonnen Kohlenstoff freigesetzt wurden. Zwischen 1920 und 1958 sei auch die Landwirtschaft unterm Strich eine C-Quelle gewesen; seither sei sie aber eine schwache C-Senke. Nach dem einfachen CLIMBER-Modell verstärken aktuelle Entwaldungen in den Tropen die globale Erwärmung, während Abholzungen in der borealen Klimazone zur lokalen Abkühlung führen. Sehr viel aufwändiger ist das LPJ-Modell, an dem das Potsdam-Institut und das Jenaer MPI gemeinsam arbeiten. Es trägt Ereignissen wie dem Pinatubo-Ausbruch und der Stimulierung des Pflanzenwachstums durch zusätzliches CO2 Rechnung, erlaubt aber bis heute kaum Aussagen über konkrete Auswirkungen von Landnutzungsänderungen. Möglicherweise sei aber die Forst- und Landwirtschaftspolitik für den Kohlenstoffhaushalt in Zukunft wichtiger als die Energiepolitik, deutete Cramer an.

Auf Widerspruch stieß Dietzes Annahme, der atmosphärische Anteil (die „airborne fraction“) der globalen CO2-Vorräte müsse in der Nachkriegszeit zugunsten des in den Ozeanen gelösten Teils abgenommen haben, da der gemessene CO2-Anstieg hinter den stark ansteigenden Emissionen zurück bleibe. Dr. Martin Heimann vom Jenaer MPI, ein Schüler der inzwischen verstorbenen Berner Pioniere der globalen C-Kreislauf-Forschung, Oeschger und Siegenthaler, glaubt anhand von Messwerten demonstrieren zu können, dass unverändert etwa 40 Prozent des durch menschliche Aktivitäten freigesetzten CO2 in der Atmosphäre landen, während insgesamt 60 Prozent von den Ozeanen und der Landbiosphäre aufgenommen werden. Die gleichzeitig mit der Zunahme des Gesamtkohlenstoff-Gehaltes der Ozeane registrierte leichte Abnahme des Sauerstoff-Gehaltes der Atmosphäre zeige, dass die Verbrennung fossiler Vorräte die Hauptquelle des globalen CO2-Anstiegs sei. Da die am Südpol gemessenen CO2-Zuwächse der Mauna-Loa-Kurve etwas nachhinken, stehe überdies außer Frage, dass die stärker industrialisierte und urbanisierte Nordhemisphäre die Hauptquelle der CO2-Emissionen ist. Da es im Ozean keinen Düngeeffekt des CO2 gebe, müsse man wegen der Nichtlinearität der Karbonatchemie überdies mit einer Verringerung der Senkenkapazität der Ozeane rechnen.

Ein Sinken der Pufferkapazität der Ozeane befürchtet auch der schottische Ozeanograph Douglas W.R. Wallace, der jetzt am Kieler Institut für Meereskunde arbeitet. „Don’t forget the importance of chemistry!“, warnte er. Insbesondere könnten Organismen mit Kalkschalen Probleme mit einem sinkenden pH bekommen. Möglicherweise könne die Kohlensäure aber auch durch unterseeische Vulkanausbrüche und große Kalkstein-Vorkommen neutralisiert werden. Fazit: Nichts Genaues weiß man nicht.

Etwas präzisere Angaben über das CO2-Absorptionsvermögen der Ozeane versuchte die Heidelberger Physikerin Dr. Ingeborg Levin, eine Spezialistin für Radiocarbon-Messungen, zu machen. Ihre eigenen in Zusammenarbeit mit Vago Hesshaimer und Martin Heimann durchgeführten Berechnungen auf der Basis des rasch abgeklungenen 14C-Peaks aus den Kernwaffen-Versuchen, die 1994 in „nature“ veröffentlicht wurden, sowie eine im vergangenen Jahr abgeschlossene neue 14C-Inventur der Ozeane von Peacock und Mitarbeitern legten eine Korrektur der 1995 von Wallace S. Broecker und Kollegen veröffentlichten Schätzung der CO2-Aufnahmerate der Ozeane um 25 Prozent nach unten nahe. Jedenfalls sei die Hoffnung, die Meere könnten den menschengemachten CO2-Überschuss aufnehmen, unbegründet. An der Umsetzung des Kyoto-Protokolls führe kein Weg vorbei. Im Übrigen könnten die von ihrem Institut durchgeführten Radiocarbon-Messungen den Suess-Effekt (die Verdünnung des natürlichen 14C-Gehalts der Atmosphäre durch 14C-freies CO2 fossilen Ursprungs) nutzen, um die Umsetzung des Kyoto-Protokolls auf regionaler Ebene zu kontrollieren.

Demgegenüber fragte Peter Dietze, ob dem Suess-Effekt wirklich eine so große Beweiskraft zukommt, wenn man davon ausgehe, dass nicht 30, sondern allenfalls 5 Prozent des CO2-Gehalts der Atmosphäre menschlichen Ursprungs sind. Sollte die von Dietze vorgestellte Modellrechnung realistisch sein, wäre das Kyoto-Protokoll überflüssig. Denn die von ihm geschätzte globale Erwärmung um ein halbes Grad (und höchstwahrscheinlich auch noch einiges mehr) wäre nicht nur ohne weiteres von der Biosphäre verkraftbar, sondern könnte sich in nördlichen Breiten sogar als Segen für die Landwirtschaft erweisen. Welche Seite hier wieweit recht hat, ist selbst für ein Fachpublikum kaum auszumachen.

Edgar Gärtner

Kommentar

Die Rechnung geht nicht auf

Wie man es auch dreht und wendet: Die globale Kohlenstoffbilanz zeigt große Lücken. Wieso konnte das 14C aus dem A- und H-Bomben-Fall-out noch deutlich schneller aus der Atmosphäre verschwinden als erwartet? Warum kann die Mauna-Loa-Kurve langsamer ansteigen als die globalen CO2-Emissionen, wenn die Weltmeere weniger Kohlenstoff aufnehmen als bislang angenommen? Diese offenen Fragen zeigen, dass wir von einer wissenschaftlichen Begründbarkeit von „Klimapolitik“ so weit entfernt sind wie eh und je.

Dabei ist der Kohlenstoffkreislauf nach gängiger ökologischer Lehrmeinung ohnehin nur drittrangig. Die Entwicklung des „Erdsystems“ wird in der Hauptsache vom Wasserkreislauf bestimmt. Dieser aber ist so komplex, dass jeder, der vorgäbe, ihn im Detail analysieren und steuern zu können, sofort für verrückt erklärt würde. An zweiter Stelle folgt der Kreislauf des Sauerstoffs. Dieser rückt erst neuerdings etwas ins Blickfeld, weil festgestellt wurde, dass der O2-Gehalt der Atmosphäre sinkt. Beunruhigend ist das aber nicht. Im Gegenteil: Die Welt wird sicherer, weil dadurch die Gefahr spontaner Brände abnimmt. Zum Atmen reicht der übrig bleibende Sauerstoff allemal.

Wie ein beteiligter Forscher mit entwaffnender Offenheit erklärte, hat sich die Klimaforschung vor allem deshalb auf den drittrangigen C-Kreislauf konzentriert, weil sich CO2 im Unterschied zu Wasserdampf ziemlich gleichmäßig in der Atmosphäre verteilt und menschengemachte CO2-Emissionen das einzige Schräubchen sind, an dem man drehen zu können glaubt. Doch wird die „Klimapolitik“ zur Augenwischerei, wenn sie neben einigermaßen kalkulierbaren menschengemachten CO2-Emissionen auch auf ein Management natürlicher C-Senken abzielt. Außer Deutschland ist denn auch bislang kein Land der Welt Kyoto-Verpflichtungen in nachprüfbarer Größenordnung eingegangen. Außer dem Verschwinden bestimmter Industrien aus Deutschland und der Verwandlung des Landes in einen Vogelscheuchenpark (Verzeihung: Windpark) dürfte das Kyoto-Protokoll also nichts bewirken.

Edgar Gärtner

(veröffentlicht in: Chemische Rundschau, CH-Solothurn, Nr. 6/25. März 2003)

Abkehr vom Kioto-Prozess wird unausweichlich

Auch in der deutschen Industrie gibt es neuerdings gewichtige Stimmen, die den sogenannten Kioto-Prozess als Sackgasse bezeichnen und anregen, sich der US-Position anzuschließen.

Klimapolitik

Abschied von Kioto. Energiepolitik muss wieder Standortpolitik werden

Auch in der deutschen Industrie gibt es neuerdings gewichtige Stimmen, die den sogenannten Kioto-Prozess als Sackgasse bezeichnen und anregen, sich der US-Position anzuschließen.

Der G-8-Gipfel Anfang Juli 2005 in Gleneagles/Schottland hat das Kioto-Protokoll beerdigt. Ein „Kioto-zwei“ oder „Kioto-Plus“ wird es vermutlich nicht geben. Stattdessen werden sich die führenden Industriestaaten der Welt gemeinsam mit ihren neuen Rivalen China und Indien um konzertierte Maßnahmen zur Anpassung an den Klimawandel und eine verstärkte Förderung „sauberer“ Methoden der Energieerzeugung bemühen. Die von den G-8-Staatschefs verabschiedete Erklärung hält fest, dass der weltweite Energiebedarf in den nächsten 25 Jahren um schätzungsweise 60 Prozent steigen wird und 16 Billionen Dollar in die Erschließung verlässlicher und bezahlbarer Energiequellen investiert werden müssen. Windräder können damit kaum gemeint sein. US-Präsident George Bush hat sich auf der ganzen Linie durchgesetzt. Die auf Kioto eingeschworenen deutschen Massenmedien haben erst gar nicht versucht, ihrem verwirrten Publikum diese Nachricht zu verkaufen. Sie haben sie zunächst schlicht tot geschwiegen.

Umso größer war die Überraschung, als die Vereinigten Staaten kurz nach dem G-8-Gipfel in Vientiane/Laos, ganz im Sinne der in Gleneagles verabschiedeten Erklärung, ein Abkommen über ein „Asia-Pacific Partnership on Clean Development and Climate“ zwischen den USA, China, Indien, Japan, Südkorea und Australien vorstellten. Die Mitglieder des neuen Bündnisses repräsentieren immerhin etwa 45 Prozent der Weltbevölkerung, fast die Hälfte der globalen CO2-Emissionen, fast zwei Drittel der Welt-Kohleförderung sowie fast die Hälfte des Erdölverbrauchs und haben somit ein größeres Gewicht als die im Anhang I des Kioto-Protokolls aufgeführten Länder, die sich verpflichtet haben, ihre Emissionen von CO2 und anderen „Treibhausgasen“ bis zum Jahre 2012 um durchschnittlich fünf Prozent unter das Niveau von 1990 zu drücken.

Diesem Abkommen, das ohne jegliche Einbeziehung der Vereinten Nationen und der Europäischen Union ausgehandelt wurde, werden sich wahrscheinlich in nächster Zeit noch weitere asiatische Länder anschließen. Und selbst in Europa gibt es immer mehr Stimmen, die fordern, das verbissene Ringen um ein „Kioto Plus“ aufzugeben und sich dem neuen Pakt anzuschließen. Besonderes Aufsehen erregte eine kurz vor dem G-8-Gipfel vom Wirtschaftsausschuss des britischen Oberhauses veröffentlichte Erklärung, die auf einer Studie fußt, die die Lords bei dem inzwischen emeritierten Londoner Top-Ökonomen David Pearce in Auftrag gegeben hatten. Dort hatte Pearce am Kioto-Ansatz insbesondere die fehlende Abwägung zwischen den Kosten einer Anpassung an den Klimawandel und den Kosten des (vermutlich vergeblichen) Versuchs, diesen aufzuhalten, beanstandet. Die Lords empfahlen dem britischen Premierminister Tony Blair daraufhin, seine verzweifelten Bemühungen, George Bush doch noch zur Ratifizierung des Kioto-Protokolls zu bewegen, aufzugeben und stattdessen mit den Amerikanern ein Abkommen über die Entwicklung sauberer Technologien abzuschließen.

In diesem Sinne äußerte sich Mitte August auch Carsten Kreklau, Mitglied der Hauptgeschäftsführung des Bundesverbandes der Deutschen Industrie (BDI). Die deutsche Politik müsse zur Kenntnis nehmen, „dass absolute Emissionsminderungsverpflichtungen wie im Kioto-Protokoll international nicht durchsetzbar sind“, schreibt Kreklau in einem der Presse zugespielten Namens-Beitrag. „Wenn wir in Deutschland mit höchstem Aufwand und immensen Kosten versuchen, den CO2-Ausstoß weiter zu senken, bringt das für das weltweite Klima fast nichts.“

Schon auf der vage ausgegangenen Weltklima-Konferenz in Neu Delhi vor zwei Jahren war deutlich geworden, dass sich den Anhang-I-Staaten des Kioto-Protokolls keine weiteren Länder anschließen würden. Insbesondere China und Indien konnten im Interesse ihrer boomenden Wirtschaften nicht an einer Einschränkung der energetischen Nutzung ihrer immensen Kohlevorräte interessiert sein und fanden sich damit – ob gewollt oder ungewollt – an der Seite der Kohle-Großmacht USA, die dabei ist, Milliarden in die Entwicklung sauberer Kohletechnologien zu investieren. Dennoch konnte das Kioto-Abkommen zu Beginn dieses Jahres offiziell in Kraft treten, weil sich Russlands Präsident Wladimir Putin in der Hoffnung, der EU gegen Bares mit der buchhalterischen Verwertung der ihm auf der Klimakonferenz von Marrakesch großzügig zugestandenen Kohlenstoff-Senken aus der Klemme zu helfen, im letzten Moment auf die Seite der EU schlug.

In der Tat steuert die europäische „Klimapolitik“ auf eine ernste Glaubwürdigkeitskrise zu. Während führende Politiker Deutschlands und der EU nicht müde werden, US-Präsident George Bush als Saboteur des Kioto-Abkommens anzuprangern und ihn nun sogar für die katastrophalen Folgen des Hurrikans „Katrina“ im Mississippi-Delta verantwortlich machen, zeichnet es sich immer deutlicher ab, dass die EU ihr eigenes (bescheidenes) CO2-Reduktionsziel von 8 Prozent weit verfehlen wird. Nach Angaben der Europäischen Umweltagentur (EEA) in Kopenhagen sind die CO2-Emission der 15 alten EU-Mitgliedsländer zwischen 2001 und 2004 um 3,6 Prozent gestiegen. Auch das Hinzukommen von 10 neuen Mitgliedsstaaten im Osten dürfte an diesem Trend nicht viel ändern. Im günstigsten Fall wird jetzt eine Reduktion von gerade einmal einem Prozent erwartet. Ein mageres Ergebnis, das mit Unsummen erkauft werden müsste, weil kostengünstige Möglichkeiten der CO2-Reduktion schon weitgehend ausgeschöpft sind. Das gilt in besonderem Maße für die chemische Industrie, die überproportional zur Selbstverpflichtung der Industrie und zur deutschen „Vorreiterposition“ in Sachen Energieeffizienz und CO2-Reduktion beigetragen hat. Noch immer gilt die Schätzung des Energieberichtes des damaligen Bundeswirtschaftsministers Werner Müller vom Oktober 2001, wonach die Umsetzung des von der rot-grünen Regierung ins Auge gefassten Zieles einer CO2-Reduktion von 40 Prozent bis zum Jahre 2020 in Deutschland nicht weniger als 256 Milliarden Euro verschlänge.

Dabei stand es außer Frage, dass die in Deutschland in den 90er Jahren erzielten CO2-Einsparungen von über 15 Prozent zum allergrößten Teil auf den Zusammenbruch der sozialistischen Wirtschaft im Osten und ansonsten auf Effizienzsteigerungen bei gleichzeitigem schwachen Wirtschaftswachstum zurückzuführen ist. Insofern sei es nicht verwunderlich, dass Deutschlands selbst gewählte Vorreiterrolle „andere Staaten eher zu einem abwartenden Handeln animiert“ habe, schrieb Dr. Jörg Rothermel, beim deutschen Verband der Chemischen Industrie (VCI) unter anderem zuständig für Klimaschutz und Energiepolitik, in einer Bewertung der rot-grünen Ziele für einen „Klimaschutz nach 2012“. Die EU-Mitgliedsländer, die derzeit ein nennenswertes Wirtschaftswachstum zu verzeichnen haben (wie Spanien, Irland, Dänemark oder Österreich) liegen inzwischen so weit über den von der EU in Kioto eingegangenen Selbstverpflichtung, dass schon jetzt ausgeschlossen werden kann, dass sie bis 2008/2012 noch die Kurve kriegen.

Sollte es wider Erwarten gelingen, auch die wenigen anscheinend Kioto-konformen, weil wirtschaftlich stagnierenden EU-Länder wie Deutschland und Frankreich wieder auf einen Wachstumspfad zu bringen, könnte man die Kioto-Ziele auf jeden Fall vergessen. Der EU, die sich in Sachen „Klimapolitik“ als Lehrmeister der Welt aufspielt, drohen übrigens im Falle des Verfehlens der Kioto-Ziele Strafen. Sie müsste sich dann in einem „Kioto-zwei“-Abkommen zu weitaus drastischeren Reduktionszielen verpflichten und könnte sogar vom weltweiten Emissionshandel ausgeschlossen werden – und damit von vergleichsweise kostengünstigen Clean-Development-Mechanism-Deals wie etwa Aufforstungsmaßnahmen in Entwicklungsländern.

Gerade auf einen Ausbau des internationalen Emissionshandels setzt jedoch Carsten Kreklau vom BDI. Er lässt jedoch im Unklaren, wie das inzwischen in Kraft getretene Europäische Emissionshandels-Schema (ETS), das auf den festen quantitativen Kioto-Verpflichtungen der EU und ihrer Mitgliedsstaaten aufbaut und somit nichts anderes als ein Rationierungssystem darstellt, in einen offenen Markt ohne absolute Emissionsziele überführt werden könnte.

Schon wenige Monate nach dem Start des ETS zeichnet es sich ab, dass es die EU in eine Sackgasse führen wird. Lag der an der Leipziger Strombörse EEX gehandelte Zertifikat-Preis für eine Tonne CO2 zu Beginn dieses Jahres noch unter sieben Euro, so ereichte er im Sommer kurzfristig schon 29 Euro und pendelte dann um 20 Euro, das heißt etwa auf dem doppelten des ursprünglich von der EU-Kommission für die erste Handelsperiode geschätzten Niveaus. Dadurch wird offenbar, dass dieser Preis nicht einfach vom Verhältnis zwischen Angebot und Nachfrage bestimmt wird, sondern von den Kosten des Umstiegs von Kohle auf Gas bei der Elektrizitätserzeugung. Darauf wies Seb Walhain von der Fortis-Bank (nach einer Meldung von Reuters) schon im Juni hin.

Wäre Erdgas, wie noch vor einem Jahrzehnt, relativ billig, wäre es für die Stromkonzerne ein Leichtes, den Kioto-Verpflichtungen nachzukommen, da Gaskraftwerke je Kilowattstunde nur höchstens halb so viel CO2 ausstoßen. Doch inzwischen ist der Gaspreis wegen der großen Nachfrage so weit gestiegen, dass Kohlekraftwerke selbst bei Berücksichtigung ihres zusätzlichen Bedarfs an CO2-Zertifikaten wieder billigeren Strom produzieren. Der bereits einmal erreichte Zertifikatpreis von 29 Euro liegt nach Ansicht von Analysten in der Nähe des Niveaus, oberhalb dessen sich ein Umstieg von Kohle auf Gas lohnt. Täten das aber viele Kraftwerksbetreiber gleichzeitig, würde der Gaspreis aufgrund der großen Nachfrage rasch so stark ansteigen, dass sich wieder ein Vorteil für Kohle ergäbe.

Also müssen sich die deutschen Stromkonzerne mit zusätzlichen Zertifikaten eindecken und auch die Zertifikate, die ihnen beim Start des ETS gratis zugeteilt wurden, entsprechend den steigenden Marktpreisen in ihren Kalkulationen berücksichtigen. Nach einer Schätzung des schweizerischen Finanzkonzerns UBS (zitiert im Wall Street Journal vom 10. August) ist die Einpreisung von CO2-Zertifikaten in Deutschland für einen 15-prozentigen Anstieg der Strompreise seit dem Start des ETS verantwortlich. Und das ist vermutlich erst der Anfang. Die Financial Times hat schon am 23. Mai dieses Jahres vor einem baldigen Anstieg des CO2-Zertifikat-Preises auf 40 Euro gewarnt. Denn wenn es sich herumspricht, dass die EU ihr bescheidenes CO2-Ziel weit verfehlen wird, kann der Markt nur in diesem Sinne reagieren. Einen Ausweg böte eine stärkere Nutzung von Atomenergie bzw. die Aufkündigung des deutschen „Atomausstiegs-Konsenses“, der jetzt im deutschen Bundestagswahlkampf von den Kandidaten der Opposition angeboten wurde.

Ende August hat es die Frankfurter Allgemeine Sonntagszeitung endlich gewagt, ihren Lesern reinen Wein über die Zukunftsperspektiven des Kioto-Prozesses einzuschenken, indem sie einen Text von Lord Dick Taverne übersetzte, in dem dieser unter der Überschrift „Vergesst Kioto!“ die Gründe für die zitierte Initiative des britischen Oberhauses anlässlich des G-8-Gipfels darlegt. Lord Taverne kommt darin zu dem vernichtenden Urteil: „Der Kioto-Prozess ist eine bemerkenswerte Übung darin, sich und der Welt etwas vorzumachen. Stufe 1 wird keinen messbaren Effekt auf die Klimaentwicklung haben. Weder Amerika noch Indien oder China…haben vor, sich an den Stufen 1 oder 2 zu beteiligen. Man muss kein Wirtschaftsnobelpreisträger sein, um einzusehen, warum das Kioto-Protokoll in der Liste der Programme zur Lösung globaler Krisen ganz nach unten rutschen sollte.“

Angesichts dieser Entwicklung haben die Verbände sämtlicher energieintensiver deutscher Industriezweige (darunter an führender Stelle der VCI), die mit einem Bedarf von 100 Terawattstunden Strom und 200 TWh Gas etwa ein Viertel der gesamten deutschen Energienachfrage auf sich vereinigen, Anfang September in einer gemeinsamen Erklärung einen „Richtungswechsel in der deutschen und europäischen Klimapolitik“ gefordert. Deutschland und die EU müssten ihre Alleingänge aufgeben und nach einem internationalen Abkommen streben, das die USA, China und Indien einschließt. Konkret plädieren die Verbände für eine Verlängerung der Restlaufzeit deutscher Atomkraftwerke und für transparente, kostensenkende Wettbewerbsbedingungen auf dem Strommarkt. Des weiteren regen sie eine deutliche Absenkung der Förderung „erneuerbarer“ Energien und eine weitergehende Entlastung energieintensiver industrieller Prozesse wie Elektrolysen, mineralogische und metallurgische Verfahren von der Ökosteuer entsprechend der EU-Energiesteuerrichtlinie an. „Energiepolitik muss wieder Standortpolitik werden!“, fordern die Industrieverbände von der aus den Wahlen vom 18. September hervorgehenden neuen deutschen Bundesregierung.

Edgar Gärtner

Kasten:

Die Musik spielt im Ozean

Selbst wenn es gelänge, alle menschengemachten Emissionen von „Treibhausgasen“ sofort zu stoppen, würde die globale Erwärmung – so sie denn real ist – mindestens noch ein halbes Jahrhundert lang ungebremst fortschreiten. Zu dieser Schlussfolgerung kamen im letzten halben Jahr unabhängig voneinander mehrere im Magazin Science veröffentlichte Aufsätze der führenden US-Klimaforscher Gerald Meehl, Tom Wigley und James Hansen. Der Grund dafür ist die große thermische Trägheit der Ozeane, die 71 Prozent der Erdkugel bedecken. Schon eine lediglich 10 Zentimeter dicke Schicht Meerwasser speichert mehr Wärme, als der atmosphärische Treibhauseffekt, entsprechend den „offiziellen“ Klimamodellen, überhaupt produzieren könnte. Deshalb hat der kalifornische Ozean-Physiker Tim Barnett schon vor einiger Zeit darauf hingewiesen, dass die Atmosphäre der am wenigstens geeignete Ort ist, um nach einem Signal der globalen Erwärmung zu suchen. Die Musik spielt im Ozean.

Dieser scheint nach den oben zitierten Forschern in den letzten jahrzehnten tatsächlich wärmer zu werden. Der Streit dreht sich nun um die Frage, woher die zusätzliche Wärme stammt. James Hansen ist sich sicher, dass der menschengemachte zusätzliche Treibhauseffekt dahinter steckt. Doch sein NASA-Kollege Bruce Wielicki glaubt in einer im Mai dieses Jahres ebenfalls in Science veröffentlichten Studie über Veränderungen des asiatischen Monsun nachgewiesen zu haben, dass die in den letzten Jahrzehnten deutlich gestiegene Kraft der Sonne entscheidend war.

Wie dem auch sei, es ist völlig klar, dass das die Umsetzung des Kioto-Protokolls und selbst eines „Kioto 2“ außer einer wirtschaftlichen Verarmung nichts bewirken würde. Der Analyst Charles Dumas vom Londoner Lombard Street Research hat vor kurzem auf der Basis der Arbeiten über die thermische Trägheit der Ozeane vorgerechnet, die Industrieländer müssten mindestens die Hälfte ihres Bruttosozialproduktes opfern, um mit Klimapolitik etwas bewirken zu können. Kein Wunder, dass unterschiedliche Hypothesen über die Ursachen des Klimawandels in der Auseinandersetzung um die Zukunft des Kioto-Protokolls kaum noch eine Rolle spielen. Den Menschen bleibt gar nichts anderes übrig, als sich an den Klimawandel anzupassen, zumal dieser neben den oft als Argument für „Kioto“ ins Feld geführten negativen auch angenehme Seiten haben kann. eg

(veröffentlicht in: Chemische Rundschau (VS/H-Medien, CH-Soluthurn) Nr. 9/2005 v. 20.9.2005)

Klimaforschung und Politik

Verhielt sich die Industrie nicht kurzsichtig, als sie sich den Warnungen vor einer drohenden „Klimakastrophe“ unhinterfragt anschloss?

Die „Klimapolitik“ (wir setzen diesen Ausdruck bewusst in Anführungszeichen!) begann nicht erst mit der Verabschiedung des „Rahmenübereinkommens der Vereinten Nationen über Klimaänderungen“ (Klimakonvention) auf der VN-Konferenz über Umwelt und Entwicklung (UNCED) vor zehn Jahren in Rio de Janeiro und dem darin festgelegten Ziel einer „Stabilisierung der Treibhausgaskonzentrationen in der Atmosphäre auf einem Niveau…, auf dem eine gefährliche anthropogene Störung des Klimasystems verhindert wird.“ Vielmehr besiegelten die auf dem „Erd-Gipfel“ von Rio von über 170 Regierungsdelegationen angenommenen Erklärungen und Aktionsprogramme einen Prozess der Neubestimmung des Verhältnisses von Politik und Wissenschaft, deren Wurzeln bis zum Ende der 60er Jahre des vergangenen Jahrhunderts, das heißt bis in die Zeit des Kalten Krieges zwischen dem individualistisch-marktwirtschaftlich orientierten Westen und dem kollektivistischen Ostblock zurückreichen. Die damals im Rahmen des atlantischen Militärbündnisses NATO beschlossene „Nutzbarmachung wissenschaftlicher Erkenntnisse bei der politischen Entscheidungsbildung“, bei der die Bundesrepublik Deutschland die Rolle des „Musterlandes“ spielte, bestätigt die alte Erkenntnis, dass verfeindete Lager einander ähnlicher werden, wenn sie ihre Kräfte messen.

Anfang April 1969 hob der damalige US-Präsident Richard Nixon anlässlich des 20. Jahrestages der Unterzeichnung des Nordatlantikvertrages die sogenannte „Dritte Dimension“ der NATO aus der Taufe, und zwar mit der Begründung, dass „das westliche Bündnis“ (neben der militärischen und politischen) „eine soziale Dimension benötigt, um sich mit unseren Besorgnissen über die Qualität des menschlichen Lebens im letzten Drittel dieses Jahrhunderts zu befassen.“ Nixon verstand die „Dritte Dimension“ der NATO als Antwort auf die Infragestellung des westlichen Nachkriegs-Wirtschaftswunder-Konsenses durch die Studentenbewegung von 1968 und die wachsende Opposition gegen den Vietnam-Krieg und dessen soziale Folgen. Diese Protestbewegung erscheint im Rückblick als eine Art Betriebsunfall des Kalten Krieges.

Noch im Dezember 1969 trat das NATO Committee on Challenges of Modern Society (CCMS) zu seiner konstituierenden Sitzung zusammen. 1971 veröffentlichte das NATO-Hauptquartier in Brüssel die programmatische Schrift „Das Atlantische Bündnis und die Umweltkrise“. Dort wurde der seit 1958 auf dem erloschenen Vulkan Mauna Loa auf Hawai gemessene kontinuierliche Anstieg des CO2-Gehaltes der Atmosphäre erstmals zum vordringlichen Umweltproblem erklärt – und zwar zu einer Zeit, als die Geowissenschaftler noch nahezu einhellig den nahenden Beginn einer neuen Eiszeit fürchteten. Es heißt dort: „Die Atemluft des Menschen wird durch etwa 12 Milliarden Tonnen Kohlendioxyd verseucht, die jedes Jahr von unserer Industriegesellschaft freigesetzt werden. Etwa die Hälfte dieser Menge bleibt permanent in der Luft. Es ist damit zu rechnen, dass der Kohlendioxydgehalt der Luft sich bis zum Jahre 2000 um 25 Prozent erhöht haben wird. (…) Die genauen Auswirkungen sind noch ungewiss, jedoch erscheint eine Verschiebung der durchschnittlichen Temperatur der Erde um mehrere Grad durchaus vorstellbar.“

Offenbar bezieht sich die Broschüre dabei auf den Bonner Geophysiker Hermann Flohn, der als Mitglied des NATO-Wissenschaftsausschusses eine 1896 vom schwedischen Chemiker Svante Arrhenius als Erklärung für die Entstehung der Eiszeiten aufgestellte Hypothese neu in die Diskussion gebracht hatte. Arrhenius vermutete, die Durchschnittstemperatur der Erde hänge in erster Linie von der CO2-Konzentration einer „Strahlungsschicht“ in sechs Kilometern Höhe ab, die durch „Gegenstrahlung“ reflektierter Sonnenenergie dafür sorge, dass die mittlere Temperatur der Erdoberfläche nicht der eines „schwarzen Strahlers“ (nach Stefan-Boltzmann) von minus 18 Grad entspricht, sondern plus 15 Grad Celsius beträgt. Verdoppele sich die CO2-Konzentration, steige der durchschnittliche Temperatur um 4 bis 6 °C. Sinke hingegen die CO2-Konzentration, komme es zur Abkühlung der Erdoberfläche und letztlich zu einer Eiszeit. Mit dieser Hypothese konnte Arrhenius um die vorletzte Jahrhundertwende niemanden überzeugen, weil sie nicht erklären konnte, wie eine einmal eingetretene Eiszeit zu einem Ende kommen konnte. Den Nobelpreis für Chemie bekam er 1903 für ganz andere Leistungen. Gegen Ende der 30er Jahre des 20. Jahrhunderts grub dann der englische Ingenieur Gay Stewart Callendar die zwischenzeitlich völlig in Vergessenheit geratene Hypothese wieder aus und versuchte mit einigem Erfolg, ihr mit dem Hinweis auf Arrhenius’ Nobelpreis Autorität zu verleihen. Über Callendar gelangte die Treibhaus-Hypothese noch in den 40er Jahren an Hermann Flohn.

Kasten

Auch wenn sie über das abstruse Postulat einer „Strahlungsschicht“ nur den Kopf schütteln können, akzeptieren viele mit Klimafragen befassten Naturwissenschaftler bis heute Arrhenius’ Herleitung des „natürlichen Treibhauseffektes“ von 33 °C, weil sich bis in die jüngste Zeit offenbar niemand die Mühe machte, seine Originalarbeit zu lesen. Das taten aber der Mainzer Meteorologe Wolfgang Thüne sowie der Braunschweiger Physiker Prof. Gerhard Gerlich und stellten dabei fest, dass Arrhenius grobe Rechenfehler unterlaufen sind. Akzeptiere man dessen Prämissen, so Thüne, gelange man nicht zu einer „Strahlungsgleichgewichtstemperatur“ von –18 °C. Thüne bestreitet allerdings, dass man die Erde überhaupt nach Stefan Boltzmann als punktförmigen schwarzen Körper in einer ebenfalls schwarzen Hohlkugel, mit der er im „Strahlungsgleichgewicht“ steht, betrachten kann, denn dann müssten Erde und Sonne die gleiche Temperatur haben.

Die Temperaturunterschiede zwischen der Erde und ihrem Trabanten, dem Mond, sind nach Thüne nicht in erster Linie die Folge des Gehaltes der irdischen Atmosphäre an Wasserdampf und anderen „Treibhausgasen“, sondern des viel rascheren Wechsels von Tag und Nacht (der Mond braucht für eine Umdrehung 772, die Erde hingegen nur 24 Stunden) sowie des Besitzes großer Wassermassen, die 71 Prozent ihrer Oberfläche bedecken. Das Wasser speichert große Mengen der eingestrahlten Sonnenwärme, und die Kürze der Nächte in den polfernen Regionen der Erde verhindert deren Auskühlung über das offene „atmosphärische Fenster“ zwischen 8 und 13,5 Mikrometer Wellenlänge, in der keines der in der Atmosphäre enthaltenen „Treibhausgase“ Infrarotstrahlen absorbiert. Wären auf der Erde die Nächte länger und fehlte Wasser, wäre es hier so kalt oder so warm wie auf dem Mond, vermutet Thüne. eg

Literatur: Wolfgang Thüne: Freispruch für CO2. Wie ein Molekül die Phantasien von Experten gleichschaltet. edition steinherz, Wiesbaden 2002, ISBN 3-9807378-1-0

Der transatlantischen Zusammenarbeit im Rahmen der „Dritten Dimension“ der NATO ist es im wesentlichen zuzuschreiben, dass zu Beginn der 70er Jahre des 20. Jahrhunderts in allen westlichen Industrieländern gleichzeitig in größter Eile Umweltschutz-Programme nach dem Muster des am 1. Januar 1970 von der Nixon-Regierung verkündeten „National Environment Policy Act“ verabschiedet wurden.

Es ging dabei im Grunde darum, das systemkritische Potential der Studentenrevolte dadurch zu entschärfen, dass man es auf die Schiene umwelt- bzw. soziotechnischer Verbesserungen der „Lebensqualität“ in den Industrieländern lenkte. Aus diesem Grunde wurde Umweltpolitik überall nicht parteipolitisch, sondern überparteilich „systemanalytisch“ begründet. Diesen Zweck erfüllte am besten die vom Club of Rome 1972 veröffentlichte Computersimulationsstudie „Die Grenzen des Wachstums“. Gleichzeitig hofften die NATO-Strategen, den Kalten Krieg durch die Politik des „Brückenschlages“ zum Ostblock auf ein für den Westen günstigeres Terrain verlagern zu können. Das heutige Verständnis von globaler Ökologie ist somit ein Kind des Kalten Krieges.

Dabei spielte die Angst vor einer drohenden Überhitzung unseres Planeten infolge eines menschengemachten „zusätzlichen Treibhauseffektes“ zunächst nur eine untergeordnete Rolle. Zwar schienen Dürren und Ernteausfälle in den USA die Warnungen vor einer Überhitzung der Erde zu bestätigen. Bis weit in die 70er Jahre des 20. Jahrhunderts blieb jedoch unter den Gelehrten die Furcht vor einer neuen Eiszeit vorherrschend, obwohl sich einzelne Forscher wie etwa der US-Klimahistoriker Stephen Schneider zum „Treibhaus“-Glauben bekehrten.

Das änderte sich erst in der zweiten Hälfte der 80er Jahre. Ende Januar 1986 stellte der Arbeitskreis Energie (AKE) der Deutschen Physikalischen Gesellschaft (DPG) der Presse in Bonn ein Papier mit dem Titel „Warnung vor einer drohenden Klimakatastrophe“ vor. Darin malt die von den Physikprofessoren Fricke (Würzburg) und Heinloth (Bonn) angeführte Gruppe in düstersten Farben die Überschwemmung dicht besiedelter Küstenregionen infolge des Abschmelzens polaren Eises durch eine erwartete Temperaturerhöhung von bis zu 8°C aus. (Das Wochenmagazin der „Der Spiegel“ berichtete darüber unter dem Titel „Tod im Treibhaus“.) Mit dieser für einen wissenschaftlichen Verein ungewöhnlichen Dramatisierung dachten die Physiker der Atomindustrie einen Gefallen zu tun. So ging die „skeptische Phase“ des politischen Klima-Diskurses zu Ende, die der Bielefelder Wissenschaftssoziologe Prof. Peter Weingart zwischen 1975 und 1985 ansetzt.

Es folgte die Phase des „Katastrophismus“, die bis zum „Erd-Gipfel“ von Rio reichte. Massenmedien, allen voran „Der Spiegel“ vom 11. August 1986 mit dem halb in den Nordseefluten versunkenen Kölner Dom auf dem Cover, griffen die Warnungen der Physiker auf und machten daraus eingängige Stories, die bewusst an der verbreiteten Urangst vor der Sintflut als Strafe Gottes anknüpften. Im Herbst 1987 setzte der deutsche Bundestag die Enquête-Kommission „Vorsorge zum Schutz der Erdatmosphäre“ ein. Diese hielt eine Reduktion der CO2-Emissionen um 30 Prozent für machbar. Im Jahre 1990 gab dann die deutsche Bundesregierung unter Helmut Kohl ihre vielzitierte einseitige Selbstverpflichtung zu einer 25-prozentigen CO2-Reduktion bis 2005 bekannt. Zu dieser Zeit sprachen alle im Bundestag vertretenen Parteien nur noch von der nahenden „Klimakatastrophe“. Der im angelsächsischen Sprachraum etablierte Terminus „climate change“ erschien ihnen als Verharmlosung.

Auch in den USA kam es zu einer gewissen Dramatisierung des Klima-Diskurses, als James Hansen, Direktor des NASA Goddard Institute for Space Studies, vor einem Ausschuss des Senats erklärte, es sei zu 99 Prozent sicher, „dass der Treibhauseffekt nachgewiesen und unser Klima bereits verändert ist.“ Hansens Aussage gab mit den Ausschlag für die Gründung des internationalen Klima-Schiedsgerichts IPCC durch die World Meteorological Organization (WMO) und das UN Umweltprogramm (UNEP).

So schien es dem US-Senator und Präsidentschaftsanwärter Al Gore naheliegend, in seinem pünktlich zum Rio-Gipfel erschienen Bestseller „Earth in Balance“ zu fordern, die drohende Klimakatastrophe nach dem Zusammenbruch des Ostblocks zum Ersatz-Feindbild des Westens zu machen. Die Rhetorik von der „einen Welt“, deren Ressourcen (einschließlich des Konstrukts „Weltklima“) rationell verwaltet werden sollten, beherrschte denn auch den „Erd-Gipfel“. Niemand fragte, ob es – angesichts der Geburt der Global-Ökologie aus dem Kalten Krieg – überhaupt noch angebracht war, die Einheit der Welt zu beschwören, sobald deren Zweiteilung in Ost und West überwunden war. Das taten erst ein Jahrzehnt danach die Berater des neuen US-Präsidenten George W. Bush.

Dennoch markiert die Rio-Konferenz das Ende des „Katastrophismus“. Aus der Herkules-Aufgabe „Abwendung der nahenden Apokalypse“ wurde eine Routineaufgabe der politischen Regulierung, die, entsprechend dem „Drei-Säulen-Modell“ der Nachhaltigkeit, mit anderen wirtschaftlichen und sozialen Aufgaben wetteifern musste. Nun wurden notgedrungen sehr viel kleinere Brötchen gebacken. Schon die 2. Konferenz der Unterzeichnerstaaten der Klimarahmenkonvention, die im März 1995 in Berlin stattfand, löste ein deutlich geringeres Medienecho aus.

Der „Katastrophen-Konsens“, zu dem es bei den Naturwissenschaftlern ohnehin nur scheinbar gekommen war, weil ihre Mehrheit schwieg, begann nun auch in den Medien zu bröckeln. Der Führung des IPCC gelang es nur mithilfe von Manipulationen, in das „Summary for Policymakers“ des für die Kyoto-Konferenz Ende 1997 ausschlaggebenden 2. IPCC-Berichts (John T. Houghton et al.: Climate Change 1995, Cambridge University Press 1996) die Aussage zu bringen: “In the light of new evidence and taking into account the remaining uncertainties, most of the observed warming over the last 50 years is likely to have been due to the increase in greenhouse gas concentrations.” Doch im Innern des dicken Berichts steht im Gegenteil, keine der zitierten Studien habe die beobachtete Erwärmung auf den Einfluss von „Treibhausgasen“ zurückführen können. In der Tat häuften sich in den 90er Jahren Arbeiten, die den Einfluss der „Treibhausgase“ erheblich geringer ansetzten als den der Solarzyklen und anderer natürlicher Klimaschwankungen. Außerdem konnten präzisere Satelliten-Messungen den in den letzten Jahrzehnten von etwa 1300 ungleich verteilten terrestrischen Mess-Stationen im Mittel registrierten leichten Temperaturanstieg nicht bestätigen. Kurz vor der Kyoto-Konferenz im Dezember 1997 brachte sogar „Der Spiegel“ einen Artikel mit dem Titel: „Der Weltuntergang fällt aus.“

Hätten sich Diplomaten und Wissenschaftler in Kyoto nicht noch im letzten Moment in einer ermüdenden Nachtsitzung auf einen mageren Kompromiss einer globalen CO2-Reduktion von 5,2 Prozent bis 2010 geeinigt, wäre es um die „Klimapolitik“ wohl endgültig geschehen gewesen. Das zeigt der Ausgang der Kyoto-Folgekonferenzen in Den Haag, Bonn und Marrakesch, in denen das CO2-Reduktionsziel durch die mehr als großzügige Anerkennung hypothetischer „Kohlenstoff-Senken“ noch weiter nach unten korrigiert wurde. Die Beschlüsse von Kyoto und Marrakesch – da sind sich alle Experten einig – werden keinen messbaren Einfluss auf die Temperaturkurve der Erde haben. Trotzdem hatten die „Klimaschützer“ in Politik, Wissenschaft und Wirtschaft allen Grund zum Jubeln. Denn die Beschlüsse von Marrakesch machen den Weg frei für das Milliardengeschäft des Emissionshandels. Verdienen dürfte daran hauptsächlich die Groß-Finanz, während die Industrie und ihre Beschäftigten die Zeche zahlen müssen.

Nach Ansicht des Wissenschaftssoziologen Peter Weingart verdeutlicht die Geschichte der „Klimapolitik“ die Grenzen und Risiken des naiv-rationalistischen Modells wissenschaftlicher Politikberatung. Das größte Risiko ist offenbar das der Verselbständigung scheinbar naturwissenschaftlich begründeter politischer „issues“. In einem Empfehlungspapier zur „Verbesserung der Kommunikation zwischen Wissenschaft, Politik und Medien, insbesondere im Hinblick auf die Wahrnehmung der Klimaforschung“, an dem Weingart maßgeblich mitgearbeitet hat, erklärt der Sachverständigenkreis des deutschen Bundesministeriums für Bildung und Forschung (BMBF) für Globale Umweltaspekte unter Vorsitz des Essener Physikochemikers Prof. Reinhard Zellner, „herkömmliche rationalistische Vorstellungen vom Primat wissenschaftlichen Wissens“ seien überholt. „Die Nachfrage der Politik nach gesichertem Wissen“, schreiben die Sachverständigen, „zwingt die Wissenschaft zu Aussagen, die immer stärker durch Nichtwissen gekennzeichnet sind. Die von der Sicherheit wissenschaftlicher Aussagen erwartete Legitimierung politischer Entscheidungen schlägt in ihr Gegenteil um.“ Dem ist nichts hinzuzufügen.

Edgar Gärtner

Zeittafel

1971: Die NATO erklärt die drohende Erwärmung der Erdatmosphäre infolge der steigenden CO2-Konzentration zum vordringlichen Umweltproblem.

1975: Die American Association for the Avancement of Science (AAAS) schließt sich auf ihrer Jahreskonferenz erstmals den Warnungen vor einer globalen Erwärmung an.

1986: Der Arbeitskreis Energie (AKE) der Deutschen Physikalischen Gesellschaft (DPG) erringt mit ihrer „Warnung vor einer drohenden Klimakatastrophe“ die Aufmerksamkeit der Massenmedien.

1987: Die Deutsche Meteorologische Gesellschaft (DMG) schließt sich der Warnung des AKE an, ersetzt aber das Schlagwort „Klimakatastrophe“ durch den sachlicheren Terminus „Klimaänderungen“.

1988: James Hansen, der Direktor des New Yorker Goddard Institute for Space Studies der NASA, erklärt vor einem Ausschuss des US-Senats, mit „99-prozentiger Sicherheit“ sei nachgewiesen, dass der „menschengemachte Treibhauseffekt unser Klima bereits verändert.“ Darauf hin gründen die World Meteorological Organization (WMO) und das UN-Umweltprogramm (UNEP) das International Panel on Climate Change (IPCC).

1991: Die dänischen Physiker Friis-Christensen und Lassen weisen in „Science“ auf auffällige Parallelen zwischen dem Sonnefleckenzyklus und der Entwicklung der mittleren Temperatur über den Landmassen der Erde hin.

1992: Die UN-Konferenz über Umwelt und Entwicklung (UNCED) in Rio de Janeiro verabschiedet das „Rahmenübereinkommen der Vereinten Nationen über Klimaänderungen“ (Klimakonvention).

1995: Auf der 2. Vertragsstaatenkonferenz der Klimakonvention in Berlin profiliert sich Deutschland erneut als Vorreiter des „Klimaschutzes“. International bindende Beschlüsse kommen nicht zustande.

1996: Der IPCC veröffentlicht seinen 2. Bericht. In seinen politischen Empfehlungen steht der vielzitierte Satz: „The balance of evidence suggests a discernible human influence on globale climate.“

1997: Die 3. Vertragsstaatenkonferenz der Klimakonvention in Kyoto einigt sch in letzter Minute auf bescheidene völkerrechtlich verbindliche Vorgaben für die Verminderung des Ausstoßes von CO2 und fünf weiterer „Treibhausgase“.

1999: Ein Statusreport führender Klimaforscher, angeführt von den Professoren Tim Barnett und Klaus Hasselmann, kommt zum Schluss, das „anthropogene Signal“ in der Klimaentwicklung sei nicht auszumachen.

2000: James Hansen widerruft seine Aussage von 1988. Eine Gruppe deutscher Geowissenschaftler unter Ulrich Berner und Hansjörg Streif veröffentlicht die Synthese „Klimafakten“, aus der hervorgeht, dass der Einfluss des CO2 auf die mittlere Temperatur der Erde um zwei Größenordnungen geringer ist als der der Sonnenzyklen. Die 6. Klimakonferenz in Den Haag wird im November ohne Ergebnis abgebrochen.

2001: Der neue US-Präsident George W. Bush kündigt in einem Brief vom 13. März an die Senatoren Craig, Hagel, Helms und Roberts den Ausstieg der USA aus dem „Kyoto-Prozess“ an. Durch die Erhöhung seiner Treibhaus-Erwärmungs-Hochrechnung auf bis zu 5,8 °C bis zum Ende des Jahrhunderts versucht der IPCC in seinem 3. Bericht die Kyoto-Beschlüsse zu retten.. Die Klimakonferenz von Den Haag wird im Juli in Bonn fortgesetzt. Zu einer Einigung kommt es schließlich erst im November in Marrakesch. Schon vor dem „Klima-Gipfel“ von Marrakesch schlägt die EU-Kommission ein rationierendes System der „Luftbewirtschaftung“ mithilfe handelbarer „Treibhausgasemissionsberechtigungen“ vor.

(erschienen Ende 2002 in „Chemische Rundschau“, CH-Solothurn)

Ist CO2 wirklich ein Problem?

Es ist nicht möglich, experimentell und statistisch nachzuweisen, dass der Anstieg des CO2-Gehaltes der Luft die Hauptursache der im 20. Jahrhundert registrierten leichten Erhöhung der globalen Durschnittstemperatur ist. Anfang der 40er Jahre wurden in Deutschland schon einmal höhere CO2-Konzentrationen gemessen als heute. Zwei Naturwissenschaftler demonstrieren, dass das keine Ausreißer waren.

Ist CO2 wirklich ein Problem? von Edgar L. Gärtner

Der CO2-Gehalt der Luft war auch früher keineswegs konstant

Nach dem APEC-Wirtschaftsforum in Singapur rechnet kaum noch jemand mit der Verabschiedung eines Kyoto-Nachfolge-Abkommens auf dem UN-Klima-Gipfel in Kopenhagen. Die EU-Regierungen, die sich in Sachen „Klimaschutz“ weit aus dem Fenster gelehnt haben, fürchten eine Blamage und mobilisieren nun ihr letztes Aufgebot, um noch ihr Gesicht wahren zu können. So hat Angela Merkel angekündigt, nun doch nach Kopenhagen fahren zu wollen – komme, was wolle. Aber das absehbare Scheitern der Mammut-Konferenz gilt beileibe nicht überall als schlechte Nachricht. Es gibt Wissenschaftler, die die Ansicht des von der UN eingesetzten „Weltklimarates“ IPCC, die Menschheit müsse einen weiteren Anstieg der Konzentration des Spurengases Kohlenstoffdioxid in der Luft um beinahe jeden Preis stoppen, nicht teilen.

Der IPCC stützt seine Warnung vor einer Überhitzung unseres Planeten auf kontinuierliche photoakkustische CO2-Messungen auf dem Hawaii-Vulkan Mauna Loa seit 1958. Dieser Standort wurde gewählt, weil man annahm, dort die von Großstädten und Industrien unbeeinflusste CO2-Hintergrund-Konzentration messen zu können. Allerdings erwies sich auch dieser Archipel nicht als unproblematisch, weil man dort die Ausgasungen des Vulkans aus den Roh-Messwerten herausrechnen musste. Die so erhaltenen CO2-Werte folgen einer stetig ansteigenden Zickzack-Kurve, die dem Wechsel zwischen Sommer und Winter auf der Nordhalbkugel folgt. Al Gore begründet mit dieser Kurve auf seiner rund um den Globus in vielen Schulen verwendeten PowerPoint-DVD die Forderung nach einer drastischen Einschränkung technischer CO2-Emissionen mithilfe des Emissionshandels.

Wie sah diese Kurve aber vor 1958 aus? Der IPCC behauptet, man könne sie vom aktuell erreichten Höchstwert von 388 ppm (parts per million)nach hinten bis ins 19. Jahrhundert verlängern bis zu einem vorindustriellen “Normalwert” von etwa 280 ppm. Dabei geht das Gremium stillschweigend davon aus, dass es vor 1958 nur wenige präzise und repräsentative Messungen des CO2-Gehaltes der Luft gab. In Wirklichkeit gab es schon hundert Jahre vor der Entwicklung elektronischer Messgeräte durchaus präzise chemische Methoden für die Bestimmung des CO2-Gehaltes der Luft. Im Jahre 2007 hat der Freiburger Biologielehrer Ernst Georg Beck unter dem Titel „180 Years accurate CO2-Gasanalysis of Air by Chemical Methods“ im engelischen Magazin “ENERGY & ENVIRONMENT” (Volume 18, No. 2/2007) Zigtausende von älteren CO2-Bestimmungen ausgewertet und gezeigt, dass um 1940 in Mittelhessen (Gießen) höhere CO2-Konzentrationen gemessen wurden als heute.

Sofort kam von etablierten Klimaforschern der Einwand, diese lokalen Messwerte seien wohl nicht repräsentativ für den globalen Trend. Deshalb hat Beck kürzlich auf dem Kongress „Klima 2009“ zusammen mit seinem Luxemburger Kollegen Francis Massen eine Formel vorgestellt, mit deren Hilfe sich aus lokalen CO2-Messwerten die Hintergrundkonzentration zuverlässig errechnen lässt, indem die jeweils vorherrschenden Windgeschwindigkeiten berücksichtigt werden. Die beiden bekamen für ihre Präsentation übrigens den Best Paper Award. Es ist nun klar, dass die älteren CO2-Messungen, sofern die methodisch korrekt gewonnen wurden, keineswegs verworfen werden können. Da diese große Schwankungen anzeigen, ist die von der großen Politik zum Dogma erhobene Vermutung, der steigende CO2-Gehalt der Luft sei hauptverantwortlich für den im vergangenen Jahrhundert gemessenen leichten Anstieg der bodennahen Durchschnitttemperatur über den Landmassen Erde nicht mehr haltbar. (17. November 2009)

Internet:

Der asiatisch-pazifische Anti-Klima-Gipfel

Die Angst vor einem Scheitern des Klimagipfels wächst

Die Klimakanzlerin fährt nach Kopenhagen

Beck & Massen: Berechnung der CO2-Hintergrundkonzentration auf der Grundlage lokaler bodennaher Messungen

========================================================================================

Es gibt keine Alternative zur Anpassung an den Klimawandel

Von Edgar L. Gärtner

Geologen halten das Zwei-Grad-Limit für die Erderwärmung für baren Unsinn

Unsere Enkel und Urenkel, so es denn noch welche geben sollte, werden sicher einmal ungläubig den Kopf schütteln, wenn sie in Geschichtsbüchern lesen, für welche Scheinprobleme und ungelegten Eier ihre Vorfahren mitten in einer der schwersten Wirtschaftskrisen viele Milliarden Papier-Euros oder Dollars locker gemacht haben. Besonders belustigt wären sie wohl, wenn sie erführen, dass eine Weltkonferenz einmal allen Ernstes beschlossen hat, den Anstieg der bodennahen Durchschnittstemperatur über den Kontinenten auf genau zwei Grad Celsius zu begrenzen, indem sie ihr Leben einschränken. Doch gerade dieses Zwei-Grad-Ziel galt bislang in der großen Politik und in der politisch korrekten Privatwirtschaft als felsenfestes Dogma, von dem verschiedenste kostenträchtige Einzelmaßnahmen für den „Klimaschutz“ abgeleitet wurden. Nun haben es drei führende deutsche Geowissenschaftler in einem am 28. Oktober 2009 im Wissenschaftsteil der FAZ erschienen Interview erstmals gewagt, dieses Dogma öffentlich anzuzweifeln.

Es handelt sich um Karin Lochte, die Chefin des Alfred-Wegener-Instituts für Meeresforschung (AWI) in Bremerhaven, Volker Mosbrugger, Direktor des Senckenberg-Forschungsinstituts und Museums in Frankfurt am Main, und Reinhard Hüttl, Direktor des Deutschen Geoforschungszentrums (GFZ) in Potsdam. Als Geologen beziehungsweise Paläontologen wissen diese Wissenschaftler über die längerfristige Entwicklung der Klimate viel besser Bescheid als „Klimaforscher“, die nur mit Computermodellen hantieren. Keiner von den dreien zieht in Zweifel, dass die Konzentration des Atemgases Kohlenstoffdioxid (CO2) in der Luft einen beträchtlichen Einfluss auf die Entwicklung der Durchschnittstemperatur unseres Planeten hat. Sie wissen aber auch, dass es noch eine ganze Reihe weiterer Faktoren gibt, die die Klimaentwicklung beeinflussen. Eine Politik, die sich einseitig auf einen Faktor, das CO2, konzentriert, kann deshalb nicht vorgeben, die Klimaentwicklung in den Griff bekommen zu können. Die Menschen haben also keine andere Wahl, als sich dem Klimawandel, der auch ohne ihr Zutun abläuft, irgendwie anzupassen. Mosbrugger drückt das so aus: „Ich glaube, es wird wie immer in der Evolution Gewinner und Verlierer geben (…) und wer sich am besten adaptiert, ist langfristig Gewinner. Jetzt ausschließlich auf Emissionsreduktion zu setzen, ist unklug.“

Allerdings irrt Mosbrugger meines Erachtens gewaltig, wenn er davon ausgeht, die Anpassung an den Klimawandel erfordere ein globales „Erdsystemmanagement“ und damit auch so etwas wie eine Weltregierung. Denkt er ernsthaft, die Bewegung der viele Milliarden Tonnen schweren Platten der Erdkruste managen zu können? Und um wie viel schwieriger wäre erst ein Management der Klimaentwicklung, in die auch kosmische Faktoren eingreifen? Das wäre schlicht einige Nummern zu groß für uns Menschen und bedürfte geradezu göttlicher Kräfte und Fähigkeiten. In Wirklichkeit erfordert die Anpassung an den Klimawandel überhaupt keine globale Strategie. Man müsste nur den Menschen auf lokaler und regionaler Ebene die Freiheit lassen, selbst zu entscheiden, wie sie mit sehr unterschiedlichen positiven und negativen Folgen des Klimawandels umgehen wollen. Die UNO würde überflüssig. Das ist wohl der tiefere Grund für die Versteifung des „Weltklimarates“ IPCC und anderer UN-Gremien auf „Mitigation“ und die Vernachlässigung der „Adaptation“.

Internet:

FAZ: Ein Limit von zwei Grad Erderwärmung ist praktisch Unsinn

================================================================================

Die Sonne birgt noch etliche Überraschungen

Im Juli 2009 brachte die New York Times einen interessanten Überblick über den Stand der wissenschaftlichen Debatte über den Zusammenhang zwischen den Sonnenfleckenzyklen und der Entwicklung des irdischen Klimas. Führende Solarforscher geben zu, dass sie von einem Verständnis der Ursachen zyklischer Schwankungen des solaren Magnetfeldes noch weit entfernt sind. Zurzeit schließen einige Forscher nicht aus, dass die gegenwärtige unerwartet lange Ruhephase der Sonne auf der Erde zu einer Zunahme niedrig hängender Wolken und in deren Folge zu einem spürbaren Rückgang der globalen Durchschnittstemeperatur führt, die mit dem Dalton-Minimum in der ersten Hälfte des 19. Jahrhunderts vergleichbar ist. (21. Juli 2009)

=======================================================================

In einem peer-reviewed Artikel unter dem Titel „Falsification Of The Atmospheric CO2 Greenhouse Effects Within The Frame Of Physics“, in: International Journal of Modern Physics B, Vol. 23, No. 3 (30 January 2009), pp. 275-364 (World Scientific Publishing Co.) weisen die Mathematischen Physiker Gerhard Gerlich (TU Braunschweig) und Ralf D. Tscheuschner (Hamburg) nach, dass die „offizielle“ Treibhaustheorie zur Erklärung des Klimawandels „außerhalb jeglicher Wissenschaft“ liegt. (17. März 2009)

====================================================================

Politische Manipulation der Klimaforschung: Prof. Richard Lindzen vom MIT nennt Ross und Reiter

Der bekannte Atmosphärenphysiker Prof. Richard Lindzen vom Massachusetts Institute of technology (MIT) deckt in einem auf einem Vortrag beruhenden Artikel im Detail auf, wer für die politische Manipulation der Klimaforschung verantwortlich ist.

===========================================================

Inzwischen warnte auch FOCUS-online seine Leser vor einer uns möglicherweise bevorstehenden Kleinen Eiszeit. Es lässt sich nicht mehr verheimlichen, dass die Aktivität der Sonne in den letzten Jahren auf ein beunruihigendes Niveau abgesunken ist.

=============================================================

DIE WELT berichtet relativ sachlich über die Auseinandersetzungen zwischen meinem Freund Ernst Beck, Biologielehrer in Freiburg, und Prof. Stefan Rahmstorf vom Postdam Institut für Klimafolgenforschung (PIK). Während Ramstorf versucht, seine inquisitorischen Methoden gegenüber „Klimaskeptikern“ zu rechtfertigen, gibt sich Beck gelassen. Die begonnene Abkühlung der Erde werde den „Skeptikern“ gegenüber den Erwärmungshysterikern in den kommenden Jahren ohnehin recht geben.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

NASA sucht noch immer nach Sonnenflecken und verharmlost das Ausbleiben des 24. Sonnenzyklus

Nun haben amerikanische Forscher nachgewiesen, dass Abschwächungen des Sonnenzyklus zu einer Abkühlung des Atlantik und zu sinkender Niederschlagstätigkeit führt. (29. August 2008)

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Nachruf auf einen zu früh verstorbenen freien Mann, der wirklich etwas von Klima verstand von Edgar Gärtner

Heute am 13. August 2008 ist der französische Klimatologe Prof. Marcel Leroux, kaum emeritiert, in einem Marseiller Hospital von uns gegangen. Dass er nach der Entfernung einer Niere im Spätherbst des letzten Jahres auf einmal mit Metastasen zu kämpfen hatte, die in seinem Körper herumkreisten, war mir durchaus bekannt. Ich hatte darüber vor gut einer Woche noch mit seiner zweiten Frau Colette gesprochen. Doch während ich noch dabei war, einen Besuch am Krankenbett vorzubereiten, ereilte mich die Nachricht von seinem plötzlichen Ableben. Noch unter Schock, schreibe ich diese Zeilen.

Ich kannte Marcel noch gar nicht so lange. Vor gut zwei Jahren saß ich unter den Arkaden meiner Ferienresidenz in der Nähe einer anderen südfranzösischen Hafenstadt und las mit großem Interesse sein letztes großes Werk „Global Warming. Myth or Reality? The errings ways of climatology“ (Springer-Verlag, Heidelberg 2005). Dessen Autor war mir bis dahin nur durch Zeitschriften-Veröffentlichungen bekannt. Das Impressum des dicken Buches etwas eingehender studierend stellte ich fest, dass sein mutiger Autor gar nicht so weit von mir hinter der Sainte Victoire, dem Hausberg von Aix en Provence, bekannter als Lieblingsobjekt des genial schlechten Malers Paul Cezanne, lebte. Also: Nichts wie hin! Nach zwei, drei Stunden Plausch über Gott und die Welt waren wir schon Freunde. Wobei man noch wissen muss, dass es bei Marcel keinen Alkohol, sondern nur verdünnten Orangensaft gab.

Marcel war nicht der Typ des geselligen Südfranzosen, der einen nach einigen Gläsern Pastis umarmt. Vielmehr war er Bretone, eher klein von Gestalt, aber zäh und drahtig. Er stammte aus einer Familie, deren Angehörige sich über Jahrhunderte als Fischer oder Seefahrer durchgeschlagen hatten. Denn der dünne, saure Granitboden der Bretagne konnte nicht viele Mäuler füttern. Seinen Vater, der, nun bald 100 Jahre alt, noch immer lebt, hatte es als Offizier der französischen Kriegsmarine nach Tunis verschlagen. Dort wurde Marcel geboren. Neben der französischen Sprache blieb ihm auch das Arabische bis zu seinem Lebensende geläufig. Das half ihm ungemein in seinem Werdegang als Klimaforscher. Denn obwohl von Kindesbeinen an passionierter Skipper, fühlte er sich am wohlsten ganz allein unter dem Sternenzelt der Sahara. Das war für ihn, wie er mir immer wieder versicherte, der Inbegriff von Freiheit.

So war es alles andere als zufällig, dass Marcel bald in der Erforschung des Wetters und der längerfristigen Klimaentwicklung Afrikas seine Lebensaufgabe fand. Denn er musste schon während seines Studiums an der Universität Dakar im Senegal feststellen, dass es über das Klima des schwarzen Kontinents keine brauchbare Synthese gab. Für seine Habilitationsarbeit (Thèse d’Etat) reiste Marcel zehn Jahre lang kreuz und quer durch Afrika, um die in ehemaligen Kolonialverwaltungen unter mehr oder weniger dicken Staubschichten vor sich hin gammelnden alten Wetteraufzeichnungen auszuwerten. Oft bedurfte es seiner ganzen Überredungsgabe beziehungsweise Bakschisch in harter Währung, um an die historischen Daten heranzukommen. Leroux entdeckte dabei, dass das Wettergeschehen im tropischen Afrika stark von atmosphärischen Vorgängen an den Polen beeinflusst wurde. Bis dahin dachten die Wetter- und Klimaforscher, es sei eher umgekehrt. Am Ende seiner entbehrungsreichen, aber auch faszinierenden Fleißarbeit stand ein zweibändiger Atlas der Klimageschichte Afrikas, der von der World Meteorological Organisation in Genf herausgegeben und inzwischen in Form einer CD-ROM neu aufgelegt wurde.

Nach weiteren Jahren an der Universität von Dakar bekam Marcel Leroux schließlich eine ordentliche Professur an der Universität Jean Moulin in Lyon und wurde Direktor des Instituts für Klimatologie, natürliche Risiken und Umwelt. In Lyon spezialisierte sich Leroux auf die Auswertung von Satelliten-Fotos, die bei seiner Arbeit in Afrika leider noch nicht zur Verfügung standen. Er stellte dabei fest, dass als treibende Kräfte des Wettergeschehens weniger Tiefdruckgebiete in Frage kamen, wie die klassische (synoptische) Meterologie annimmt, sondern vielmehr flache Kaltluftlinsen mit hohem Druck, die in der Nähe der Pole entstehen und dann Richtung Äquator ziehen. Die dabei verdrängte wärmere Luft bildet Tiefdruckwirbel, die uns schlechtes Wetter bringen. Leroux taufte die Kaltluftlinsen und die sie begleitenden Tiefdruckwirbel „Mobile Polar High“ (MPH). Er war überzeugt davon, dass diese selbst dem ungeübten Betrachter von Satellitenfotos ins Auge springenden Gebilde unser Verständnis der Wetterabläufe revolutionieren werden.

Aus der langjährigen Beobachtung der Häufigkeit von MPH schloss er, dass die Erdatmosphäre dabei ist, sich allmählich abzukühlen. Für die hysterischen Warnungen vor einer Überhitzung unseres Planeten infolge der Verstärkung eines (nicht messbaren!) „Treibhauseffektes“ durch den Ausstoß von Kohlenstoffdioxid hatte er nur Spott übrig. Damit machte er sich in den Augen der Pariser Bürokraten und der ihnen hörigen Massenmedien zum wissenschaftlichen Außenseiter, was ihn aber nicht weiter störte. Immerhin fand er sich in guter Gesellschaft mit dem führenden französischen Geophysiker Claude Allègre, der einige Jahre lang unter dem sozialistischen Premierminister Lionel Jospin das undankbare Amt des Erziehungs- und Forschungsministers übernommen hatte. Wie sein Freund Allègre ging Leroux auf Distanz zur sozialistischen Partei, als es in den letzten Jahren immer deutlicher wurde, dass diese unheilbar vom Virus des Nihilismus infiziert war. Leroux war sich sicher, seine Theorie der Klimaentwicklung werde sich durchsetzen, sobald die Vertreter der offiziellen Lehrmeinung einmal abgetreten seien. Er konnte nicht ahnen, dass er vor seinen Widersachern begraben werden würde.

Nachtrag: Ich bin sicher, Marcel hätte sich über den in der heutigen „Times“ stehenden Bericht über die Auswertung der Wetteraufzeichnungen der Logbücher großer Kapitäne gefreut. Sie demonstrieren die Überlegenheit direkter Beobachtung über die „Play-Station-Klimatologie.“ (14. August 2008)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Climate Sensitivity Reconsidered

von Christopher Monckton of Brenchley

(Deutsche Übersetzung von Argus auf oekologismus.de

Monckton stellt die IPCC-Eingangsparameter der Klimamodelle auf den Prüfstand: Strahlungsantrieb, Klimasensitivität und Rückkopplungen. Er analysiert einen nach dem anderen die IPCC-Parameter und bewertet sie neu anhand von eigenen Erkenntnissen, die er zusammen mit vielen Wissenschaftlern zusammengestellt hat. Ein sehr gut nachvollziehbarer und sehr übersichtlicher Ansatz!

Kernergebnis seiner Neubewertung der Parameter ist: Der Klimabericht des IPCC von 2007 übertreibt den Einfluss des CO2 auf die Temperatur um 500 bis 2000 Prozent.

Bemerkenswert ist auch der moderate Ton, in dem Monckton seine einschneidenden Korrekturen in dem IPCC-Rechengang anbringt und kommentiert.

Zusammenfassung und Kernaussagen in Deutsch

Die Weltklimarat (IPCC, 2007) hat beschlossen, dass die anthropogenen CO2 Emissionen wahrscheinlich mehr als Hälfte der “Erderwärmung” der letzten 50 Jahre verursachthaben und eine weitere schnelle Erd-Erwärmung verursachen werden. Jedoch hat sich globale Durchschnittstemperatur seit 1998 nicht erhöht und dürfte seit Ende 2001 sogar gefallen sein. Die vorliegende Analyse legt nahe, dass Fehler in den Modell-Vorhersagen des IPCC, zur Temperaturentwicklung und vielen anderen klimatischen Phänomenen, aus Fehl-Einschätzungen der drei wesentlichen Faktoren entstehen, aus denen sich die Klimaesensitivität zusammensetzt:

1. Strahlungsantrieb ΔF

2. Der Sensitivitäts-Parameter κ “ohne Rückkopplungen” und

3. Der Rückkopplungsfaktor ƒ.

Wesentliche Gründe, warum die Schätzungen des IPCC überbewertet sein dürften und daher nicht verläßlich sind, werden erklärt. Noch wichtiger ist die Feststellung, dass es womöglich gar keine “Klimakrise” gibt, und dass die zurzeit so populären Anstrengungen der Regierungen, die anthropogen CO2-Emissionen zu reduzieren, sinnlos sind, kaum berechenbar sind und sogar schädlich sein können.

Lord Monckton´s neue Studie belegt:

o Der Klimabericht des IPCC von 2007 übertreibt den Einfluss des CO2 auf die Temperatur um 500-2000 %;

o Der erwartete CO2-Anstieg wird kaum mehr als 0.6 °C zur globalen Durch-schnittstemperatur bis 2100 beitragen;

o nicht eine der drei Schlüsselvariablen, aus denen sich die Klimasensitivität ermitt-let, kann direkt gemessen werden;

o die Werte des IPCC für diese Schlüsselvariablen stammen von nur 4 (vier) veröf-fentlichten Papieren, nicht von 2.500;

o die Werte des IPCC für jede der drei Variablen, und folglich für die Klimaempfind-lichkeit, sind übertrieben angesetzt;

o Die “Globale Erwärmung” stoppte vor zehn Jahren, und die Oberflächentempera-tur ist seit sieben Jahren gefallen;

o nicht eines der Computermodelle, auf denen IPCC aufbaut, sagte eine so lange und schnelle Abkühlung voraus;

o das IPCC fügte eine Tabelle in den wissenschaftlichen Rechengang ein, die die Wirkung der Eisschmelze um 1000 % überbewertet;

o es wurde bereits vor 50 Jahren festgestellt, dass eine Vorhersage des Klimas um mehr als zwei Wochen unmöglich ist;

o Mars, Jupiter, der größte Mond des Neptuns sowie Pluto erwärmten sich zeit-gleich mit der Erde;

o in den letzten 70 Jahren war die Sonne aktiver als in fast jeder anderen Zeit in den letzten 11.400 Jahren.

***************************************************************************

Dr. Vincent Gray’s Abrechnung mit dem „Weltklimarat“ IPCC

„… das IPCC ist abgrundtief korrupt. Die einzige “Reform”, die ich mir vorstellen kann, wäre seine Abschaffung.“

„Das Verschwinden des IPCC ist nicht nur wünschenswert, sondern unvermeidlich.“

Diese Sätze stammen nicht von einem Verrückten, sondern von einem erfahrenen Wissenschaftler aus Neuseeland, der als offiziell bestellter “Expert Reviewer” des Intergovernmental Panel on Climate Change (IPCC) schon an dessen ersten im Jahre 1990 erschienenen Bericht mitgewirkt hat. Die Behauptung des IPCC, die „Evidenz“ einer Klimaschädigung durch eine Änderung der atmosphärischen Konzentration von „Treibhausgasen“ erbracht zu haben, sei schlicht falsch, schreibt Gray in einer nun im Internet zugänglichen systematischen und detaillierten Abrechnung mit den manipulativen Arbeitsmethoden des von der UN-Bürokratie im Jahre 1988 eingesetzten Gremiuns. Sein inzwischen aktualisierter Bericht zeigt Schritt für Schritt, wie aufgrund einer nicht thematisierten menschenfeindlichen religiösen Einstellung zweideutige Beobachtungen und verzerrte Interpretationen wissenschaftlicher Aussagen zu einem Machwerk verwoben wurden, das eine weltweite Kampagne für die Einschränkung menschlicher Entwicklungsmöglichkeiten rechtfertigt. Die geforderte Reduktion der Emission von „Treibhausgasen“ entbehre in Wahrheit jeglicher wissenschaftlichen Grundlage (14. Juli 2008)

********************************************************************

CO2-Gläubige rätseln über schlappe Sonne

Ich gehöre zu jenen, die das Glück hatten, Dr. Theodor Landscheidt noch persönlich erleben zu können. Hinter dem pensionierten Juristen mit der Fliege verbarg sich ein versierter Astronom, der über lange Jahre mit viel Geduld und mathematischer Bravour die Bewegungen und Entwicklungen der Sonne analysiert hatte. (Hier eine Sammlung seiner Veröffentlichungen) Schon um die Mitte der 90er Jahre war sich Landtscheidt sicher, dass die Sonne ab 2007 in eine längere Schwächephase eintreten würde, die auf der Erde zu einer empfindllichen Abkühlung führen muss. Denn er hatte schon erkannt, dass die Sonnfleckenzyklen auf eine Interferenz zwischen den Bewegungen der Sonne und ihres gewichtigen Planeten Jupiter zurückgeht. Australische Astrophysiker haben diese Entdeckung nun bestätigt. Landscheidt stellte seine Entdeckung auf dem Symposium „Klimaveränderungen – Ursachen und Auswirkungen“ vor, das am 10. und 11. November 1997 (das heißt kurz vor der gedankenlosen Verabschiedung des Kyoto-Protokolls über eine Reduktion von „Treibhausgasen“) im Bonner Hotel Königshof von der Europäischen Akademie für Umweltfragen organisiert worden war. Der Tübinger Biochemiker und Photosystheseforscher Prof. Dr. Helmut Metzner, der die Europäische Akademie gegründet und das Bonner Symposium organisiert hatte, war damals zuversichtlich, das mit Kyoto verbundene Selbstmordprogramm noch verhindern zu können. Wenige Wochen nach der Verabschiedung des Kyoto-Protokolls hatte er dann eine längere Unterredung mit seinem Parteifreund Prof. Dr. Klaus Töpfer (CDU). Dieser machte Metzner offenbar klar, dass es keine Möglichkeit mehr gab, den ins Rollen gekommenen Zug der internationalen Klima-Bürokratie noch aufzuhalten. Das mit den wichtigsten Klimaforschern der Welt (nicht nur mit „Skeptikern“) besetzte Bonner Symposium war offenbar für die Katz gewesen. Prof. Metzner legte sich nach dem Gespräch mit Klaus Töpfer erschöpft schlafen und wachte nicht wieder auf.

Konkret legte Theodor Landscheidt 1997 in Bonn dar, dass der seit längerem bekannte Gleissberg-Zyklus der Sonnenaktivität von 90 Jahren im Jahre 2007 seinen nächsten Phasensprung (Nulldurchgang) haben werde. Dadurch werde auf der Erde eine Abkühlungsphase eingeleitet, die ihren Höhepunkt im Jahr 2026 erreichen werde. (Meinem in „Öko-Nihilismus“ enthaltenen Zukunftsszenario habe ich diese Prognose unausgesprochen zugrunde gelegt.)

Landtscheidts Voraussage ist punktgenau eingetroffen. Seit Dezember 2006 tut sich auf unserem Zentralgestirn, abgesehen vom üblichen Brodeln der Plasmaströme, kaum noch etwas. Der längst überfällige Beginn der 24. Sonnenfleckenzyklus lässt auf sich warten. Die wenigen Spuren von Sonnenflecken, die sich hin und wieder zeigten, entpuppten sich als Überbleibsel des 23. Zyklus. Eine so lange Abwesenheit von Sonnenflecken wurde zuletzt vor 350 Jahren auf dem Höhepunkt der so genannten kleinen Eiszeit beobachtet. Diese führte in Europa zu einer Häufung von Vereisungen, Überschwemmungen, Missernten und Hungersnöten sowie in deren Gefolge zu massiven Auswanderungswellen.

Inzwischen nimmt sogar SPIEGELonline (siehe Link in der Überschrift) Kenntnis von einer Realität, die in den „Klimamodellen“, die den Überhitzungs-Projektionen des „Weltklimarates“ IPCC zugrunde liegen, gar nicht vorkommt. Läge der IPCC mit seiner Behauptung richtig, das Verbrennungs- und Atmungs-Gas Kohlenstoffdioxid (CO2) sei die Hauptursache der in den vergangenen Jahrzehnten beobachteten leichten globalen Erwärmung, dann müssten jetzt schleunigst alle Hindernisse beseitigt werden, die dem überfälligen Bau zahlreicher neuer Kohlekraftwerke entgegenstehen. (6. Juli 2008)

Die Sonne ist zu etwa 70 Prozent für den Klimawandel auf der Erde verantwortlich

Das schätzt Dr. Bruce West, Chefwissenschaftler des US Army Research Office, in einem in der Fachzeitschrift „Physiscs today“ veröffentlichten Aufsatz. Darüber berichtete am 3. Juni 2008 das US-Online-Magazin „Wired“. In Europa wurde die Nachricht mit vielen Konjunktiven entschärft. Da der 24. Sonnenzyklus noch immer auf sich warten lässt, sollten wir uns trotz des Tropenwetters, das in diesem Juni in weiten Teilen Deutschlands herrscht, auf eine Abkühlung der Erde gefasst machen.

In einem Bericht mit dem Titel „Global Temperature Dives in May.“ schreibt der Meteorologe Anthony Watts, das seit Beginn dieses Jahres feststellbare dramatische Absinken der Durchschnittemperatur der Erde habe sich im Mai fortgesetzt. Seit Januar 2007 sei die Temperatur um etwa den Betrag (0,75 Grad Celsius) abgesunken, der in den IPCC-Berichten als „Signal der menschengemachten globalen Erwärmung“ in den letzten 100 Jahren interpretiert wurde.

Hier ist die neueste Temperaturkurve,, die an der University of Alabama in Huntsville aufgezeichnet wurde.

Kollege Wolfram.von-Juterczenka@dw-world.de teilt folgende im Mai 2008 gemessene Temperaturwerte mit:

Spitzbergen -2,0° ( 0,8° kälter als Mai 07; wärmster der letzten 18 Jahre: 2006 +1,2°, kältester 1998 -5,3°)

Tromsoe 4,4° ( 1,3° kälter als 07; wärmster 10,9° 1990)

Neumeyer

(Antarktis) -22,4° (4,3° kälter als 07; wärmster in letzen 18 Jahren: -17,5° 1992, kältester -25,4° 2004)

Südpol -59,3° (1,4° kälter als 07; wärmster -18 Jahre- : -56,2 2006, kältester -60,0 1996)

Godthab

Westgrönland: 3,4° (3,5° wärmer als 07; wärmster – 10 Jahre- 3,5° 1996, kältester -2,6° 1992)

In seinem Blog brachte Anthony Watts am 15. Juni 2008 weitere Einzelheiten der Entwicklung des Magnetismus der Sonne und ihres Einflusses auf die Erde. Der Average Geomagnetic Planetary Index (Ap), ein Maß für die solare magnetische Feldstärke, ist im Oktober 2005 auf ein extrem niedriges Niveau abgesackt und hat sich seither nicht wieder erholt. (18. Juni 2008)

Global Warming macht Pause

Die britische Tageszeitung „Telegraph“ berichtet von einer neuen Veröffentlichung deutscher Klimaforscher im Wissenschaftsmagazin „nature“. Danach gehen die Forscher davon aus, aufgrund festgestellter Veränderungen in atmosphärischen und ozeanischen Strömungsmustern werde sich die begonnene Phase eines leichten Rückgangs der globalen Durchschnittstemperatur mindestens bis 2015 fortsetzen. Ich vermute, es handelt sich hier um einen ersten Versuch, dem perplexen Publikum zu erklären, warum die Realität den Verkündungen des „Weltklimarats“ IPCC nicht folgt, ohne klipp und klar zu sagen, dass die Klimaentwicklung mit der atmosphärischen Konzentration des zum zum „Klimakiller“ erklärten Kohlenstoffdioxids (CO2) wenig bis nichts zu tun hat. Jedenfalls haben die Autoren der am IFM Geomar-Institut für Meeresforschung in Kiel erarbeiteten Studie in Gestalt ihres Sprechers Mojib Latif sofort davor gewarnt, den nach ihrer Meinung fortbestehenden längerfristigen Erwärmungstrend auf die leichte Schulter zu nehmen. Die in ihren Augen gefährliche globale Erwärmung mache nur eine Pause.

Schon im vergangenen Jahr hatte ich Skeptiker-Freunde davor gewarnt, sich nicht zu früh zu freuen. Meine lieben Journalistenkollegen würden sicher auch noch den Purzelbaum hinkriegen, die drohende Kleine Eiszeit mit dem bösen CO2 in Verbindung zu bringen. Kollege Holger Darmbeck hat nur zwei Tage gebraucht, um diese Prophezeiung in SPIEGEL-online in Erfüllung gehen zu lassen. (2. Mai 2008)

Anzeichen für ein Abflachen des CO2 Anstiegs in der Atmosphäre und eine Abkühlung des Ozeans

Buchstäblich gar nichts entwickelt sich zurzeit entsprechend der Warnungen, für die der „Weltklimarat“ IPCC im Jahre 2007 mit dem Friedensnobelpreis ausgezeichnet wurde. Nicht nur die Temperaturkurve der Erde, sondern auch die Kurven der Methan- und CO2-Konzentrationen scheinen neuerdings abzuflachen. Hinzu kommt eine weitere irritierende Meldung: Forscher des Alfred-Wegener-Instituts für Meeresforschung (AWI) in Bremerhaven haben in einer monatelangen Messkampagne festgestellt, dass sich das Tiefenwasser rund um die Antarktis eindeutig abkühlt. Sicher ist es noch zu früh, um daraus einen neuen Trend abzuleiten. Aber die Zweifel an der Begründung der Angstmache wachsen. (21. April 2008)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Extremwetterkongress im Gegenwind

Da die Wettermaschine der Erde den Propheten einer heranrückenden Klimakatastrophe nicht Gefallen tut, verrückt zu spielen, befleißigten sich Massenmedien anlässlich des Hamburger Extremwetterkongresses ungenannter Sponsoren, den Eindruck zu erwecken, es stimme etwas nicht in der Antarktis. BILD titelte am Donnerstag, dem 27. März 2008: „Neuer Umweltschock. Südpol zerfällt.“ Nähme nan das wörtlich, müsste man die Seefahrt und den Luftverkehr sofort einstellen, denn ohne Südpol gäbe es auch keinen Nordpol mehr. Was die die Redaktion der BILD-Zeitung wirklich meinte, war das Abbrechen eines größeren Brockens des Wilkins-Schelfeises. Das kommt hin und wieder vor, hängt nach Aussage kompetenter Metorologen aber keineswegs mit der Temperaturentwicklung des Antarktischen Kontinents im Ganzen zusammen. Vielmehr ragt dieser Eis-Schelf mit der Antarktischen Halbinsel weit in Gewässer, die milden Nordwestwinden ausgesetzt sind. Als den Anden benachbarte seismisch aktive Zone der Erdkruste besitzt die antarktische Halbinsel überdies etliche aktive Untereis-Vulkane, die Bewegungen des Gletscheises beschleunigen können. Doch davon erfuhren die Leser von BILD nichts. Es kam den Kollegen der BILD-Redaktion wohl eher darauf an, ihren Lesern nach einem ausnehmend eisigen Osterfest einzureden, die globale Erwärmung gehe weiter. (Siehe hierzu auch die Erklärung auf der Website des EIKE Europäischen Instituts für Klima und Energie.

Hier die Entwicklung der Mitteltemperaturen der Antaktis:

Georg v. Neumeyer (deutsche Antarktisstation):

Januar 1991 bis 2008

-3,8 -1,8 -4,2 -5,7 -4,6 -3,9 -4,5 -4,2 -3,8 -5,6 -4,8 -3,2 -5 -2,3 -2,4 -3,1 -3,5 -5,6

Februar 1991 bis 2008

-6,6 -6,8 -9,7 -7,3 -6,4 -6,1 -8,7 -6,2 -7,2 -10,8 -7,8 -8,1 -7,2 -6 -7,2 -7,3 -9,8 -8,6

Südpol

Januar 1999 bis 2008

-26,2 -31,1 -29,8 -26,7 -27,6 -27,7 -26,4 -28,3 -27,5 -30,1

Februar 1999 bis 2008

-39,7 -43,2 -39,9 -40,7 -40,8 -38,6 -39,5 -42,8 -42,4 -41,8

Casey (Antarktis – Rand)

Januar 1994 bis 2008

-0,1 -2 -1 0,0 -0,4 -1,5 -1,8 -0,3 0.5 0,0 -0,7 0,7 -0,5 0,1 -1,2

Februar 1994 bis 2008

-2,1 -4,2 -2,6 -2,4 -2,8 -3,5 -2,7 -4,6 -2,9 -2,3 -1,1 -2 -2,5 -2,1 -4,1

Hier die Entwicklung der mittleren Temperaturen des Monats März an einigen ausgewählten Wetterstationen:

Spitzbergen 1995 – 2008

-15,4 -6.6 -12,3 -13,3 -7,5 -14,9 -16,8 -18,4 -17,8 -7,5 -17,1 -12,7 -7,0 -14,7

Südpol 1999 – 2008

-54,4 -53,5 -54,6 -48,6 -54,5 -55 -51,9 -56,4 -57,7 -53,3

Godthab (Grönland) 1991 – 2008

-6,7 -8,2 -13,8 -11,8 -12,7 -8,5 -10,6 -8,1 -6,9 -8,6 -5,7 -9,4 -6,6 -9,2 -2,7 -2,8 -7,2 -8,6

(Mitteilung von Wolfram.von-Juterczenka@dw-world.de)

******************************************************************

NASA-Forscher suchen verzweifelt nach Sonnenflecken

Anfang Januar 2008 schien es so, als käme der angesagte 24. Sonnenfleckenzyklus (seit dem 18. Jahrhundert) endlich in Gang. Doch das erste zaghafte Vorzeichen neuer Sonnenflecken verschwand schon nach drei Tagen. Nun wächst die Furcht vor einer neuen Kleinen Eiszeit. Die von interessierter Seite geschürte hysterische Angst vor einer Klimaverbesserung, Verzeihung: globalen Erwärmung dürfte schon bald als Problem erscheinen, das man gerne hätte.

Inzwischen tauchten auf den Fotos der Sonnen-Sonde SOHO zwar einige kleine Flecken auf. Doch diese erwiesen sich aufgrund der Polarität ihres Magnetfeldes eindeutig als Reste des auslaufenden 23. Zyklus. Die Freunde der Sonne wurden auf den Monat März vetröstet. Doch nichts tat sich. Nun erhoffen die Beobachter der NASA den Start des 24. Zyklus in der zweiten Jahreshälfte, vielleicht aber auch erst im nächsten Jahr. Dann wäre der 23. Zyklus der längste seit dem Jahre 1800. Das klingt nicht sehr beruhigend. (8. April 2008)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Kürzlich hat der Britische Wetterdienst (UK/CRU/UEA) die „Global-Temperatur 2007“ publiziert.

2007 kommt seit 1998 nur auf Platz 8, bei fallender Tendenz. Wie peinlich für die Klimagogen, hatten sie doch noch vor wenigen Wochen einen „neuen Rekord“ mit 14.54° (1998: 14.52°) hinaustrompetet. Stattdessen nun weiterhin fallende Tendenz, und zwar recht deutlich. Damit gibt es seit 1998 keinen weiteren Temperaturanstieg mehr – im Gegenteil. (Danke an Dipl. Met. Klaus-Eckart Puls für die Mitteilung)

Januar 2008 war nach Satelliten-Messungen der zweitkälteste Januar in den letzten 15 Jahren.

Der Winter 2007/2008 gilt schon jetzt auf der Nordhalbkugel als der kälteste Winter seit Menschengedenken. Nur die Deutschen haben davon nicht viel mitbekommen.

100 Jahre Erwärmung in einem Jahr rückgängig gemacht

Inzwischen zeigen Zusammenstellungen von unzweifelhaften Messdaten aus der ganzen Welt, dass der in hundert Jahren erreichte Gesamtbetrag der Klimaverbesserung (ein Anstieg des globalen Temperaturmittelwerts von etwa 0,7 °C) in einem einzigen Jahr verloren gegangen ist. Das meldet der Blog DailyTech.com. Dort findet sich auch eine beeindruckende Temperaturkurve für die letzten Jahre.

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Schwerwiegende Fehler im IPCC Report 2007

Quelle: IPPCC, 2007: Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Solomon, S., D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M.Tignor and H.L. Miller (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA.

Hier der Link zum AR 4

von Ernst-Georg Beck, Dipl. Biol. 1/2008

Statement:

Der 4. Klimabericht des IPCC (Weltklimarat) 2007 der UNO enthält in wesentlichen Teilen falsche Informationen. Deshalb sind alle daraus abgeleiteten politischen Konsequenzen haltlos und ohne wissenschaftliche Basis. Alle Verweise und Diskussionen über mögliche Konsequenzen in Publikationen der Medien, Schulen und Universitäten beruhen auf Pseudowissenschaft. Politische und wirtschaftliche Aktivitäten gemäß der irrigen Behauptungen des IPCC müssen sofort beendet werden. Eine unabhängige, wissenschaftliche Debatte muß zur Aufklärung stattfinden.

1. Falsche Temperaturdaten:

a)Die Temperaturkurven S. 25 und 29 (pdf) seit 1960 beruhen hauptsächlich auf dem Wärmeinseleffekt, da besonders für die ansteigenden Temperaturen seit 1975 wenige in Städten liegende Stationen verwendet werden. Tatsächlich steigen die Temperaturen nicht wie gezeigt an, sie fallen weltweit laut Satellitenmessung:

Nachweis: Ross McKitrick

Satellitendaten: MSU

b) Die gezeigten Kurven S. 29 (PDF, S. 121 IPCC) enden alle 2001. Warum im Bericht 2007, wo doch der letzte IPCC Bericht 2007 erschien?

Weil die mittlere Erdtemperatur seit 1998 nicht mehr steigt, sondern fällt! Treibhauseffekt?

Nachweis: Hier der Lieferant der IPCC-Temperaturdaten

CRU (England), Jones et al. (rechts die Temperaturen anklicken)

2. Falsche CO2 / Methan-Daten:

Die Kurven des CO2 und Methans sind teilweise falsch bzw. irreführend dargestellt.

CO2 war in den letzten 200 Jahren stark schwankend mit Konzentrationen wie heute um 1825, 1857 und 1942. Methan stagniert seit langem und fällt seit 2007, also kann es nicht als zusätzliches Treibhausgas wirken.

Nachweis: CO2

Methan: NOAA (2006)

3. Weniger Hurrikane:

Behauptung S. 15 „Tropical storm and hurricane frequencies vary considerably from year to year, but evidence suggests substantial increases in intensity and duration since the 1970s……. Specifically, the number of category 4 and 5 hurricanes increased by about 75% since 1970.“

Das ist nur ein Teil der Wahrheit bzw. falsch: Die Anzahl der Hurrikane mit maximaler Stärke war in den 30er Jahren des 20. Jahrhunderts am stärksten.

Nachweis: NOAA (2007)

4. Kein Meeresspiegelanstieg:

Die Kurve S. 19 ist irreführend und entspricht dem Tunnelblick des IPCC alles auszublenden, was nicht in die Hypothese passt. Derzeit steigen keine Meersspiegel!

Nachweis: Prof. N.A. Mörner

5. Kein Konsens:

Der gesamte IPCC-Bericht ist im wesentlichen Teil, der den menschengemachten Klimawandel betrifft genau von 5 Personen begutachtet worden. Die Behauptung, er sei im Konsens von 2500 Wissenschaftlern entstanden ist falsch.

Nachweis: John McLean.

Inzwischen ist übrigens die bittere und im Detail belegte Abrechnung des IPCC Expert-Reviewers Dr. Vincent Gray aus dem Internet herunterladbar. Dr. Gray fordert nach allem, was er erleben musste, nichts weniger als die sofortige Auflösung dieses Gremiums. Denn die Theorie der vom Menschen gemachten globalen Erwärmung sei von Anfang an ein krankhaft religiös begründeter Schwindel gewesen. (akt. 12. Juli 2008)

****************************************************************************************************

Werden wissenschaftliche Standards überflüssig ?

Das neue Jahr begann in den deutschen Medien mit neuen Zumutungen für den gesunden Menschenverstand. Erst berichteten mehrere Online-Magazine und Radiosender, das vergangene Jahr habe in Deutschland einen neuen Durchschnittstemperatur-Rekord gebracht. Doch kurz darauf musste die Meldung mit dem Hinweis auf einen Rechenfehler des Deutschen Wetterdienstes korrigiert werden. Nun heißt es, ein neuer Rekord sei knapp verfehlt worden. Dabei sollte ohnehin klar sein, dass die Durchschnittstemperatur unseres Landes, das nur ein Pünktchen auf dem Globus darstellt, kaum Aussagekraft besitzt. Weltweit hat sich 2007 die seit etwa einem Jahrzehnt beobachtbare Stagnation der bodennahen Durchschnittstemperatur fortgesetzt. Da der Ausstoß von Kohlenstoffdioxid (CO2) zur gleichen Zeit wegen des Wirtschaftsbooms in „Schwellenländern“ wie China, Indien und Brasilien und zum Teil auch in alten Industrieländern kräftig angestiegen ist, bedarf die Behauptung, anthropogenes CO2 sei die Hauptursache der globalen Erwärmung, inzwischen schon einer gehörigen Portion Schuzpe. Doch die herrschende nihilistische „Elite“ fühlt sich offenbar so fest im Sattel, dass sie keinen Grund für eine Korrektur ihrer kostspieligen und selbstmörderischen „Klimaschutzpolitik“ sieht. Man kann sicher sein, dass sich in unseren Medien immer jemand findet, der Wetterereignisse aller Art und vielleicht sogar eine deutliche Abkühlung der Erde als Bestätigung der offziellen Lehrmeinung bzw. als Erfolg der „Klimapolitik“ zu interpretieren weiß.

So wurde der Bielefelder Wissenschaftsphilosoph Martin Carrier wegen seiner unverholenen Rechtfertigung politischer Manipulation der Klimaforschung mit dem begehrten Leibnizpreis der Deutschen Forschungsgemeinschaft (DFG) ausgezeichnet. In einem am 2. Januar 2008 vom Deutschlandfunk ausgestrahlten Interview verriet Carrier, wie sich die Politik mithilfe serviler Eierköpfe ihre vermeintliche Legitimation beschafft. Hier ein Auszug aus dem von Christian Schütte geführten Interview:

„Schütte: Der Klimawandel wird kommen, und er ist zum Großteil durch Menschen verursacht. So hat es der Weltklimarat im vergangenen Jahr dargelegt, ein wissenschaftlicher Bericht. Dennoch sagen Sie, dass an der Entstehung im Grunde genommen auch die Politik beteiligt gewesen sei. Inwiefern?

Carrier: Wir haben hier ein Beispiel für einen positiven Einfluss der Politik auf die Wissenschaft, eben dass das Einwirken der Politik im Weltklimarat, im IPCC, wo die Politik die Wissenschaftler gedrängt hat, die verschiedenen Spezialmodelle zu Ozeanatmosphäre und so weiter zu einem aussagekräftigen Gesamtbild zu verbinden. Die Wissenschaftler selbst hatten ja hier mit Zurückhaltung ihre eigenen Spezialitäten gepflegt und den Blick über den Gartenzaun gerade nicht gewagt. Und der Grund ist klar: Der Eindruck herrschte, dass man nicht hinreichend verlässlich die verschiedenen Teilansätze miteinander verknüpfen könnte. Andererseits ist ja die Politik auf eine Gesamtsaussage angewiesen, da man sonst keine Maßnahmen einleiten oder begründen kann.

Schütte: Das heißt, die Ergebnisse und Empfehlungen sind politisch beeinflusst?

Carrier: Ja, in dem Sinne, wie gesagt, dass sich sozusagen der Druck der Politik als heilsam erwiesen hat insofern, als eine Frage von praktischer Relevanz von außen gestellt worden ist, die die Wissenschaft dann nach Kräften zu lösen versucht hat und in diesem Fall auch erfolgreich zu lösen versucht hat. Und das ist eben eine Frage, die sich so aus der disziplinären Entwicklung der Wissenschaft von selbst nicht gestellt hätte.

Schütte: Wie groß ist denn die Gefahr, dass wissenschaftliche Standards vernachlässigt würden durch den Druck der Politik?

Carrier: Natürlich besteht im Einzelfall auch jetzt immer noch wieder die Gefahr der Überforderung, wenn Fragen gestellt werden, die gewissermaßen von außen kommen, aus der Praxis kommen und sich nicht in der Wissenschaft selbst so ergeben hätten. Aber wir haben eben ganz häufig auch die Fälle, dass hier ein Anstoß, ein Anreiz ausreicht, damit die Wissenschaft dann doch belastbare Resultate erreicht.“

Mein Kommentar: Carrier hat sicher recht, wenn er darauf hinweist, dass die Wissenschaft keine letzte Gewissheit erlangen kann über das, was geht. Doch kann sie m. E. sehr wohl erkennen, was alles nicht geht. Darüber geben uns beispielsweise die Gesetze der Thermodynamik Aufschluss. Carrier aber schließt aus den Grenzen wissenschaftlicher Erkenntnisfähigkeit offenbar, man könne sich politisch darauf einigen, was möglich ist. Wissenschaftliche Standards spielen danach keine Rolle mehr. Entscheidend ist, dass etwas herauskommt, das der Politik in den Kram passt. Sollten sich die von der Politik manipulierten Aussagen des „Weltklima-Rates“ IPCC als Irrtum herausstellen, wäre das in den Augen Carriers nicht weiter schlimm. Denn das von der EU zur obersten Richtschnur der Politik erhobene „Vorsorgeprinzip“ ist so definiert, dass man damit schlicht alles rechtfertigen kann. So wird es möglich, selbst völlig unnütze Milliarden-Investitionen, die lediglich der parasitären Bereicherung der Mitglieder des Ökologisch-Industriellen Komplexes dienen, als Dienst für das „Gemeinwohl“ auszugeben. (Edgar Gärtner, 10. Januar 2008)

„Klimapolitik“ nicht wissenschaftlich begründbar

In der WELT vom 25. September 2007 stellen Prof. Hans Mathias Kepplinger und seine Assistentin Senja Post die Ergebnisse einer online-Umfrage unter sämtlichen 239 deutschen Klimaforschern vor, die ich am 10. September in meinem unten wiedergegebenen Kommentar in der gleichen Zeitung schon kurz erwähnt hatte. Zu den wichtigsten Ergebnissen dieser Umfrage zählt der Befund, dass nur eine Minderheit von 10 bis 20 Prozent der angesprochenen Forscher die empirischen und theoretischen Voraussetzungen für die Berechnung des Klimas heute schon für gegeben hält. Die große Mehrheit der Klimaforscher ist sich also ziemlich unsicher über die Zusammenhänge und die zukünftige Entwicklung des Klimas. „Diese Befunde werfen die grundlegende Frage auf, ob die weitreichenden politischen Maßnahmen zum Schutz des Klimas mit Verweisen auf die Klimaforschung gerechtfertigt werden können“, folgern Kepplinger und Post.

Senja Posts Buch „Klimakatastrophe oder Katastrophenklima?“ ist inzwischen erschienen.

Erwärmung der Arktis überwiegend natürlich

SPIEGELonline hat nun im Bericht über Untersuchungen russischer Forscher zugegeben, dass die auffällig rasche Schmelze von Teilen des arktischen Packeises im letzten Sommer zum großen Teil auf eine natürliche Veränderung von Luftströmungen zurückgeht. Während in einem Teil der Arktis die Temperatur gegen den von „Klimamodellen“ prognostizierten Trend zurückgeht, sind andere Teile der Arktis dem Einfluss warmer südlicher Luftströmungen ausgesetzt. Auf diese Entwicklung hat der inzwischen emeritierte französische Klimatologe Marcel Leroux (Lyon) in seinem im Jahre 2005 im renommierten Springer-Verlag (Heidelberg) erschienen Buch „Global Warming. Myth or Reality?“ hingewiesen. Da Leroux in diesem Buch Ansichten über Ursache und Ablauf des Wettergeschehens vertritt, die der derzeitigen Schulmeteorologie teilweise widersprechen, wurde das Buch von der Fachwelt bislang weitgehend totgeschwiegen. Die Leser meiner in der „Chemischen Rundschau“, im „Novo-Magazin“ und „eigentümlich frei“ erschienenen Artikel, meiner Homepage sowie meines Buches „Öko-Nihilismus“ konnten sich allerdings ausgiebig über die etwas ketzerischen Ansichten des französischen Wissenschaftlers informieren. Was heute in SPIEGELonline steht, weist darauf hin, dass Leroux mit seinen Ansichten wohl nicht ganz falsch liegt. Lesen Sie bitte hier unten einen meiner letzten Beiträge über Leroux und seine Klimahypothese, der im vergangenen September in der WELT erschien.

(3. Januar 2008)

Es wird kalt, nicht heiß

von Edgar Gärtner, Hydrobiologe

Warum versuchen in Europa „Experten“, den Menschen einzureden, nicht die Abkühlung, sondern die Erwärmung der Erde stelle die größere Bedrohung dar? Es muss doch einen Grund haben, dass sie bekannte Zusammenhänge buchstäblich auf den Kopf stellen.

Besuch bei Marcel Leroux, einem in Südfrankreich nicht weit von der Grabstätte Picassos lebenden emeritierten Professor für Klimatologie, der in seinen Büchern eine andere Auffassung über die Ursachen des Klimawandels vertritt als die von der Politik nominierten Experten im zwischenstaatlichen Klimarat IPCC. Der noch frisch und drahtig wirkende Skipper bretonischer Herkunft erklärt mir am Computerbildschirm anhand zahlreicher Satellitenfotos, warum in diesem Jahr in Deutschland so früh der erste Schnee gefallen ist. Er zeigt mir die von Grönland nach Süden ziehende gewaltige Kaltluftmasse mit hohem Druck, die ein charakteristisches Wolkenband vor sich herschiebt, das sich an seiner Nordostseite zu einem Tiefdruckwirbel verdichtet. In Südfrankreich macht sich dieser Kaltlufteinbruch durch einen heftigen Mistralwind bemerkbar.

Neben den Wolkenbildern findet man im Internet hochauflösende Druck-, Niederschlags- und Windkarten, vertikale Temperatur- und Windprofile beinahe für jeden Ort und viele andere Angaben, die laufend aktualisiert werden. Man kann dabei sogar die Daten konkurrierender Anbieter vergleichen, um sich sein Bild über das Wettergeschehen zu machen.

So sieht man deutlich, dass die in Form stehender Wellen durch den Trichter des Rhône-Tals gepresste Kaltluft nur bis etwa 1500 Meter Meereshöhe reicht und dass ihr größter Teil von den Alpen und den Pyrenäen nach Westen auf den Atlantik abgedrängt wird. Setzt sich ein solches Kälte-Hoch jedoch einmal irgendwo auf dem Kontinent fest (wie in diesem Sommer in Südost-Europa), kann es auch zur Ursache einer Hitzewelle werden, weil die Luft dann rasch von der Sonne aufgeheizt wird.

Leroux hat nachgewiesen, dass solche Kaltlufteinbrüche seit den 70er-Jahren in immer kürzeren Abständen aufeinanderfolgen. In Südfrankreich lässt sich das einfach überprüfen: Man braucht nur die Entwicklung der Häufigkeit von Mistralwinden in den vergangenen 30 Jahren zu vergleichen. Dann hat man einen Anhaltspunkt für die Richtung des Klimawandels. Leroux schließt aus seinen langjährigen Beobachtungen, dass wir Zeugen eines allmählichen Abkühlungsprozesses sind, der zu einer kleinen Eiszeit führen kann. Das sei vor allem eine schlechte Nachricht für Afrika.

Der Geograf, der als Sohn eines Marineoffiziers in Tunesien geboren wurde und den größten Teil seines wissenschaftlichen Werdegangs in Afrika absolviert hat, kennt die Klimageschichte des Schwarzen Kontinents wie kein Zweiter. Er zeigt mir anhand anderer Satellitenaufnahmen, dass der Einfluss der in Westeuropa einbrechenden Kaltluft bis weit nach Westafrika reicht. Dort verstärkt sie trockene Passatwinde und trägt damit zum Vorrücken der Wüste bei. Es ist seit Längerem bekannt, dass die Sahara ihre größte Ausdehnung auf dem Höhepunkt der letzten Eiszeit erreichte. Warmzeiten hingegen brachten dem Schwarzen Kontinent immer reichlich Niederschläge und damit relativen Wohlstand.

Warum wissen das in Europa so wenige? Warum versuchen dort „Experten“, den Menschen einzureden, nicht die Abkühlung, sondern die Erwärmung der Erde stelle die größere Bedrohung dar? Es muss doch einen Grund haben, dass sie bekannte Zusammenhänge buchstäblich auf den Kopf stellen. Leroux sieht ihn darin, dass die Politik sich mit einer lautstarken Minderheit computergläubiger Forscher zusammengetan hat, die von historischer Geografie und Meteorologie wenig Ahnung haben.

Der Mainzer Kommunikationsforscher Hans Mathias Kepplinger bestätigt das. Er hat in einer Umfrage herausgefunden, dass nur etwa ein Drittel der deutschen Klimaforscher glaubt, dass der Fortgang der Erwärmung überwiegend negative Konsequenzen hätte. Doch von den anderen zwei Dritteln hört und sieht man bislang nicht viel in den Medien. Es mehren sich aber die Anzeichen für ein Ende der Schweigespirale. Nicht zufällig werden neuerdings Bücher und Sendungen über den „Klimaschwindel“ zu Bestsellern.

(Kommentar erschienen am 10. September 2007 in DIE WELT, Berlin)

———————————————————————————————————————–

Klima: Crux mit grönländischen Knochen

Gemeinhin gilt die seit 1958 am Mauna Loa, einen aktiven Vulkan auf Hawaii, mithilfe der von Charles Keeling perfektionierten Infrarot-Spektroskopie aufgezeichnete gezackte Kurve eines kontinuierlichen, leicht exponentiell anmutenden Anstiegs der CO2-Konzentration der Atmosphäre als wichtigstes „Beweisstück“ für die Annahme, die massive Verbrennung fossiler Energieträger seit der industriellen Revolution des 19. Jahrhunderts trage die Hauptschuld an dem seit etwa 150 Jahren feststellbaren leichten Anstieg der Durchschnittstemperatur über den Landmassen der Erde. Der Freiburger Biochemiker und Gymnasiallehrer Ernst-Georg Beck hat seine freie Zeit genutzt, um an Hand älterer Fachveröffentlichungen über präzise Messungen des CO2-Gehaltes der Luft mithilfe der klassischen Pettenkofer-Methode zu überprüfen, ob sich die inzwischen schon legendäre Mauna-Loa-Kurve von ihrem aktuellen Wert (ca. 380 ppm CO2) tatsächlich nach rückwärts extrapolieren lässt bis zum Wert von etwa 280 ppm CO2, der in den meisten „Klima-Modellen“, die den schlagzeilenträchtigen Berichten des UN-Klimarats IPCC zugrunde liegen, als „vorindustrielles Niveau“ angenommen wird.

Becks Fleißarbeit der Auswertung von etwa 90.000 verwertbaren, weil methodisch einwandfreien historischen Messungen förderte eine Überraschung zutage: Zu Beginn der 40er Jahre des vergangenen Jahrhunderts war die CO2-Konzentration mit 420 ppm in ländlichen Gebieten Deutschlands (gemessen von einer der am besten ausgerüsteten Wetterstationen bei Giessen in Mittelhessen) schon einmal deutlich höher als heute. Auch in den Jahrzehnten davor hat der CO2-Gehalt offenbar stark geschwankt. Deutliche Einflüsse gingen z.B. um 1820 vom Ausbruch des Vulkans Tambora in Indonesien aus. Beck fragt sich nun, ob das Ignorieren dieser älteren Messungen, deren Präzision größtenteils nichts zu wünschen übrig lasse, nicht einem Betrug durch Charles Keeling gleichkommt. Jedenfalls könne der UN-Klimarat IPCC nicht so tun, als habe es vor 1958 keine exakten CO2-Messungen gegeben. Beck hat die Auswertung seiner Literatur-Recherche in diesem Jahr unter dem Titel „180 Years accurate CO2-Gasanalysis of Air by Chemical Methods“ im englischen Fachmagazin ENERGY & ENVIRONMENT (Volume 18, No. 2/2007) veröffentlicht.

Im Mai 2007 hat Beck eine deutsche Kurzfassung seiner Arbeit unter dem gewagten Titel „Der CO2-Betrug, der größte Skandal der Wissenschaftsgesichte der Neuzeit?“ im Internet veröffentlicht. Seither ist Becks Arbeit Gegenstand heftigster Polemik. Inzwischen gibt es allein unter der Internet-Adresse, auf der Becks Artikel erschien, an die 500 mehr oder weniger kritische Stellungsnahmen.

Die von Beck aufgrund älterer chemischer Messungen in Europa rekonstruierte Kurve der historischen Entwicklung der atmosphärischen CO2-Konzentration unterscheidet sich in auffälliger Weise von der vom IPCC veröffentlichten Kurve, die vor 1958 in der Hauptsache auf der Analyse der Lufteinschlüsse von Eisbohrkernen beruht. Diese Analysen spiegeln allerdings nur in den oberen Eisschichten die absoluten CO2-Konzentrationen wider. Schon in wenigen Metern Tiefe liegt die eingeschlossene Luft wegen des wachsenden Drucks nicht mehr in Form von Bläschen vor, sondern fest gebunden in Clathraten, deren Analyse bestenfalls gerade noch Aufschluss über die relativen Konzentrationen ihrer Bestandteile gibt, aber kaum noch etwas über die früher vorhandene reale CO2-Konzentration in der Luft aussagt. Insofern sind die in wissenschaftlichen Veröffentlichungen dokumentierten historischen CO2-Bestimmungen von großem Interesse.

Die Korrektheit der von Beck gesammelten und ausgewerteten historischen CO2-Messungen steht wohl außer Frage. Immerhin zählen zu deren Autoren Persönlichkeiten wie der Nobelpreisträger Otto Warburg und der durch das Linde-Lufttrennverfahren bekannt gewordene Paul Schuftan, deren Messtechniken über allen Zweifel erhaben scheinen. Doch bleibt die Frage, ob die korrekt gemessenen Konzentrationen auch als repräsentativ für die jeweilige globale Durchschnittskonzentration gelten können. So wies Urs Neu vom Pro Clim – Forum for Climate and Global Change der Swiss Academy of Sciences, Bern, im Internet darauf hin, dass Beck Messungen aufführt, die beinahe zur gleichen Zeit vorgenommen wurden, aber zu weit voneinander abweichenden Ergebnissen gelangten. Das sei ein Hinweis auf die fehlende Representativität der von Beck zitierten Messwerte, meint Neu. Außerdem seien Beck bei der Auswertung der unterschiedlichen Messreihen Fehler in der Kalibrierung und Skalierung unterlaufen, die an Manipulation grenzten.

Ähnlich argumentiert Prof. Stefan Rahmstorf vom Potsdam Institut für Klimafolgenforschung (PIK) auf der Internet-Seite „RealClimate“. Rahmstorf knöpft sich hauptsächlich Becks Darstellung der aus Proxydaten (fossile Baumringe, Stalagmiten usw) rekonstruierten Temperaturkurve der vergangenen 1000 Jahre vor, die schon einmal 1990 im 1. IPCC-Bericht gezeigt wurde. Danach war es in der mittelalterlichen Warmzeit, als auf Grönland Weizen angebaut wurde und Kühe grasten, deutlich wärmer und in der darauf folgenden „Kleinen Eiszeit“ erheblich kühler als heute. Rahmstorf streitet ab, dass es im Hochmittelalter tatsächlich wärmer war als heute und verteidigt die erstmals im IPCC-Bericht von 2001 gezeigte „Hockey-Schläger“-Temperatur-Rekonstruktion von Michael Mann et al. Diese Kurve hat in etwas modifizierter Weise auch Eingang in den neuesten IPCC-Bericht gefunden. Danach ist die heutige Durchschnittstemperatur der Erde deutlich höher als jemals zuvor in den letzten 1000 Jahren, was in den Massenmedien als Zeichen einer drohenden „Klimakatastrophe“ gedeutet wird.

Immerhin haben die Kanadier Steve McIntyre und Ross McKitrick Manns „Hockey-Schläger-Kurve“ schon vor zwei Jahren in den „Geophysical Research Letters“, dem Organ der US Geophysical Society, einer fundierten Methodenkritik unterzogen und als statistisches Artefakt entlarvt. Und wie will Stefan Rahmstorf mit der vom IPCC akzeptierten Temperaturkurve erklären, dass bis ins 12. Jahrhundert, durch zahlreiche Knochenfunde belegt, auf Grönland tatsächlich Viehzucht betrieben wurde? Es scheint, dass das letzte Wort in Sachen CO2 und Klima noch nicht gesprochen ist.

Edgar Gärtner

(erschienen in: Chemische Rundschau Nr. 9/2007, VS-Medien, CH-Solothurn)

Rahmstorf entlarvt sich selbst