Risse im Grünen Weltbild

Politik und Wirtschaft stellen noch immer die Ablösung „fossiler“ Energiequellen wie Kohle und Erdöl durch „erneuerbare“ als alternativlos dar. In Wahrheit ist das Weltbild, das auf der Endlichkeit von Kohlenwasserstoffvorkommen beruht, aber längst in Frage gestellt worden. Im Auftrag des Königlich Schwedischen Technologieinstituts haben Forscher gezeigt, dass Erdöl auch ohne die Zersetzung von Biomasse entstehen kann.

Erdöl, eine erneuerbare Energiequelle

Das Königlich Schwedische Technologieinstitut (KTH) in Stockholm hat bekanntgegeben, nun sei der experimentell bewiesen worden, worauf es nun schon seit Jahrzehnten Hinweise gibt: Für die Entstehung von Erdöl ist keine fossile Biomasse nötig. Unter hohem Druck und hohen Temperaturen können komplexere Kohlenwasserstoffe auch direkt aus normalen anorganischen Bestandteilen des oberen Erdmantels und der Erdkruste wie Methan entstehen. Das haben Anton Kolesnikov, Vladimir G. Kutcherov und Alexander F. Goncharov von der Washingtoner Carnegie Institution, der Moskauer Lomonossow Universiät und des Königlich schwedischen Technologie Instituts in Stockholm durch ein aufwändiges Experiment demonstriert.

Die Konsequenz: Bohrt man nur tief genug, könnte man fast überall auf der Welt auf Öl-, Gas- und Kohle-Lagerstätten stoßen. Die Kohlenwasserstoffvorräte der Erde sind keineswegs endlich, sondern Teil eines langfristigen geochemischen Kreislaufs, in den der Mensch nur minimal eingreifen kann. (10. September 2009)

Der folgende Artikel, dessen Urfassung bereits im vergangenen Jahr entstanden ist, bekommt durch die am KTH durchgeführten Forschungen neue Aktualität.

Abschied vom grünen Weltbild

von Edgar L. Gärtner

„Angesichts der Endlichkeit fossiler Brennstoffe gehört die Zukunft der Energieversorgung zweifellos den Erneuerbare-Energien-Technologien.“ Mit dieser ganz selbstverständlich erscheinenden und deshalb nicht begründeten Behauptung beginnt eine im Magazin „Cicero“ 12/2008 unter dem Titel „Die Energie-Lüge“ veröffentlichte gnadenlose Abrechnung acht liberaler Wirtschaftsprofessoren mit der Förderung unausgereifter und unbezahlbarer „Zukunftstechniken“ durch das deutsche Erneuerbare Energien Gesetz (EEG). Die Professoren zeigen: Auch wer an das grüne Weltbild glaubt, kann es nicht gutheißen, dass die Energieverbraucher wegen eines den kurzsichtigen finanziellen Interessen grüner Amigos auf den Leib geschneiderten Gesetzes für die Vermeidung einer einzigen Tonne CO2 bis zu 1000 Euro zahlen müssen. Aber muss man wirklich an das ökologistische Weltbild glauben?

Schon eine unvoreingenommene Auswertung des beinahe tragischen Ausgangs des Biosphäre-2-Experiments in der Sonora Wüste von Arizona hätte meines Erachtens nur den Schluss zugelassen, das grüne Weltbild zu begraben. Das auf 100 Jahre angelegte Experiment eines autonomen Lebens in einem von der Gaia-Theorie von James Lovelock inspirierten Nachbau der irdischen Lebewelt in einer Glaskuppel mit anderthalb Hektar Grundfläche musste schon nach knapp zwei Jahren abgebrochen werden – kurz vor dem absehbaren Hungertod der acht Bewohner des künstlichen Öko-Paradieses. Aber das gegen Ende der 80er Jahre vom texanischen Ölmilliardär Ed Brass in einer romantischen Anwandlung für insgesamt 200 Millionen US-Dollar in die Welt gesetzte Projekt wurde aus ideologischen Gründen bis heute nicht umfassend analysiert und bewertet.

Das Experiment, wäre es wirklich sauber angelegt worden, hätte wohl zeigen können, dass der Planet Erde nicht so funktioniert, wie es bis heute in vielen populären Ökologiebüchern steht. Es hätte insbesondere Aufschlüsse geben können über das Verhältnis zwischen geologischen und biologischen Stoffkreisläufen. Nur weil Hohepriester der Gaia-Religion sich bislang standhaft weigerten, bereits gesichertes wissenschaftliches Wissen ins ökologische Weltbild zu integrieren, können sie überhaupt zur Behauptung gelangen, der durch die Verbrennung fossiler Kohlenwasserstoffe verursachte Anstieg der Konzentration von Kohlenstoffdioxid (CO2) in der Atmosphäre und der damit vermutlich verbundene Anstieg der Durchschnittstemperatur über den Landmassen der Erde seien das dringendste Problem der Menschheit und müssten unbedingt gestoppt werden – koste es, was es wolle.

Das Kyoto-Protokoll von 1997 ist mehr als eine Übereinkunft über eine bescheidene Reduktion der CO2-Emissionen der Signatarstaaten. Da es auch CO2-Senken anerkennt, beinhaltet es vielmehr im Prinzip den Anspruch, die Ära des globalen Managements des gesamten Kohlenstoff-Kreislaufs zu eröffnen. Das setzt voraus, dass

• erstens die wichtigsten Stoffkreisläufe der Erde hinreichend genau quantifiziert werden können und

• zweitens nachzuweisen, dass der Kreislauf des Kohlenstoffs einen nennenswerten Einfluss auf atmosphärische Vorgänge ausübt.

Die Erde ist ein Wasserplanet. Etwa 71 Prozent ihrer Oberfläche sind von Meerwasser bedeckt. Folglich überragt der von der Sonnenwärme durch Verdunstung angetriebene Wasserkreislauf mengenmäßig alle anderen Zyklen. An zweiter Stelle folgt der Kreislauf des Sauerstoffs, des wichtigsten Elements in der Erdkruste. Der Kohlenstoffkreislauf folgt erst an dritter Stelle. Danach kommt der Kreislauf des reaktionsträgen Stickstoffs, der zwar 80 Prozent der Atmosphäre ausmacht, aber in den Böden und in den Gewässern eher rar ist. Das führt zur Frage, ob ein drittrangiger Stoffkreislauf grundsätzlich in der Lage ist, den Wasserkreislauf anzutreiben, der das Wettergeschehen bestimmt. Auf diese Frage gibt es bis heute keine schlüssige Antwort. Doch legen Satellitenmessungen nahe, sie zu verneinen.

Ausgerechnet die Bilanz des Kohlenstoffkreislaufs weist große Lücken auf. Viele Milliarden Tonnen Kohlenstoff scheinen jahraus, jahrein aus dem Kreislauf einfach zu verschwinden. Das ist deshalb von Belang, weil das grüne Weltbild auf der Annahme beruht, der Kohlenstoffkreislauf (C-Zyklus) sei im Wesentlichen biologischer Natur: Grüne Algen und Landpflanzen nehmen CO2 aus dem Wasser bzw. der Luft auf und geben Sauerstoff ab. Dabei stelle sich ein Gleichgewicht ein, das der Mensch nicht stören dürfe. Verdrängt wird in dieser Weltsicht, dass es auch einen rein geochemischen C-Zyklus gibt, der der in Form von Bodenausgasungen und Vulkanausbrüchen jedes Jahr viele Milliarden Tonnen CO2 in die Atmosphäre bringt.

Seit der Bestätigung der Kontinentalverschiebungs-Hypothese von Alfred Wegener wissen wir, dass die Erdkruste in ständiger Bewegung ist. Alles, was einmal oben war, kommt im Prinzip auch wieder nach unten, d.h. von der mehr oder weniger festen Erdkruste tief in den breiartigen Erdmantel, wo auch Kohlenstoffverbindungen biologischen oder nichtbiologischen Ursprungs (wie vor allem Kalk und Dolomit) zu Magma eingeschmolzen werden. An anderer Stelle kommt der Kohlenstoff später in Form von Ausgasungen von Methan und Kohlenstoffdioxid sowie Vulkanausbrüchen wieder hoch. Dieser Kreislauf fände auch statt, wenn es überhaupt kein Leben auf der Erde gäbe. Es ist aber wegen lückenhafter Messungen bislang kaum möglich, das Massenverhältnis zwischen biologischen und abiotschen C-Kreisläufen einigermaßen genau abzuschätzen. Die Entstehung von Erdöl-, Kohle- und Methanhydratlagerstätten ist möglicherweise überwiegend Teil eines nichtbiologischen Zyklus. Unter hohen Drücken und Temperaturen können sich im Erdmantel aus reichlich vorhandenen Ausgangsbestandteilen spontan Kohlenwasserstoff-Gemische bilden, die nach oben wandern und sich in der Erdkruste unter undurchlässigen Tonschichten zu Gas-, Öl- oder Kohlelagerstätten konzentrieren. Auch die riesigen auf den Meeresböden lagernden Methanhydratvorkommen in der Größenordnung von 10.000 Gigatonnen Kohlenstoff können vermutlich kaum auf biologischem Wege entstanden sein. Der bekannte US-Astrophysiker und Erfinder Thomas Gold, der als einer der ersten eine (umstrittene) Theorie des nichtbiologischen Ursprungs der Rohölvorräte in die Welt setzte, nahm an, dass auch Archaebakterien tief in der Erdkruste an der Rohölentstehung beteiligt sind bzw. im Erdöl ihre Spuren hinterlassen. Auch das würde dem „grünen“ Weltbild widersprechen. Kurz: Statt als begrenzte Ressource fossilen Ursprungs können Methan, Kohle und Erdöl (das zu Recht auch Mineralöl heißt) möglicherweise als erneuerbare Rohstoffe betrachtet werden. Absolute Ressourcenknappheit könnte nur eintreten, wenn die Erdmasse abnähme. Das ist aber nicht der Fall. Im Gegenteil: Wegen Meteoriteneinschlägen nimmt sie unterm Strich sogar allmählich zu.

Inzwischen ist klar geworden, dass man in der Erdkruste praktisch überall Kohle- und Erdöl-Lagerstätten findet, wenn man nur tief genug bohrt. Im September 2009 machte zum Beispiel die Aktie des Ölkonzerns BP einen Sprung nach oben, weil BP im Golf von Mexiko riesige neue Ölvorräte entdeckt hat. Im gleichen Monat wurde die Entdeckung gigantischer Ölvorkommen vor der Küste des westafrikanischen Sierre Leone und in Uganda gemeldet. Kurz zuvor hatte der Iran die Entdeckung neuer Ölvorkommen beklanntgegeben. Ob sich die Nutzung dieser tiefer gelegenen Lagerstätten wirtschaftlich lohnt, hängt allerdings vom jeweiligen Weltmarktpreis des Rohöls ab. In den letzten Jahrzehnten sind tatsächlich im Schnitt deutlich mehr Erdölvorräte verbraucht als neu entdeckt worden, da die Explorationstätigkeit, abhängig vom Weltmarktpreis für Rohöl, sehr unregelmäßig verief. Auffällig ist, dass die Reichweite der sicheren Vorräte mit 40 Jahren etwa konstant blieb. Das hat vor allem finanztechnische Gründe, da es schwierig bis unmöglich ist, Explorationsprojekte, die über diesen Zeithorizont hinausreichen, zu finanzieren.

Dennoch wäre es nun an der Zeit, nüchtern zu überprüfen, ob der „Abschied vom Zeitalter fossiler Energien“ wirklich Dreh- und Angelpunkt der Energiepolitik sein kann. Da die Theorie Golds und des US-Geologen Kenney, des Inhabers der Gas Resources Corp. in Houston, Texas, immer mehr Anhänger gewinnt und neuerdings auch durch Laborexperimente gestützt wird, hat sich der Wissenschaftsjournalist Wolfgang W. Merkel jüngst unter dem Titel „Erdöl auf ewig?“ in der „Welt am Sonntag“ damit beschäftigt, um das grüne Weltbild zu retten. Leider erwähnt er darin nicht, dass Thomas Gold mit seiner Theorie der primären Tiefen-Biosphäre längst erklärt hat, warum im Erdöl Spuren lebender Materie zu finden sind. So muss nun selbst SPIEGELonline eingestehen, dass „Peak Oil“-Theorien in der Finanzwelt derzeit nicht mehr sehr hoch im Kurs stehen, weil allein in diesem Jahr nicht weniger als 200 neue Ölvorkommen entdeckt wurden. (24. September 2009)

Literatur

Edgar Gärtner: Öko-Nihilismus. Eine Kritik der Politischen Ökologie. Jena 2007

Thomas Gold: Deep Hot Biosphere. The Myth of Fossil Fuels. New York 1999, 2001

James Lovelock: Das Gaia-Prinzip. Die Biografie unseres Planeten. Zürich-München 1991

Internet

Der schwarze Schatz aus der Tiefsee

Ölindustrie erntet Früchte des Booms

BP entdeckt gigantisches Rohölvorkommen

Riesiges Ölfeld vor Sierra Leone entdeckt

Einfach tiefer bohren

Geplatzte Öko-Blase

Geplatzte Öko-Blase 2

Ernst Georg Beck: Der C-Zyklus

Verschüttete Erkenntnisse über den Kohlenstoffkreislauf

Siegfried Emanuel Tischler: Der Erdöl-Schwindel

Wolfgang W.Merkel: „Erdöl auf ewig?“

Weitere Links zu kritischen Beiträgen von scholar.google.com über die Hypothese von Thomas Gold, die nachdenklich machen:

Über Thomas Gold

Bibliografie

Abstract

Abstract

Abstract

Evgeny Yantovski über Golds Hypothese

Havard

Spiedl

Sciencelinks

===================================================================================

Darf Politik sich auf hypothetische Probleme konzentrieren?

Von Edgar L. Gärtner

Selbstverständlich darf sich auch die große Politik, wie jeder Normalsterbliche, hin und wieder mit der Frage „Was wäre, wenn…“ beschäftigen. Doch lehrt uns der gesunde Menschenverstand, dass es oft klüger ist, die Probleme ein Stück weit auf sich zu kommen zu lassen. Denn wer sich ständig nur um ungelegte Eier kümmert, der wird über kurz oder lang unter Brücken nächtigen, sagt eine Volksweisheit. Diese Einsicht sollte sich meines Erachtens auch der großen Politik bemächtigen. Viele vom Wohlfahrtsstaat verwöhnte politische Akteure (das gilt sowohl für Berufspolitiker als auch für ihre Wähler) sperren sich aber dagegen, indem sie sich auf die mir eher gedankenlos als klug erscheinende Devise „Vorbeugen ist besser als heilen“ berufen. Vorbeugen kann man aber nur gegen bekannte Gefahren. Wer etwa an einem großen Fluss baut, muss Vorsorge gegen gelegentliche Überschwemmungen treffen. Oder: Wer bei minus 20 Grad spazieren gehen will, der muss sich warm anziehen und etwas Ordentliches essen. Vorsorge gegen rein hypothetische Gefahren erweist sich hingegen meistens als reine Geldverschwendung, denn mit hoher Wahrscheinlichkeit werden Einzelne oder Gemeinschaften im realen Leben stattdessen mit Problemen konfrontiert, an die zuvor niemand gedacht hat. Diesen kann man schlecht begegnen, wenn man die verfügbaren Mittel zuvor in die Abwehr rein hypothetischer Probleme investiert hat.

Das zuletzt Gesagte trifft meines Erachtens auf die zurzeit in Europa sehr populäre „Klimapolitik“ zu. Diese stützt sich auf die nur in Computermodellen simulier-, aber experimentell nicht überprüfbare Hypothese, von den Menschen verursachte Kohlenstoffdioxid-Emissionen seien die Hauptursache der im vergangenen Jahrhundert registrierten leichten Erhöhung der Durchschnittstemperatur über den Landmassen der Erde, und führten, wenn sie nicht gestoppt werden, bis zum Ende des 21. Jahrhunderts zu einer gefährlichen Überhitzung unseres Planeten. Um den Anstieg der Durchschnittstemperatur auf plus zwei Grad Celsius zu begrenzen, dürfe die Menschheit nur noch eine Menge fossiler Brennstoffe nutzen, die dem Äquivalent von 700 Milliarden Tonnen CO2 entspricht. Es gibt nicht den geringsten Anhaltspunkt dafür, dass die Milliardenbeträge, die schon jetzt mit dem Verweis auf diese Hypothese in vermeintlich „klimaneutrale“ neue Energien investiert werden, auch zu den erhofften Resultaten führen werden. Schlimmer noch: Wer diesen Denkansatz akzeptiert, gelangt schnurgerade zu einer kommunistischen Politik der globalen Kohlenstoff-Rationierung und Umverteilung, in der für offenen Wettbewerb als Suchprozess kein Platz mehr ist. Es macht dann keinen Unterschied mehr, ob diese Rationierung durch das Plankommissariat eines imaginären Weltstaates oder durch den Handel mit CO2-Emissions-Zertifikaten auf dem Weltmarkt erfolgt. Insofern wundere ich mich sehr, dass Politiker, die sich als liberal verstehen, sich mit dieser Art von Politik angefreundet haben.

Ist es überhaupt möglich, liberale Politik jemals durch den Verweis auf Naturwissenschaften zu begründen? Die Antwort liegt meines Erachtens auf der Hand. Und das nicht nur, weil naturwissenschaftliche Theorien nach Karl R. Popper immer hypothetisch und daher korrigierbar bleiben müssen. Zurzeit spricht zum Beispiel Vieles dafür, dass „Klimawandel“ in den kommenden Jahrzehnten statt Erwärmung eher Abkühlung bedeuten wird. Die auf die Bedkämpfung der (hypothetischen) globalen Erwärmung zugeschnittene Politik aber wird unkorrigierbar, sobald sie erst einmal in den Aufbau von Bürokratien übersetzt worden ist. Dieser Punkt ist vermutlich schon erreicht, denn in Bonn, New York und Genf sind in im Namen der Bekämpfung der Erwärmung durch CO2-Reduktion bereits bürokratische Wasserköpfe entstanden. Deren bloße Existenz verhindert weitere Lernprozesse in Sachen Mensch und Klima. Konkret wird das vermutlich bedeuten: Auch wenn es immer häufiger zu kältebedingten Ernteausfällen kommt und immer mehr Menschen an Erkältungskrankheiten leiden, wenn nicht sterben, werden noch immer Milliardenbeträge für die Bekämpfung der fiktiven Erwärmung ausgegeben werden.

Für noch wichtiger halte ich aber folgendes Argument: Demokratische Politik im heutigen Sinne wurde bekanntlich in antiken und mittelalterlichen Stadtstaaten erfunden. Globale Politik ist nach klassischem, nicht imperialem Politikverständnis ein Widerspruch in sich. Die physische Einheit des Planeten Erde ist politisch von untergeordneter Bedeutung und wird es vermutlich auch bleiben. Denn die meisten Menschen haben, zum Glück, gelernt, auf Probleme erst dann durch kostenträchtige individuelle und kollektive Anpassungsmaßnahmen zu reagieren, wenn sie sie am eigenen Leib spüren oder ihnen nahe kommen sehen. (16. Juni 2009)

=========================================================================

Öko-Nihilismus: Wirtschaftlicher Selbstmord aus Angst vor dem Tod

von Edgar Gärtner

Entscheidungen, deren Kosten ihren Nutzen dauerhaft weit übersteigen, sind schlicht dumm. Denn auf eine ganze Volkswirtschaft übertragen, wären sie gleichbedeutend mit Selbstmord. Da der Billionen verschlingende „Klimaschutz“ im Nichts enden wird, bezeichne ich diese Perversion von Ökologie als „Öko-Nihilismus“ – was nur eine andere Bezeichnung für Dummheit ist. Ein Meinungsbeitrag von Edgar Gärtner.

Es gibt zwei konträre, mitunter aber auch komplementäre Auffassungen von Ökologie:

Zum einen die von der „Physico-Theologie“ des 17. und 18. Jahrhunderts ausgehende statische, hauswirtschaftliche, wonach die Welt ein geschlossenes, tendenziell vollständig analysierbares System im Gleichgewicht, genannt Naturhaushalt darstellt.

Dieser soll durch die Anwendung wissenschaftlich abgeleiteter Management-Regeln mit wenigstens 90-prozentiger Gewissheit hausväterlich verwaltet werden können.

Dem gegenüber steht die evolutionistische Sicht, wonach die Welt nach allen Seiten (außer nach rückwärts) offen ist. Es gibt darin kein statisches Gleichgewicht, keine prästabilisierte Harmonie. Systeme existieren, so gesehen, nur in unseren Köpfen oder in Dingen bzw. Organisationen, die wir bewusst schaffen. Menschliches Wissen bleibt immer eine Insel in einem Meer von Nichtwissen. Statt 90 Prozent wissen wir oft weniger als ein Prozent von dem, was wir wissen müssten, um natürliche und/oder gesellschaftliche Prozesse zielgerichtet steuern zu können.

Wir müssen aus Versuch und Irrtum lernen. Nur historisch gewachsene und bewährte Institutionen, angefangen mit der Familie und der Gemeinde, bieten uns danach provisorische Gewissheit. Erst im Rahmen solcher Institutionen bekommt ein haushälterisches Herangehen an Probleme der Ressourcen-Allokation Sinn.

Diese unterschiedlichen Herangehensweisen spiegeln sich im Gewicht, das verschiedenen Methoden der kollektiven Entscheidungsfindung beigemessen wird. Oberhalb der „magischen Zahl“ von 150 Personen (Familien oder Clans) gibt es im Grunde nur zwei Wege kollektiver Entscheidungsfindung: den Markt und die Bürokratie.

Der Markt ist historisch älter, denn schon der Homo sapiens sapiens von Cro Magnon betrieb vor Zigtausend Jahren nachweislich Fernhandel mit unbekannten Zeitgenossen und verdankt diesem vermutlich sein Überleben in der unwirtlichen Eiszeit.

Dennoch erscheint uns der Markt noch heute als „künstlich“, weil das über Hunderttausende von Jahren an das Leben in kleinen Horden angepasste menschliche Hirn mit unpersönlichen Formen des Austauschs offenbar schlecht zurechtkommt. Demgegenüber erscheint uns die erst sehr viel später mit dem Leben in größeren Städten aufgekommene Bürokratie eher als „natürlich“, weil diese offenbar an die hierarchische Struktur der Familie bzw. des Clans erinnert.

Bürokratische Versuche, reale oder vermeintliche Probleme zu lösen, erscheinen den meisten Menschen als attraktiver, als sich der Ungewissheit offener Märkte anzuvertrauen, wenn nicht auszuliefern. Außer in Notzeiten, in denen die Marktwirtschaft spontan in Form des Schwarzhandels aufblüht, bedarf die Marktwirtschaft deshalb meistens einer ordnungspolitischen Förderung. Der freie Markt bleibt eine Kulturaufgabe.

Ein Stück weit muss Bürokratie auch in einer freien Marktwirtschaft als notwendiges Übel akzeptiert werden: So in Buchführung und Statistik oder im Banken- und Versicherungswesen. Markt und Bürokratie können sich im Prinzip ganz gut ergänzen, sofern die Bürokratie sich damit begnügt, die Ergebnisse des Wettbewerbs und des damit verbundenen Lernens aus Versuch und Irrtum festzuhalten, um zu vermeiden, dass Fehler wiederholt werden. Gelangt die Bürokratie jedoch in eine führende Rolle, wird sie leicht zur „Anmaßung von Wissen“ (Friedrich August von Hayek). Diese führt nicht nur zu ineffizienter Ressourcen-Allokation, sondern auch zur Versuchung des Nihilismus.

Nihilismus bedeutet nach Albert Camus nicht, an nichts zu glauben, sondern nicht an das, was ist.

Nach Friedrich Nietzsche, der den Begriff prägte, handelt es sich beim Nihilismus um ein zweideutiges und daher hoch gefährliches Durchgangsstadium zwischen dem Abfall von Gott und dem Glauben an den Übermenschen. Habe ich Nietzsche richtig verstanden, dann ist Nihilismus lediglich eine vornehme Umschreibung von Dummheit.

Diese hat wenig mit dem IQ zu tun, dafür aber umso mehr mit krankhafter Religiosität, mit dem Glauben, es gebe etwas Wichtigeres als das wirkliche Leben in Freiheit und Würde. Oft setzen Nihilisten alles daran, etwas wirklich oder scheinbar Gutes zu erreichen, achten dabei aber nicht auf dessen Preis. Dieser kann unverhältnismäßig hoch sein. Das ist eindeutig der Fall, wenn des vermeintlich Guten wegen nicht nur Freiheit und Menschenwürde, sondern u. U. sogar Millionen von Menschenleben geopfert werden, was im 20.Jahrhundert leider wiederholt vorkam. Nihilismus wurde und wird noch heute auch zur physischen „Negation des Lebens“ (Nietzsche).

Die aktuell gefährlichste Form von Nihilismus bzw. gutmenschlicher Dummheit sehe ich im „Klimaschutz“, weil dieser alles auf eine Karte setzt. Um das Ziel einer 20-prozentigen Reduktion des „Treibhausgases“ Kohlenstoffdioxid (CO2) bis zum Jahre 2020 zu erreichen und damit eine „Vorreiterrolle“ im Kampf gegen den als bedrohlich dargestellten Klimawandel spielen zu können, müssen nach den von der deutschen Bundesregierung im August 2007 im Schloss Meseberg getroffenen Beschlüssen schätzungsweise 500 Milliarden Euro investiert werden. Die EU-Kommission hat das Meseberger Programm im Januar 2008 für die ganze EU verbindlich gemacht. Dessen Gesamtkosten, so es denn umgesetzt wird, gehen also in die Billionen. Diesen Rieseninvestitionen stünde mit Sicherheit kein messbarer Einfluss auf die Durchschnittstemperatur der Erde gegenüber. Denn Deutschlands Beitrag zu den globalen CO2-Emissionen wird, nach „offiziellen“ Projektionen, im Jahre 2020 nur noch 1,6 und im Jahre 2030 gerade noch 1,2 Prozent ausmachen, während China allein über ein Viertel beisteuern würde.

Zwar führt die „Klimaschutzpolitik“ der Bundesregierung, die Förderung unbezahlbarer „erneuerbarer“ Energiequellen bei gleichzeitigem Verzicht auf den Weiterbetrieb abgeschriebener und daher konkurrenzlos kostengünstiger Kernkraftwerke zweifelsohne auch zu einem Aufschwung mittelständischer Industrie- und Handwerksbetriebe. Aber diese Blüte und die mit ihr verbundene Schaffung Hunderttausender von (hoch subventionierten) Arbeitsplätzen werden erkauft durch enorm steigende Energiepreise. Das könnte sich als fatal erweisen, sollten jene Astronomen Recht behalten, die vor einer „Kleinen Eiszeit“ infolge nachlassender Sonnenaktivität warnen.

Gedankenlos nimmt so die „Klimapolitik“ mit der (gewollten) Verteuerung von Energieträgern und Nahrungsmitteln Hunger- und Erfrierungsopfer in Kauf, um vorgeblich ein statistisches Konstrukt, die bodennahe Durchschnittstemperatur über den Landmassen der Erde, zu schützen.

„Klimaschutz“ durch die Drosselung von CO2-Emissionen mithilfe des Einsatzes „erneuerbarer“ bzw. kohlenstoffarmer Energieträger und des Handels mit streng rationierten CO2-Emissionsrechten ist die bürokratische Antwort auf den ständigen, auch ohne menschliches Zutun ablaufenden Klimawandel. Statt auf der unvoreingenommenen Überprüfung von Hypothesen mithilfe von Experimenten und Messungen beruht die bürokratische Herangehensweise auf der Herstellung eines scheinbaren Konsenses über CO2-Emissionen als Hauptursache des Klimawandels mithilfe numerischer Computersimulationen im „Weltklimarat“ IPCC.

In welchem Maße es auf der Erde in den nächsten 100 Jahren wärmer oder kühler wird, können uns numerische Modelle der atmosphärischen Zirkulation, wie die US-Atmosphärenforscher Gerald Roe und Marcia Baker (in „Science“ vol. 318, p. 582) durch Tests aller gängigen „Klimamodelle“ demonstriert haben, aber gar nicht sagen. Die vernünftige Antwort auf diese Herausforderung liefert uns der gesunde Menschenverstand. Dieser legt uns nahe, Probleme immer ein Stück weit auf uns zukommen zu lassen, statt uns um ungelegte Eier zu sorgen. Wir müssen versuchen, uns dem unvorhersehbaren und unaufhaltsamen Wandel möglichst intelligent anzupassen.

Die wichtigsten Voraussetzungen dafür sind Wettbewerb und Glaubensfreiheit.

Mehr Wettbewerb führt erfahrungsgemäß zur Steigerung des gesellschaftlichen Wohlstands. Dieser wiederum erleichtert die Anpassung an unvorhersehbare Entwicklungen wie Erdbeben oder Klimaverschiebungen. Denn nicht zufällig unterscheiden sich die Opferzahlen bei schweren Erdbeben in armen und reichen Ländern um einige Größenordnungen. Schreitet die „Klimapolitik“ jedoch auf dem eingeschlagenen Weg fort, droht uns m. E. eine allgemeine Verarmung und damit ein Sinken der Anpassungsfähigkeit, wenn nicht Selbstmord auf Raten.

Dennoch stehen die Chancen, dem pseudoreligiösen Wahn des „Klimaschutzes“ ein Ende zu bereiten, derzeit nicht besonders gut. Dafür sorgt ein staatsmonopolistisches Kartell von Profiteuren maßgeschneiderter Gesetze im Namen des „Klimaschutzes“: der Öko-Industrie-Komplex. Zu diesem bekannten sich jüngst in einer auf Initiative des World Business Council for Sustainable Development (WBCSD) zustande gekommenen Erklärung zum bevorstehenden G8-Gipfel die Chefs von 91 internationalen Industrie-, Bank- und Versicherungskonzernen.

Darin machen sie sich stark für eine „kohlenstoffarme“ Wirtschaft durch eine Halbierung der weltweiten CO2-Emissionen bis zum Jahre 2050. Dabei gelte es, internationale „top-down“-Verpflichtungen mit „bottom-up“-Initiativen mithilfe von „Marktmechanismen“ zu einer „intensiven Public-Private-Cooperation“ zu verbinden. Was die ergrünten CEOs unter „Marktmechanismen“ verstehen, hat aber mit offener Marktwirtschaft im Sinne Ludwig Erhards wenig zu tun. Es handelt sich vielmehr um die geschlossene und statische Welt der Bürokratie. Deshalb wäre es nur logisch, diese Konzerne umgehend zu verstaatlichen.

Für die Verbreitung der Dummheit bedarf es keiner Verschwörung, denn Dummheit ist von sich aus hoch ansteckend. Das hat die Meinungsforscherin Elisabeth Noelle-Neumann in ihrem Klassiker „Die Schweigespirale“ gezeigt.

Was als Offensive des Bürokratismus begann, droht deshalb zu einer gegenüber der Realität abgedichteten „totalitären Fiktion“ zu werden. Es ist zwecklos, die Erfinder und Profiteure dieser Fiktion widerlegen zu wollen.

Das hat die Philosophin Hannah Arendt am Beispiel der (noch immer fortlebenden) Fiktion einer jüdischen Weltverschwörung demonstriert. Hitler konnte nicht widerlegt, sondern nur militärisch besiegt werden, bemerkte Arendt trocken.

Auf die heutige Situation übertragen, heißt das für mich: Wir müssen versuchen, den Öko-Industrie-Komplex und seine nihilistischen Propheten mit ihren eigenen Waffen zu schlagen.

(veröffentlicht am 12. August 2008 auf www.wiwo.de)

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Die Schöpfung bewahren… von Edgar Gärtner

Barack Obama hat zumindest in Deutschland Papst Benedikt XVI. die Show gestohlen. Doch während vom berauschenden Wortschwall an der Berliner Siegessäule vermutlich nicht viel hängen bleiben wird, haben die Massenmedien rund um die Welt in seltener Eintracht Benedikts Ansprache auf dem Weltjugendtag in Sydney als Ausdruck des Ergrünens des Vatikans gewertet. Unwidersprochen wurde behauptet, Benedikt reihe sich nun ein in den Kampf gegen den Klimawandel. Die deutsche Katholische Bischofkonferenz, die sich schon vor fast zwei Jahren unter dem Motto „Die Schöpfung bewahren!“ vorbehaltlos den Katastrophenwarnungen des „Weltklimarates“ IPCC angeschlossen hatte, wird sicher nichts tun, um diesem Missverständnis entgegen zu treten. Doch wer sich Benedikts Redetext genauer anschaut, stellt fest, dass darin von „Klimaschutz“ nirgends die Rede ist. Nur an einer Stelle spielt der Papst überhaupt auf das Klima-Thema an: Als er darauf hinweist, einige Inselstaaten seien von steigenden Fluten bedroht, während andere Nationen unter verheerender Trockenheit litten. Kein Wort über „Treibhausgase“.

Dagegen warnt der Oberhirte der Katholiken vor Erosion, Entwaldung sowie vor der Verschwendung mineralischer Rohstoffe und der Reichtümer des Meeres. Das sei Ausdruck eines unstillbaren Konsumhungers. Damit drückte er aus, dass er die gesellschaftlichen Lebensbedingungen seiner Schäflein für mindestens ebenso wichtig erachtet wie die physischen. Ökologie habe auch eine moralische Dimension, betont der Papst. Wunden und Narben an der sozialen Umwelt müssten als Signale für unhaltbare Zustände ernst genommen werden. Benedikt XI. unterstützt zwar die Idee einer nachhaltigen Entwicklung, warnt aber davor, bei deren Umsetzung die Menschenwürde in konstruktivistischer Hybris hintan zu stellen. Einmal mehr geißelte Benedikt XVI. die „Diktatur des säkularen Werterelativismus“. Diese sei verantwortlich für Fehlentwicklungen wie Alkoholismus, Drogenabhängigkeit, sexuelle Verwahrlosung und Gewaltverherrlichung.

Josef Ratzinger alias Benedikt XVI. hätte noch deutlicher werden können. In seinem Bestseller „Jesus von Nazareth“ (2007) legte Josef Ratzinger als Kardinal, nicht als Papst, seinen Lesern auf Seite 71 zwischen den Zeilen sogar nahe, in der auf der UN-Konferenz über Umwelt und Entwicklung 1992 in Rio de Janeiro verabschiedeten „Agenda 21“ die Bibel des Antichrist zu sehen. Ratzinger hatte sich schon 1968 als Theologieprofessor in seiner „Einführung in das Christentum“ gegen eine Politische Theologie gewandt, die dazu verleiten könnte, im Namen des Primats des Machbaren gegenüber dem Gemachten Gott zu spielen. Die Menschen könnten ihre Lebensressourcen „Liebe“ und „Sinn“ nicht selbst kreieren, sondern nur als Geschenk empfangen, mahnte Ratzinger. Nach meinem Verständnis impliziert das die Ablehnung einer globalen „Klimapolitik“ nach dem Muster des Kyoto-Protokolls. Denn diese Politik läuft auf den größenwahnsinnigen Versuch hinaus, mithilfe einer künstlichen Verteuerung von Energie und Nahrung eine im Detail chaotische und daher nicht vorhersehbare zyklische Entwicklung in den Griff zu bekommen.

Die Losung „Schöpfung bewahren!“ liegt zwar eindeutig auf der Linie des christlichen Primats des Gemachten vor dem Machbaren. Aber eine Politik nach dem Muster des Kyoto-Protokolls kann sie nicht rechtfertigen. Gehören das CO2, ohne das kein pflanzliches Leben auf der Erde möglich ist, und die Menschen, die es umso stärker ausstoßen, je freier und intensiver sie leben, etwa nicht zur Schöpfung?

(veröffentlicht am 28. Juli 2008 auf www.ef-online.de

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Klimaschutzpolitik als Ausdruck des Nihilismus

Ein Plädoyer für gesunden Menschenverstand und Wettbewerb statt Bürokratie und konsensuale Gutheissung

Der Klimawandel wird mit politischen und bürokratischen Mitteln zu bekämpfen versucht. Der Autor kritisiert diesen statischen Ansatz und plädiert für mehr Wettbewerb und gesunden Menschenverstand, um sich nicht die künftigen Chancen zu verbauen. (Red.)

Von Edgar Gärtner*

In den Auseinandersetzungen um den richtigen Umgang mit dem Klimawandel oder den Gesundheitsrisiken von Chemikalien geht es im Grund um den Kampf zwischen zwei kaum vereinbaren Weltbildern. Auf der einen Seite steht die Auffassung, wir Menschen lebten in einem geschlossenen System (Naturhaushalt) und könnten durch dessen fortschreitende Erforschung wenigstens mit 90%iger Gewissheit die Kräfte erlangen, die das System im Gleichgewicht halten. Der Naturhaushalt und die Lebensgrundlagen, die er uns liefert, könnten folglich durch die Anwendung wissenschaftlich abgeleiteter Management-Regeln haushälterisch verwaltet werden. Das ist die Sicht der vordarwinistischen (und präkantianischen), aus der Physico-Theologie des 17. und 18. Jahrhunderts hervorgegangenen Ökologie.

Insel im Meer des Nichtwissens

Ihr gegenüber steht die auf Charles Darwin (1859) zurückgehende evolutionäre Sichtweise, wonach es in der Natur keine prästabilierte Harmonie gibt. Vielmehr ist die Welt in jeder Hinsicht offen. Fast alles befindet sich in ständigem Fluss. Die Entwicklungsrichtung von Mensch und Natur ist das Ergebnis des Lernens aus Versuch und Irrtum. Systeme existieren daher nur in unseren Köpfen oder in Gegenständen beziehungsweise Organisationen, die wir bewusst schaffen. Menschliches Wissen bleibt eine Insel in einem Meer von Nichtwissen. Oder mit anderen Worten: Statt 90% wissen wir meist weniger als 1% von dem, was wir wissen müssten, um Entwicklungen in Natur und Gesellschaft gezielt steuern zu können. Wir müssen – nur mit dem schwachen Licht der Vernunft ausgerüstet – im Dunkeln voranschreiten. Nur im «Kampf ums Dasein» bewährte Institutionen, beginnend mit der Familie, der Kommune und der Kirchgemeinde, vermitteln uns dabei provisorische Gewissheit. Nur in deren Rahmen kann auch ein haushälterisches Herangehen an Probleme der Ressourcenversorgung sinnvoll sein.

In der evolutionären Sichtweise kann es keine ökologische Nachhaltigkeit ohne Freiheit geben, denn diese ist Voraussetzung des Lernens aus Versuch und Irrtum. Freiheit bedeutet Reden und Handeln im Einklang mit seinen mentalen Dispositionen. Dabei überwiegen Glaubenssätze, Motive und Präferenzen, die ihren individuellen Trägern nur zum Teil bewusst sind. Bewusstes wissenschaftliches Wissen ist hingegen weniger wichtig als der gesunde Menschenverstand. Das gilt auch für kollektive Entscheidungsprozesse. Nur in Familien, Clans oder Horden bis zu einer Gruppenstärke von höchstens 150 Personen können diese unmittelbar ausdiskutiert werden, wobei bekanntlich nicht alle Stimmen das gleiche Gewicht haben. Vielmehr kommt es auf die Meinung von Häuptlingen oder anderen Autoritäten an.

Verführerische Bürokratie

Oberhalb der «magischen Zahl» von 150 gibt es im Grund nur zwei Methoden kollektiver Entscheidungsfindung: den Markt und die Bürokratie. Der Markt ist zwar historisch viel älter, denn wir wissen, dass schon die Jäger und Sammler der Steinzeit Fernhandel mit unbekannten Menschen trieben. Dennoch erscheint er als «künstlich», weil das menschliche Hirn, angepasst an das Jahrtausende bis Jahrmillionen währende Leben in überschaubaren Horden, schlecht mit unpersönlichen Formen des Austauschs zurechtkommt. Viel «natürlicher» scheint uns eigenartigerweise die erst viel später mit dem Leben in grösseren Städten aufgekommene Bürokratie zu sein, weil sie vermutlich an die hierarchische Struktur der Horde erinnert. Die Bürokratie kann viel verführerischer sein als der Markt. Deshalb bedarf es einer Ordnungspolitik zur Eindämmung bürokratischer Auswüchse.

Ein gutes Beispiel dafür ist die Risikovorsorge. Das «Vorsorgeprinzip» wurde im Jahr 1992 auf der Uno-Konferenz über Umwelt und Entwicklung (Unced), dem legendären «Erd-Gipfel» von Rio, folgendermassen definiert: «Drohen schwerwiegende oder bleibende Schäden, so darf ein Mangel an vollständiger wissenschaftlicher Gewissheit kein Grund dafür sein, kostenwirksame Massnahmen zur Vermeidung von Umweltverschlechterungen aufzuschieben» (Grundsatz 15 der Rio-Deklaration).

Wie verträgt sich dieser Grundsatz mit dem Prinzip der Verhältnismässigkeit, wonach die Kosten in einem vernünftigen Verhältnis zum Nutzen von Massnahmen stehen müssen? Weil der ebenfalls 1992 angenommene EU-Vertrag von Maastricht im Artikel 130r (später 174) das Vorsorgeprinzip kodifizierte, aber nicht näher definierte, sah sich die EU-Kommission im Jahr 2000 veranlasst, in einem umfangreicheren Papier zu präzisieren, dass seine Anwendung im Risikomanagement auf einer wissenschaftlichen Risikobewertung und einer rationalen Kosten-Nutzen-Abwägung fussen muss. Kurz: Das Vorsorgeprinzip schliesse das im Maastricht-Vertrag ebenfalls kodifizierte Prinzip der Verhältnismässigkeit und die damit verbundene Verpflichtung zur Gesetzesfolgen-Abschätzung ein. Leider spielt der Maastricht-Vertrag heute für die Begründung der EU-Politik kaum noch eine Rolle.

Übertriebene Vorsorge

Vorsorgeaufwendungen, die mehr kosten, als sie je einbringen können, gelten zu Recht als bescheuert, als irrational. Das ist eindeutig der Fall, wenn das Vorsorgeprinzip als Forderung nach einem «Nullrisiko» ausgelegt wird. So erklärte beispielsweise der damals in der EU federführende österreichische Umweltminister Josef Pröll im Jahr 2006 bei der Verabschiedung der Dubai-Deklaration zur Chemikalien-Sicherheit: «Die Deklaration sagt: Wenn du dir nicht sicher bist, welche Auswirkungen etwas hat, lasse die Finger davon.» Hätten die Menschen immer diesen Grundsatz befolgt, hätten sie weder das Feuer gezähmt noch das Rad erfunden! Und man müsste auch Schokolade verbieten, weil man mit Utensilien und Zutaten, die in jeder Küche zu finden sind, daraus leicht gefährlichen Sprengstoff herstellen könnte. Übertriebene Vorsorge führt also zum Stillstand, wenn nicht gar zum Tod. Die dahinterstehende Denkweise heisst Nihilismus.

Was verstehen wir darunter? In gängigen Lexika wie der Online-Enzyklopädie «Wikipedia» liest man meistens, Nihilisten glaubten an gar nichts. Heute gelten islamistische Selbstmordattentäter als typische Nihilisten. Niemand kann aber behaupten, diese glaubten an nichts. Deshalb scheint mir die Nihilismus-Definition, die der französische Schriftsteller Albert Camus in seinem 1951 veröffentlichten Essay «Der Mensch in der Revolte» gab, weitaus erhellender zu sein. «Der Nihilist», schrieb Camus, «glaubt nicht an nichts, sondern nicht an das, was ist.» Er berief sich dabei auf Friedrich Nietzsche, der den Nihilismus als Negation des Lebens definiert hatte. Allgemein bedeutet danach Nihilismus, etwas höher zu schätzen als das menschliche Leben in Freiheit und Würde. Für die Motive von Selbstmordattentätern trifft das sicher zu.

Negation des Lebens

Selbstmordattentate sind aber heute beileibe nicht die einzige und wahrscheinlich nicht einmal die wichtigste Manifestation des Nihilismus. Auch hinter Übertreibungen der heutigen Wellness-Bewegung lassen sich unschwer nihilistische Motive ausmachen. Viele Wellness-Jünger tun des Guten zu viel und verpassen über der Sorge, ob sie wirklich alles Denkbare für den Erhalt ihrer Gesundheit getan haben, das Leben. Statt sich des Lebens zu erfreuen, heben sie sich die Gesundheit für das Ende ihrer Tage auf. «Auch wer gesund stirbt, ist definitiv tot», bemerkte dazu mit trockenem Humor der bekannte Psychiater und katholische Theologe Manfred Lütz.

Wirtschaftlicher Selbstmord aus Angst vor dem Tod

Weniger lustig mutet dagegen der verbissene Kampf von Umweltverbänden und grünen Politikern gegen verdächtige Kunststoffweichmacher in lebensrettenden Blutbeuteln und flexiblen Infusionsschläuchen an – alles in guter Absicht, versteht sich. Offenbar ist ihnen aber nicht recht bewusst, dass sie den Übertritt gewisser Weichmachermengen in das Blut von Patienten für ein grösseres Übel halten, als die Patienten ohne die Verabreichung von Blutkonserven oder künstlicher Nahrung ihrem Schicksal zu überlassen. Da vergeht einem schon das Lachen.

Vorteile der Klimaerwärmung

Als noch gefährlicher erscheint mir der in der Klimaschutzpolitik zutage tretende gedankenlose Nihilismus. Denn die EU schickt sich an, für den Kampf gegen den vermutlich unvermeidlichen Klimawandel in Gestalt der Förderung unwirtschaftlicher «erneuerbarer» Energien und des verordneten CO 2 -Emissions-Handels nicht weniger als 500 Mrd. € lockerzumachen. Angesichts des Eifers der amtlichen Weltretter muss der nüchterne Beobachter zum Eindruck gelangen, hier werde der wirtschaftliche Selbstmord aus Angst vor dem Tod vorbereitet, zumal eine mässige Erwärmung der Erde sicher mehr wirtschaftliche und gesundheitliche Vorteile als Nachteile mit sich brächte.

Es ist nicht klar, was die Klimapolitik eigentlich schützen will. Die gegebenen Grenzen zwischen den Klimazonen der Erde? Oder einen globalen Temperaturmittelwert? Woher weiss die politische «Elite», die sich den Klimaschutz auf die Fahnen geschrieben hat, überhaupt, in welche Richtung sich die Durchschnittstemperatur bewegen wird? Aus Modellrechnungen auf Grosscomputern, die davon ausgehen, dass die Erde ein geschlossenes System («Treibhaus») ist?

Im vergangenen Herbst haben die US-Statistiker Gerald Roe und Marcia Baker in der Publikation «Science» (Vol. 318, Seite 582) einen vergleichenden Test aller gängigen Klimamodelle veröffentlicht. Sie kommen dabei zum Schluss, numerische Modell-Läufe der atmosphärischen Zirkulation könnten grundsätzlich nicht herausfinden, ob es in den nächsten 100 Jahren auf der Erde wärmer oder kühler wird. Wir brauchen uns daher mit Details der Klimaprojektionen gar nicht mehr zu befassen. Wie die Zukunft aussehen wird, bleibt wie eh und je eine Glaubenssache.

Der gesunde Menschenverstand weiss seit langem, mit dieser heute von manchen aufgeregten Zeitgenossen als völlig neu empfundenen Situation umzugehen, indem er uns lehrt, nicht alles auf eine Karte zu setzen. Glaubens- und Redefreiheit sowie der Wettbewerb zwischen verschiedenen Problemlösungsansätzen sind die wichtigsten Voraussetzungen der gesellschaftlichen Anpassung an unvorhersehbare Entwicklungen wie Erdbeben oder Klimaverschiebungen. Der Wettbewerb fördert gleichzeitig wirtschaftliches Wachstum und die Schaffung von Wohlstand. Dieser wiederum ist die beste Vorsorge gegenüber Naturkatastrophen und anderen Unbilden. Denn bekanntlich unterscheiden sich die Opferzahlen bei vergleichbar starken Erdbeben in armen und wohlhabenden Ländern in der Regel um einige Grössenordnungen.

Nur provisorische Gewissheiten

Dennoch orientiert sich die Klimaschutzpolitik nicht an diesem bewährten Muster gesellschaftlicher Problemlösung, sondern am scheinbar näherliegenden bürokratischen Ansatz. Einen Wettbewerb verschiedener Herangehensweisen bei der Suche nach den effizientesten, gerechtesten und nachhaltigsten Lösungen kann es hier nicht geben. Das unvoreingenommene Streben nach Wahrheit musste durch die Herstellung eines scheinbaren Konsenses über das Spurengas CO2 als vermeintliche Hauptursache des Klimawandels ersetzt werden, obwohl es keine statistische Korrelation zwischen der CO2-Konzentration und der Temperatur der Luft gibt. Das 1988 von der World Meteorological Organization und dem Umweltprogramm der Uno (Unep) eingesetzte Intergovernmental Panel on Climate Change (IPCC) bekam den ausdrücklichen Auftrag, zu demonstrieren, dass der Mensch mit seinen CO 2 -Emissionen für die leichte Erderwärmung des letzten Jahrhunderts verantwortlich ist. Das allein reicht schon, um das Gremium als politische Einrichtung zu charakterisieren, denn in der Wissenschaft hat der Begriff «Konsens» nichts zu suchen. Hier steht nach Karl Raimund Popper die «Refutation» begründeter Vermutungen (Hypothesen) mit Hilfe intelligenter Experimente und des kritischen Disputs im Mittelpunkt, das heisst gerade nicht die konsensuale Gutheissung und Kodifizierung von Aussagen. Es gibt auch hier nur provisorische Gewissheit.

Gefährliche Ziele

In der Politik hingegen ist Konsens durchaus erwünscht. Seine Grundlage kann aber nur zum geringsten Teil die Wissenschaft liefern. Viel grösseres Gewicht sollte nach Auffassung der Totalitarismus-Kritikerin Hannah Arendt der gesunde Menschenverstand haben. Und dieser verbietet es, alles auf die Karte einer einzigen vermuteten Ursache des Klimawandels zu setzen. Wer das dennoch tut, setzt unseren Wohlstand und damit auch unsere Anpassungsfähigkeit aufs Spiel. Mehr noch: Wer am Ziel festhält, die CO2-Emissionen bis zur Jahrhundertmitte zu halbieren oder, wie vom amerikanischen Ex-Vizepräsidenten Al Gore gefordert, sogar um 90% zu senken, nimmt – bewusst oder unbewusst – den Tod jener Abermillionen von Menschen in Kauf, die infolge der klimapolitisch bedingten Preisexplosion bei Nahrungsmitteln und Energieträgern schlicht überzählig werden. (erschienen in: Neue Zürcher Zeitung am 7. Juni 2008)

***********************************************************

Gesunder Menschenverstand

Nicht einmal Brotkrusten durften wir in meinem streng katholischen Elternhaus wegwerfen. Sie kamen ins Schweinefutter. Mais und Weizen zu verheizen, um dadurch Wetter und Klima zu beeinflussen – das wäre uns als Sakrileg erschienen. Uns Kindern war beigebracht worden, im Zweifelsfall immer für das Leben Partei zu ergreifen. Viele der jüngeren Generation tun sich bis heute schwer, wenn es darum geht, nicht nur zwischen Gut und Böse, sondern zwischen zwei Übeln abzuwägen. Diese Fähigkeit der Abwägung ist der Kern dessen, was als „gesunder Menschenverstand“ gilt. Heute streiten viele nicht selten ab, dass es so etwas überhaupt gibt, indem sie Ethik auf die Durchsetzung und Anerkennung von Wertekatalogen reduzieren. Doch damit bestätigen sie nur die Diagnose der Philosophin Hannah Arendt, die im Verlust des gesunden Menschenverstandes das wichtigste Charakteristikum der Moderne sah.

Seit Friedrich Nietzsche heißen Menschen, denen die Fähigkeit der Übelabwägung abhanden gekommen ist, Nihilisten oder Gutmenschen. Diese Menschen, das betonte der französische Literaturnobelpreisträger Albert Camus im Anschluss an Nietzsche, glauben nicht an nichts, sondern nicht an das, was ist. Sie führen meist nichts Böses im Schilde, sondern erstreben mit Nachdruck etwas Gutes. Dabei vergessen sie, dass alles einen Preis hat. Dieser kann im Extremfall darin bestehen, der guten Absicht nicht nur die Freiheit, sondern das Leben von Tausenden, wenn nicht sogar von Millionen Menschen zu opfern. Im „modernen“ 20.Jahrhundert gibt es dafür etliche Beispiele.

Im gerade begonnenen 21. Jahrhundert droht leider eine Fortsetzung dieser unheilvollen Entwicklung, wenn auch unter anderen Vorzeichen. Diesmal sind es nicht mehr nur Stammesfehden und Eroberungskriege, die Hunderttausende von unschuldigen Opfern fordern. Als noch folgenreicher könnte sich die Arbeit eines schwach legitimierten Gremiums, des „Weltklimarates“ IPCC, erweisen, der im „Konsens“ mit seinen politischen Auftraggebern entschieden hat, nicht Armut, Hunger und Krankheit seien die dringendsten Herausforderungen der Menschheit, sondern der Klimawandel. Um diesen zu bekämpfen, erscheint manchen beinahe jedes Mittel recht. So wurden die Warnungen des Nestlé-Chefs Peter Brabeck-Letmathe vor einer drohenden Hungerkatastrophe infolge der Umwidmung immer größerer Ackerflächen für die Produktion „klimaneutraler“ Brenn- und Treibstoffe so lange in den Wind geschlagen, bis es nun zu Hungeraufständen kam. Wann wird sich die EU wieder an ihrem christlichen Erbe statt an Weltverbesserungsplänen orientieren?

(erschienen in: WELTonline am 27. April 2008)

************************************************************************************

2. November 2007, 04:00 Uhr Von Edgar Gärtner

Gastkommentar in: DIE WELT:

Lob des kleineren Übels

Fast alle Menschen wollen das Gute. Selbst Tyrannen sind meist subjektiv davon überzeugt, nur gute Absichten zu verfolgen. Die moderne Öffentlichkeitsarbeit in Politik und Wirtschaft folgt daher der Devise „Tue Gutes und rede darüber!“ Dieser Grundsatz ist freilich noch nicht sehr alt, und es erscheint keineswegs sicher, dass er sich auch als nachhaltig erweisen wird.Niccolò Machiavelli, der zu Recht noch immer als der größte Lehrmeister der politischen Öffentlichkeitsarbeit anerkannt ist, gab jedenfalls den Fürsten im Gegenteil den ganz und gar unchristlich anmutenden Rat, ihre Untertanen im Zweifelsfalle eher das Fürchten zu lehren, als sich auf ihre Liebe und Zuneigung zu verlassen. Ein unvoreingenommener Rückblick auf das 20. Jahrhundert könnte zeigen, dass der Meister mit diesem Ansinnen so falsch nicht lag. Denn alle großen Untaten, die dem vergangenen Jahrhundert ihr Gepräge gaben, wurden durch das Gute begründet. Hitler, Stalin und Mao wurden von der großen Mehrheit ihrer Völker innig geliebt, wenn nicht angebetet, obwohl sie der Umsetzung ihrer Weltverbesserungspläne zig Millionen Menschen opferten. Dabei hätte man wissen können, dass es nicht genügt, das Gute zu wollen. Gehört es doch schon lange zu den Volksweisheiten, dass der Weg zur Hölle mit guten Vorsätzen gepflastert ist.Die meisten Menschen wissen auch aus ihren Alltagserfahrungen: Wer das Gute anstrebt, muss dabei oft gewisse üble Nebenwirkungen in Kauf nehmen. Am leichtesten fallen noch Entscheidungen zwischen etwas Gutem und etwas klar Bösem. Schon etwas schwieriger ist oft die Wahl zwischen etwas Gutem und etwas weniger Gutem. Am schwierigsten ist es jedoch, sich zwischen zwei Übeln entscheiden zu müssen. Manchmal zeigt es sich, dass die Hinnahme kleiner Übel besser ist als die Durchsetzung scheinbar zeitlos guter Ziele nach dem Motto „Der Zweck heiligt die Mittel“.Was der Alltag zeigt, dürfte auch in Politik und Wirtschaft gelten. Warum setzt die Öffentlichkeitsarbeit dennoch oft darauf, üble Nebenwirkungen des Guten zu verdrängen? So konnte sich in der Energiepolitik eine Denkweise ausbreiten, die um des Guten, der Stabilisierung der Durchschnittstemperatur willen, Investitionen in absolut unwirtschaftliche Techniken wie Windräder oder Fotovoltaikanlagen verlangt, während alle bezahlbaren Formen der Energiegewinnung, also Atom- und Kohlekraftwerke, bekämpft werden. Wie lässt sich demgegenüber eine rationale Übelabwägung kommunizieren? Das ist derzeit die wichtigste Herausforderung einer verantwortungsvollen Öffentlichkeitsarbeit.

Die Tücken des Kohlenstoff-Kreislaufs

Da das Kyoto-Protokoll von 1997 nicht nur eine Begrenzung von CO2-Emissionen an der Quelle fordert, sondern auch die Anrechnung von C-Senken erlaubt, setzt es ein hinreichendes Verständnis des C-Kreislaufs voraus. Doch davon sind wir weit entfernt.

Nach der heute gängigen Vorstellung lag die Gleichgewichtskonzentration von CO2 in der Atmosphäre um 1850 bei 280 ppm. Bis zum Jahre 2001 stieg die auf dem Vulkan Mauna Loa auf Hawaii gemessene Konzentration auf 370 ppm an. Der in 150 Jahren akkumulierte CO2-Überschuss geht höchstwahrscheinlich zum größten Teil auf die Verbrennung fossiler Energieträger und auf Waldrodungen und nur zum geringeren Teil auf die Freisetzung von CO2 aus den Ozeanen zurück. So weit scheinen sich die mit Klimafragen befassten Naturwissenschaftler einig zu sein. Anlass zu Streit geben aber die Fragen, was das überschüssige CO2 bewirkt und was damit kurz- und mittelfristig geschieht.

Der von der World Meteorological Organization (WMO) und vom UN-Umweltprogramm (UNEP) eingesetzte Welt-Klimarat Intergovernmental Panel on Climate Change (IPCC) nimmt in seinen Warnungen vor einer drohenden Überhitzung unseres Planeten implizit eine mittlere Verweildauer des CO2 in der Atmosphäre von etwa 570 Jahren an und schätzt auf dieser Basis den möglichen Anstieg der globalen Durchschnittstemperatur bis zum Ende dieses Jahrhunderts auf bis zu 5,8 Grad Celsius. Schon im Herbst 2001 hatte der britische Chemiker Jack Barrett auf einem von der DECHEMA Gesellschaft für Chemische Technik und Biotechnologie in Frankfurt am Main veranstalteten Kolloquium darauf hingewiesen, aus dem Abklingen des 14C-Peaks nach der Einstellung oberirdischer Kernwaffenversuche nach dem Teststopp-Abkommen von 1962 lasse sich eine CO2-„Halbwertszeit“ von weniger als 40 Jahren errechnen.

In der Zwischenzeit hat der im (Un)ruhestand lebende Elektroingenieur und Hobby-Klimaforscher Peter Dietze als offizieller Reviewer des IPCC ein einfaches „Wasserkastenmodell“ der globalen C-Flüsse durchgerechnet. Mithilfe einer Regressionsanalyse der in der Nachkriegszeit gemessenen CO2-Werte gelangt er dabei zu einer 1/e-Lebensdauer der CO2-Überschüsse von 55 Jahren beziehungsweise einer „Halbwertszeit“ von 38 Jahren. Auf dieser Basis sei bis zum Jahrhundertende mit einer globalen Erwärmung von lediglich 0,52 °C zu rechnen.

Am 6. März gab die DECHEMA Dietze nun die Gelegenheit, seinen Ansatz mit den Auffassungen einer Reihe international anerkannter Klima-Forscher zu konfrontieren. Auf generelle Skepsis stieß die von Dietze vorgenommene Zusammenfassung der sehr unterschiedlichen Verweilzeiten des Kohlenstoffs in verschiedenen Kompartimenten der Biosphäre zu einer einzigen Zeitkonstanten analog zur Parallelschaltung elektrischer Widerstände und Kapazitäten. Der Botaniker Prof. Dr. Ernst-Detlef Schulze, Direktor des Max-Planck-Instituts (MPI) für Biogeochemie in Jena, forderte, neben der Parallelschaltung müsse auch die Reihenschaltung von C-Quellen und Senken berücksichtigt werden, was das Modell komplizierter mache und die theoretische Verweildauer des Kohlenstoffs in der Biosphäre ansteigen lasse. Dietze verwies demgegenüber auf die gute Übereinstimmung seiner Berechnung mit dem in den letzten 27 Jahren gemessenen durchschnittlichen CO2-Anstieg um etwa 1,5 ppm im Jahr. Danach würde im Jahre 2075 eine Maximalkonzentration von 470 ppm erreicht. Eine Simulation auf der Basis der IPCC-Parameter führe demgegenüber zu einem progressiven CO2-Anstieg von jährlich etwa 2,6 ppm und schon die gegenwärtig messbare CO2-Konzentration würde um 12 ppm überschritten.

Aber auch Prof. Schulze ist mit dem Kyoto-Protokoll nicht glücklich, obwohl er es grundsätzlich als einen ersten Schritt in Richtung auf eine „planmäßige Gestaltung globaler Stoffkreisläufe“ befürwortet. Die in dem Abkommen erstmals eingeräumte Möglichkeit, an Stelle der Emissionsreduktion biologische C-Senken durch Aufforstung neu zu schaffen, sei eine kaum verhohlene Einladung zum Missbrauch. Es sei versäumt worden, klar zu definieren, was überhaupt als C-Senke anerkannt werden kann. Zum Beispiel werden Flächen von 500 Hektar, die zu zehn Prozent vom Kronendach von Bäumen bedeckt sind, schon als Wälder gezählt. Da die Anrechnungsperiode erst 2008 beginnt, sind bis dahin noch großflächige Rodungen von Primärwäldern möglich. Dabei wird viel Kohlenstoff durch Humusabbau freigesetzt. Werden gerodete Flächen für den humuszehrenden Kartoffelanbau genützt, entstehen weitere C-Verluste. Auch beim Weizenanbau sei die C-Bilanz negativ, betont Schulze. Und bei der oft gepriesenen energetischen Nutzung landwirtschaftlich erzeugter Biomasse sei auch nicht viel zu gewinnen. Bei der Erzeugung von Rapsöl zum Beispiel gehe der anfängliche Gewinn größtenteils wieder durch die notwendige Methylierung verloren.

Andererseits würden nachhaltig bewirtschaftete Wälder in den gemäßigten Zonen nicht als Senken anerkannt, obwohl die Annahme, nicht bewirtschaftete Wälder seien bessere C-Senken, nachweislich falsch sei. Schulze bezieht sich dabei auf den Modellwald Hainich in Thüringen, in dem mithilfe eines Messnetzes die jährliche Fixierung von sechs Tonnen Kohlenstoff je Hektar nachgewiesen wurde. Im B-Horizont des Waldbodens (Mineralboden) kann Kohlenstoff übrigens bis zu 6.000 Jahre gespeichert werden, wobei sich langkettige Lipide (Wachse) und nicht etwa Lignin am langlebigsten erweisen.

Wie Prof. Dr. Wolfgang Cramer vom Potsdam-Institut für Klimafolgenforschung in Frankfurt darlegte, beträgt die gesamte jährliche Aufnahme von Kohlenstoff durch die Landpflanzen etwa 60 Gigatonnen (Nettoprimärproduktivität). Die nach Abzug der Atmung verbleibende Nettoökosystemproduktivität beträgt aber nur ein Zehntel davon. Noch geringer ist mit 1 bis 2 Gt/a die Nettobiomproduktivität, die Ernte-Entnahmen und Schädlingsfraß Rechnung trägt. Diese Schätzungen stimmen durchaus mit dem Modell Dietzes überein.

Schwieriger ist die Abschätzung der Auswirkungen historischer und aktueller Landnutzungsänderungen. Cramer geht davon aus, dass durch die historischen Entwaldungen insgesamt 180 bis 200 Gigatonnen Kohlenstoff freigesetzt wurden. Zwischen 1920 und 1958 sei auch die Landwirtschaft unterm Strich eine C-Quelle gewesen; seither sei sie aber eine schwache C-Senke. Nach dem einfachen CLIMBER-Modell verstärken aktuelle Entwaldungen in den Tropen die globale Erwärmung, während Abholzungen in der borealen Klimazone zur lokalen Abkühlung führen. Sehr viel aufwändiger ist das LPJ-Modell, an dem das Potsdam-Institut und das Jenaer MPI gemeinsam arbeiten. Es trägt Ereignissen wie dem Pinatubo-Ausbruch und der Stimulierung des Pflanzenwachstums durch zusätzliches CO2 Rechnung, erlaubt aber bis heute kaum Aussagen über konkrete Auswirkungen von Landnutzungsänderungen. Möglicherweise sei aber die Forst- und Landwirtschaftspolitik für den Kohlenstoffhaushalt in Zukunft wichtiger als die Energiepolitik, deutete Cramer an.

Auf Widerspruch stieß Dietzes Annahme, der atmosphärische Anteil (die „airborne fraction“) der globalen CO2-Vorräte müsse in der Nachkriegszeit zugunsten des in den Ozeanen gelösten Teils abgenommen haben, da der gemessene CO2-Anstieg hinter den stark ansteigenden Emissionen zurück bleibe. Dr. Martin Heimann vom Jenaer MPI, ein Schüler der inzwischen verstorbenen Berner Pioniere der globalen C-Kreislauf-Forschung, Oeschger und Siegenthaler, glaubt anhand von Messwerten demonstrieren zu können, dass unverändert etwa 40 Prozent des durch menschliche Aktivitäten freigesetzten CO2 in der Atmosphäre landen, während insgesamt 60 Prozent von den Ozeanen und der Landbiosphäre aufgenommen werden. Die gleichzeitig mit der Zunahme des Gesamtkohlenstoff-Gehaltes der Ozeane registrierte leichte Abnahme des Sauerstoff-Gehaltes der Atmosphäre zeige, dass die Verbrennung fossiler Vorräte die Hauptquelle des globalen CO2-Anstiegs sei. Da die am Südpol gemessenen CO2-Zuwächse der Mauna-Loa-Kurve etwas nachhinken, stehe überdies außer Frage, dass die stärker industrialisierte und urbanisierte Nordhemisphäre die Hauptquelle der CO2-Emissionen ist. Da es im Ozean keinen Düngeeffekt des CO2 gebe, müsse man wegen der Nichtlinearität der Karbonatchemie überdies mit einer Verringerung der Senkenkapazität der Ozeane rechnen.

Ein Sinken der Pufferkapazität der Ozeane befürchtet auch der schottische Ozeanograph Douglas W.R. Wallace, der jetzt am Kieler Institut für Meereskunde arbeitet. „Don’t forget the importance of chemistry!“, warnte er. Insbesondere könnten Organismen mit Kalkschalen Probleme mit einem sinkenden pH bekommen. Möglicherweise könne die Kohlensäure aber auch durch unterseeische Vulkanausbrüche und große Kalkstein-Vorkommen neutralisiert werden. Fazit: Nichts Genaues weiß man nicht.

Etwas präzisere Angaben über das CO2-Absorptionsvermögen der Ozeane versuchte die Heidelberger Physikerin Dr. Ingeborg Levin, eine Spezialistin für Radiocarbon-Messungen, zu machen. Ihre eigenen in Zusammenarbeit mit Vago Hesshaimer und Martin Heimann durchgeführten Berechnungen auf der Basis des rasch abgeklungenen 14C-Peaks aus den Kernwaffen-Versuchen, die 1994 in „nature“ veröffentlicht wurden, sowie eine im vergangenen Jahr abgeschlossene neue 14C-Inventur der Ozeane von Peacock und Mitarbeitern legten eine Korrektur der 1995 von Wallace S. Broecker und Kollegen veröffentlichten Schätzung der CO2-Aufnahmerate der Ozeane um 25 Prozent nach unten nahe. Jedenfalls sei die Hoffnung, die Meere könnten den menschengemachten CO2-Überschuss aufnehmen, unbegründet. An der Umsetzung des Kyoto-Protokolls führe kein Weg vorbei. Im Übrigen könnten die von ihrem Institut durchgeführten Radiocarbon-Messungen den Suess-Effekt (die Verdünnung des natürlichen 14C-Gehalts der Atmosphäre durch 14C-freies CO2 fossilen Ursprungs) nutzen, um die Umsetzung des Kyoto-Protokolls auf regionaler Ebene zu kontrollieren.

Demgegenüber fragte Peter Dietze, ob dem Suess-Effekt wirklich eine so große Beweiskraft zukommt, wenn man davon ausgehe, dass nicht 30, sondern allenfalls 5 Prozent des CO2-Gehalts der Atmosphäre menschlichen Ursprungs sind. Sollte die von Dietze vorgestellte Modellrechnung realistisch sein, wäre das Kyoto-Protokoll überflüssig. Denn die von ihm geschätzte globale Erwärmung um ein halbes Grad (und höchstwahrscheinlich auch noch einiges mehr) wäre nicht nur ohne weiteres von der Biosphäre verkraftbar, sondern könnte sich in nördlichen Breiten sogar als Segen für die Landwirtschaft erweisen. Welche Seite hier wieweit recht hat, ist selbst für ein Fachpublikum kaum auszumachen.

Edgar Gärtner

Kommentar

Die Rechnung geht nicht auf

Wie man es auch dreht und wendet: Die globale Kohlenstoffbilanz zeigt große Lücken. Wieso konnte das 14C aus dem A- und H-Bomben-Fall-out noch deutlich schneller aus der Atmosphäre verschwinden als erwartet? Warum kann die Mauna-Loa-Kurve langsamer ansteigen als die globalen CO2-Emissionen, wenn die Weltmeere weniger Kohlenstoff aufnehmen als bislang angenommen? Diese offenen Fragen zeigen, dass wir von einer wissenschaftlichen Begründbarkeit von „Klimapolitik“ so weit entfernt sind wie eh und je.

Dabei ist der Kohlenstoffkreislauf nach gängiger ökologischer Lehrmeinung ohnehin nur drittrangig. Die Entwicklung des „Erdsystems“ wird in der Hauptsache vom Wasserkreislauf bestimmt. Dieser aber ist so komplex, dass jeder, der vorgäbe, ihn im Detail analysieren und steuern zu können, sofort für verrückt erklärt würde. An zweiter Stelle folgt der Kreislauf des Sauerstoffs. Dieser rückt erst neuerdings etwas ins Blickfeld, weil festgestellt wurde, dass der O2-Gehalt der Atmosphäre sinkt. Beunruhigend ist das aber nicht. Im Gegenteil: Die Welt wird sicherer, weil dadurch die Gefahr spontaner Brände abnimmt. Zum Atmen reicht der übrig bleibende Sauerstoff allemal.

Wie ein beteiligter Forscher mit entwaffnender Offenheit erklärte, hat sich die Klimaforschung vor allem deshalb auf den drittrangigen C-Kreislauf konzentriert, weil sich CO2 im Unterschied zu Wasserdampf ziemlich gleichmäßig in der Atmosphäre verteilt und menschengemachte CO2-Emissionen das einzige Schräubchen sind, an dem man drehen zu können glaubt. Doch wird die „Klimapolitik“ zur Augenwischerei, wenn sie neben einigermaßen kalkulierbaren menschengemachten CO2-Emissionen auch auf ein Management natürlicher C-Senken abzielt. Außer Deutschland ist denn auch bislang kein Land der Welt Kyoto-Verpflichtungen in nachprüfbarer Größenordnung eingegangen. Außer dem Verschwinden bestimmter Industrien aus Deutschland und der Verwandlung des Landes in einen Vogelscheuchenpark (Verzeihung: Windpark) dürfte das Kyoto-Protokoll also nichts bewirken.

Edgar Gärtner

(veröffentlicht in: Chemische Rundschau, CH-Solothurn, Nr. 6/25. März 2003)

Abkehr vom Kioto-Prozess wird unausweichlich

Auch in der deutschen Industrie gibt es neuerdings gewichtige Stimmen, die den sogenannten Kioto-Prozess als Sackgasse bezeichnen und anregen, sich der US-Position anzuschließen.

Klimapolitik

Abschied von Kioto. Energiepolitik muss wieder Standortpolitik werden

Auch in der deutschen Industrie gibt es neuerdings gewichtige Stimmen, die den sogenannten Kioto-Prozess als Sackgasse bezeichnen und anregen, sich der US-Position anzuschließen.

Der G-8-Gipfel Anfang Juli 2005 in Gleneagles/Schottland hat das Kioto-Protokoll beerdigt. Ein „Kioto-zwei“ oder „Kioto-Plus“ wird es vermutlich nicht geben. Stattdessen werden sich die führenden Industriestaaten der Welt gemeinsam mit ihren neuen Rivalen China und Indien um konzertierte Maßnahmen zur Anpassung an den Klimawandel und eine verstärkte Förderung „sauberer“ Methoden der Energieerzeugung bemühen. Die von den G-8-Staatschefs verabschiedete Erklärung hält fest, dass der weltweite Energiebedarf in den nächsten 25 Jahren um schätzungsweise 60 Prozent steigen wird und 16 Billionen Dollar in die Erschließung verlässlicher und bezahlbarer Energiequellen investiert werden müssen. Windräder können damit kaum gemeint sein. US-Präsident George Bush hat sich auf der ganzen Linie durchgesetzt. Die auf Kioto eingeschworenen deutschen Massenmedien haben erst gar nicht versucht, ihrem verwirrten Publikum diese Nachricht zu verkaufen. Sie haben sie zunächst schlicht tot geschwiegen.

Umso größer war die Überraschung, als die Vereinigten Staaten kurz nach dem G-8-Gipfel in Vientiane/Laos, ganz im Sinne der in Gleneagles verabschiedeten Erklärung, ein Abkommen über ein „Asia-Pacific Partnership on Clean Development and Climate“ zwischen den USA, China, Indien, Japan, Südkorea und Australien vorstellten. Die Mitglieder des neuen Bündnisses repräsentieren immerhin etwa 45 Prozent der Weltbevölkerung, fast die Hälfte der globalen CO2-Emissionen, fast zwei Drittel der Welt-Kohleförderung sowie fast die Hälfte des Erdölverbrauchs und haben somit ein größeres Gewicht als die im Anhang I des Kioto-Protokolls aufgeführten Länder, die sich verpflichtet haben, ihre Emissionen von CO2 und anderen „Treibhausgasen“ bis zum Jahre 2012 um durchschnittlich fünf Prozent unter das Niveau von 1990 zu drücken.

Diesem Abkommen, das ohne jegliche Einbeziehung der Vereinten Nationen und der Europäischen Union ausgehandelt wurde, werden sich wahrscheinlich in nächster Zeit noch weitere asiatische Länder anschließen. Und selbst in Europa gibt es immer mehr Stimmen, die fordern, das verbissene Ringen um ein „Kioto Plus“ aufzugeben und sich dem neuen Pakt anzuschließen. Besonderes Aufsehen erregte eine kurz vor dem G-8-Gipfel vom Wirtschaftsausschuss des britischen Oberhauses veröffentlichte Erklärung, die auf einer Studie fußt, die die Lords bei dem inzwischen emeritierten Londoner Top-Ökonomen David Pearce in Auftrag gegeben hatten. Dort hatte Pearce am Kioto-Ansatz insbesondere die fehlende Abwägung zwischen den Kosten einer Anpassung an den Klimawandel und den Kosten des (vermutlich vergeblichen) Versuchs, diesen aufzuhalten, beanstandet. Die Lords empfahlen dem britischen Premierminister Tony Blair daraufhin, seine verzweifelten Bemühungen, George Bush doch noch zur Ratifizierung des Kioto-Protokolls zu bewegen, aufzugeben und stattdessen mit den Amerikanern ein Abkommen über die Entwicklung sauberer Technologien abzuschließen.

In diesem Sinne äußerte sich Mitte August auch Carsten Kreklau, Mitglied der Hauptgeschäftsführung des Bundesverbandes der Deutschen Industrie (BDI). Die deutsche Politik müsse zur Kenntnis nehmen, „dass absolute Emissionsminderungsverpflichtungen wie im Kioto-Protokoll international nicht durchsetzbar sind“, schreibt Kreklau in einem der Presse zugespielten Namens-Beitrag. „Wenn wir in Deutschland mit höchstem Aufwand und immensen Kosten versuchen, den CO2-Ausstoß weiter zu senken, bringt das für das weltweite Klima fast nichts.“

Schon auf der vage ausgegangenen Weltklima-Konferenz in Neu Delhi vor zwei Jahren war deutlich geworden, dass sich den Anhang-I-Staaten des Kioto-Protokolls keine weiteren Länder anschließen würden. Insbesondere China und Indien konnten im Interesse ihrer boomenden Wirtschaften nicht an einer Einschränkung der energetischen Nutzung ihrer immensen Kohlevorräte interessiert sein und fanden sich damit – ob gewollt oder ungewollt – an der Seite der Kohle-Großmacht USA, die dabei ist, Milliarden in die Entwicklung sauberer Kohletechnologien zu investieren. Dennoch konnte das Kioto-Abkommen zu Beginn dieses Jahres offiziell in Kraft treten, weil sich Russlands Präsident Wladimir Putin in der Hoffnung, der EU gegen Bares mit der buchhalterischen Verwertung der ihm auf der Klimakonferenz von Marrakesch großzügig zugestandenen Kohlenstoff-Senken aus der Klemme zu helfen, im letzten Moment auf die Seite der EU schlug.

In der Tat steuert die europäische „Klimapolitik“ auf eine ernste Glaubwürdigkeitskrise zu. Während führende Politiker Deutschlands und der EU nicht müde werden, US-Präsident George Bush als Saboteur des Kioto-Abkommens anzuprangern und ihn nun sogar für die katastrophalen Folgen des Hurrikans „Katrina“ im Mississippi-Delta verantwortlich machen, zeichnet es sich immer deutlicher ab, dass die EU ihr eigenes (bescheidenes) CO2-Reduktionsziel von 8 Prozent weit verfehlen wird. Nach Angaben der Europäischen Umweltagentur (EEA) in Kopenhagen sind die CO2-Emission der 15 alten EU-Mitgliedsländer zwischen 2001 und 2004 um 3,6 Prozent gestiegen. Auch das Hinzukommen von 10 neuen Mitgliedsstaaten im Osten dürfte an diesem Trend nicht viel ändern. Im günstigsten Fall wird jetzt eine Reduktion von gerade einmal einem Prozent erwartet. Ein mageres Ergebnis, das mit Unsummen erkauft werden müsste, weil kostengünstige Möglichkeiten der CO2-Reduktion schon weitgehend ausgeschöpft sind. Das gilt in besonderem Maße für die chemische Industrie, die überproportional zur Selbstverpflichtung der Industrie und zur deutschen „Vorreiterposition“ in Sachen Energieeffizienz und CO2-Reduktion beigetragen hat. Noch immer gilt die Schätzung des Energieberichtes des damaligen Bundeswirtschaftsministers Werner Müller vom Oktober 2001, wonach die Umsetzung des von der rot-grünen Regierung ins Auge gefassten Zieles einer CO2-Reduktion von 40 Prozent bis zum Jahre 2020 in Deutschland nicht weniger als 256 Milliarden Euro verschlänge.

Dabei stand es außer Frage, dass die in Deutschland in den 90er Jahren erzielten CO2-Einsparungen von über 15 Prozent zum allergrößten Teil auf den Zusammenbruch der sozialistischen Wirtschaft im Osten und ansonsten auf Effizienzsteigerungen bei gleichzeitigem schwachen Wirtschaftswachstum zurückzuführen ist. Insofern sei es nicht verwunderlich, dass Deutschlands selbst gewählte Vorreiterrolle „andere Staaten eher zu einem abwartenden Handeln animiert“ habe, schrieb Dr. Jörg Rothermel, beim deutschen Verband der Chemischen Industrie (VCI) unter anderem zuständig für Klimaschutz und Energiepolitik, in einer Bewertung der rot-grünen Ziele für einen „Klimaschutz nach 2012“. Die EU-Mitgliedsländer, die derzeit ein nennenswertes Wirtschaftswachstum zu verzeichnen haben (wie Spanien, Irland, Dänemark oder Österreich) liegen inzwischen so weit über den von der EU in Kioto eingegangenen Selbstverpflichtung, dass schon jetzt ausgeschlossen werden kann, dass sie bis 2008/2012 noch die Kurve kriegen.

Sollte es wider Erwarten gelingen, auch die wenigen anscheinend Kioto-konformen, weil wirtschaftlich stagnierenden EU-Länder wie Deutschland und Frankreich wieder auf einen Wachstumspfad zu bringen, könnte man die Kioto-Ziele auf jeden Fall vergessen. Der EU, die sich in Sachen „Klimapolitik“ als Lehrmeister der Welt aufspielt, drohen übrigens im Falle des Verfehlens der Kioto-Ziele Strafen. Sie müsste sich dann in einem „Kioto-zwei“-Abkommen zu weitaus drastischeren Reduktionszielen verpflichten und könnte sogar vom weltweiten Emissionshandel ausgeschlossen werden – und damit von vergleichsweise kostengünstigen Clean-Development-Mechanism-Deals wie etwa Aufforstungsmaßnahmen in Entwicklungsländern.

Gerade auf einen Ausbau des internationalen Emissionshandels setzt jedoch Carsten Kreklau vom BDI. Er lässt jedoch im Unklaren, wie das inzwischen in Kraft getretene Europäische Emissionshandels-Schema (ETS), das auf den festen quantitativen Kioto-Verpflichtungen der EU und ihrer Mitgliedsstaaten aufbaut und somit nichts anderes als ein Rationierungssystem darstellt, in einen offenen Markt ohne absolute Emissionsziele überführt werden könnte.

Schon wenige Monate nach dem Start des ETS zeichnet es sich ab, dass es die EU in eine Sackgasse führen wird. Lag der an der Leipziger Strombörse EEX gehandelte Zertifikat-Preis für eine Tonne CO2 zu Beginn dieses Jahres noch unter sieben Euro, so ereichte er im Sommer kurzfristig schon 29 Euro und pendelte dann um 20 Euro, das heißt etwa auf dem doppelten des ursprünglich von der EU-Kommission für die erste Handelsperiode geschätzten Niveaus. Dadurch wird offenbar, dass dieser Preis nicht einfach vom Verhältnis zwischen Angebot und Nachfrage bestimmt wird, sondern von den Kosten des Umstiegs von Kohle auf Gas bei der Elektrizitätserzeugung. Darauf wies Seb Walhain von der Fortis-Bank (nach einer Meldung von Reuters) schon im Juni hin.

Wäre Erdgas, wie noch vor einem Jahrzehnt, relativ billig, wäre es für die Stromkonzerne ein Leichtes, den Kioto-Verpflichtungen nachzukommen, da Gaskraftwerke je Kilowattstunde nur höchstens halb so viel CO2 ausstoßen. Doch inzwischen ist der Gaspreis wegen der großen Nachfrage so weit gestiegen, dass Kohlekraftwerke selbst bei Berücksichtigung ihres zusätzlichen Bedarfs an CO2-Zertifikaten wieder billigeren Strom produzieren. Der bereits einmal erreichte Zertifikatpreis von 29 Euro liegt nach Ansicht von Analysten in der Nähe des Niveaus, oberhalb dessen sich ein Umstieg von Kohle auf Gas lohnt. Täten das aber viele Kraftwerksbetreiber gleichzeitig, würde der Gaspreis aufgrund der großen Nachfrage rasch so stark ansteigen, dass sich wieder ein Vorteil für Kohle ergäbe.

Also müssen sich die deutschen Stromkonzerne mit zusätzlichen Zertifikaten eindecken und auch die Zertifikate, die ihnen beim Start des ETS gratis zugeteilt wurden, entsprechend den steigenden Marktpreisen in ihren Kalkulationen berücksichtigen. Nach einer Schätzung des schweizerischen Finanzkonzerns UBS (zitiert im Wall Street Journal vom 10. August) ist die Einpreisung von CO2-Zertifikaten in Deutschland für einen 15-prozentigen Anstieg der Strompreise seit dem Start des ETS verantwortlich. Und das ist vermutlich erst der Anfang. Die Financial Times hat schon am 23. Mai dieses Jahres vor einem baldigen Anstieg des CO2-Zertifikat-Preises auf 40 Euro gewarnt. Denn wenn es sich herumspricht, dass die EU ihr bescheidenes CO2-Ziel weit verfehlen wird, kann der Markt nur in diesem Sinne reagieren. Einen Ausweg böte eine stärkere Nutzung von Atomenergie bzw. die Aufkündigung des deutschen „Atomausstiegs-Konsenses“, der jetzt im deutschen Bundestagswahlkampf von den Kandidaten der Opposition angeboten wurde.

Ende August hat es die Frankfurter Allgemeine Sonntagszeitung endlich gewagt, ihren Lesern reinen Wein über die Zukunftsperspektiven des Kioto-Prozesses einzuschenken, indem sie einen Text von Lord Dick Taverne übersetzte, in dem dieser unter der Überschrift „Vergesst Kioto!“ die Gründe für die zitierte Initiative des britischen Oberhauses anlässlich des G-8-Gipfels darlegt. Lord Taverne kommt darin zu dem vernichtenden Urteil: „Der Kioto-Prozess ist eine bemerkenswerte Übung darin, sich und der Welt etwas vorzumachen. Stufe 1 wird keinen messbaren Effekt auf die Klimaentwicklung haben. Weder Amerika noch Indien oder China…haben vor, sich an den Stufen 1 oder 2 zu beteiligen. Man muss kein Wirtschaftsnobelpreisträger sein, um einzusehen, warum das Kioto-Protokoll in der Liste der Programme zur Lösung globaler Krisen ganz nach unten rutschen sollte.“

Angesichts dieser Entwicklung haben die Verbände sämtlicher energieintensiver deutscher Industriezweige (darunter an führender Stelle der VCI), die mit einem Bedarf von 100 Terawattstunden Strom und 200 TWh Gas etwa ein Viertel der gesamten deutschen Energienachfrage auf sich vereinigen, Anfang September in einer gemeinsamen Erklärung einen „Richtungswechsel in der deutschen und europäischen Klimapolitik“ gefordert. Deutschland und die EU müssten ihre Alleingänge aufgeben und nach einem internationalen Abkommen streben, das die USA, China und Indien einschließt. Konkret plädieren die Verbände für eine Verlängerung der Restlaufzeit deutscher Atomkraftwerke und für transparente, kostensenkende Wettbewerbsbedingungen auf dem Strommarkt. Des weiteren regen sie eine deutliche Absenkung der Förderung „erneuerbarer“ Energien und eine weitergehende Entlastung energieintensiver industrieller Prozesse wie Elektrolysen, mineralogische und metallurgische Verfahren von der Ökosteuer entsprechend der EU-Energiesteuerrichtlinie an. „Energiepolitik muss wieder Standortpolitik werden!“, fordern die Industrieverbände von der aus den Wahlen vom 18. September hervorgehenden neuen deutschen Bundesregierung.

Edgar Gärtner

Kasten:

Die Musik spielt im Ozean

Selbst wenn es gelänge, alle menschengemachten Emissionen von „Treibhausgasen“ sofort zu stoppen, würde die globale Erwärmung – so sie denn real ist – mindestens noch ein halbes Jahrhundert lang ungebremst fortschreiten. Zu dieser Schlussfolgerung kamen im letzten halben Jahr unabhängig voneinander mehrere im Magazin Science veröffentlichte Aufsätze der führenden US-Klimaforscher Gerald Meehl, Tom Wigley und James Hansen. Der Grund dafür ist die große thermische Trägheit der Ozeane, die 71 Prozent der Erdkugel bedecken. Schon eine lediglich 10 Zentimeter dicke Schicht Meerwasser speichert mehr Wärme, als der atmosphärische Treibhauseffekt, entsprechend den „offiziellen“ Klimamodellen, überhaupt produzieren könnte. Deshalb hat der kalifornische Ozean-Physiker Tim Barnett schon vor einiger Zeit darauf hingewiesen, dass die Atmosphäre der am wenigstens geeignete Ort ist, um nach einem Signal der globalen Erwärmung zu suchen. Die Musik spielt im Ozean.

Dieser scheint nach den oben zitierten Forschern in den letzten jahrzehnten tatsächlich wärmer zu werden. Der Streit dreht sich nun um die Frage, woher die zusätzliche Wärme stammt. James Hansen ist sich sicher, dass der menschengemachte zusätzliche Treibhauseffekt dahinter steckt. Doch sein NASA-Kollege Bruce Wielicki glaubt in einer im Mai dieses Jahres ebenfalls in Science veröffentlichten Studie über Veränderungen des asiatischen Monsun nachgewiesen zu haben, dass die in den letzten Jahrzehnten deutlich gestiegene Kraft der Sonne entscheidend war.

Wie dem auch sei, es ist völlig klar, dass das die Umsetzung des Kioto-Protokolls und selbst eines „Kioto 2“ außer einer wirtschaftlichen Verarmung nichts bewirken würde. Der Analyst Charles Dumas vom Londoner Lombard Street Research hat vor kurzem auf der Basis der Arbeiten über die thermische Trägheit der Ozeane vorgerechnet, die Industrieländer müssten mindestens die Hälfte ihres Bruttosozialproduktes opfern, um mit Klimapolitik etwas bewirken zu können. Kein Wunder, dass unterschiedliche Hypothesen über die Ursachen des Klimawandels in der Auseinandersetzung um die Zukunft des Kioto-Protokolls kaum noch eine Rolle spielen. Den Menschen bleibt gar nichts anderes übrig, als sich an den Klimawandel anzupassen, zumal dieser neben den oft als Argument für „Kioto“ ins Feld geführten negativen auch angenehme Seiten haben kann. eg

(veröffentlicht in: Chemische Rundschau (VS/H-Medien, CH-Soluthurn) Nr. 9/2005 v. 20.9.2005)

Klimaforschung und Politik

Verhielt sich die Industrie nicht kurzsichtig, als sie sich den Warnungen vor einer drohenden „Klimakastrophe“ unhinterfragt anschloss?

Die „Klimapolitik“ (wir setzen diesen Ausdruck bewusst in Anführungszeichen!) begann nicht erst mit der Verabschiedung des „Rahmenübereinkommens der Vereinten Nationen über Klimaänderungen“ (Klimakonvention) auf der VN-Konferenz über Umwelt und Entwicklung (UNCED) vor zehn Jahren in Rio de Janeiro und dem darin festgelegten Ziel einer „Stabilisierung der Treibhausgaskonzentrationen in der Atmosphäre auf einem Niveau…, auf dem eine gefährliche anthropogene Störung des Klimasystems verhindert wird.“ Vielmehr besiegelten die auf dem „Erd-Gipfel“ von Rio von über 170 Regierungsdelegationen angenommenen Erklärungen und Aktionsprogramme einen Prozess der Neubestimmung des Verhältnisses von Politik und Wissenschaft, deren Wurzeln bis zum Ende der 60er Jahre des vergangenen Jahrhunderts, das heißt bis in die Zeit des Kalten Krieges zwischen dem individualistisch-marktwirtschaftlich orientierten Westen und dem kollektivistischen Ostblock zurückreichen. Die damals im Rahmen des atlantischen Militärbündnisses NATO beschlossene „Nutzbarmachung wissenschaftlicher Erkenntnisse bei der politischen Entscheidungsbildung“, bei der die Bundesrepublik Deutschland die Rolle des „Musterlandes“ spielte, bestätigt die alte Erkenntnis, dass verfeindete Lager einander ähnlicher werden, wenn sie ihre Kräfte messen.

Anfang April 1969 hob der damalige US-Präsident Richard Nixon anlässlich des 20. Jahrestages der Unterzeichnung des Nordatlantikvertrages die sogenannte „Dritte Dimension“ der NATO aus der Taufe, und zwar mit der Begründung, dass „das westliche Bündnis“ (neben der militärischen und politischen) „eine soziale Dimension benötigt, um sich mit unseren Besorgnissen über die Qualität des menschlichen Lebens im letzten Drittel dieses Jahrhunderts zu befassen.“ Nixon verstand die „Dritte Dimension“ der NATO als Antwort auf die Infragestellung des westlichen Nachkriegs-Wirtschaftswunder-Konsenses durch die Studentenbewegung von 1968 und die wachsende Opposition gegen den Vietnam-Krieg und dessen soziale Folgen. Diese Protestbewegung erscheint im Rückblick als eine Art Betriebsunfall des Kalten Krieges.

Noch im Dezember 1969 trat das NATO Committee on Challenges of Modern Society (CCMS) zu seiner konstituierenden Sitzung zusammen. 1971 veröffentlichte das NATO-Hauptquartier in Brüssel die programmatische Schrift „Das Atlantische Bündnis und die Umweltkrise“. Dort wurde der seit 1958 auf dem erloschenen Vulkan Mauna Loa auf Hawai gemessene kontinuierliche Anstieg des CO2-Gehaltes der Atmosphäre erstmals zum vordringlichen Umweltproblem erklärt – und zwar zu einer Zeit, als die Geowissenschaftler noch nahezu einhellig den nahenden Beginn einer neuen Eiszeit fürchteten. Es heißt dort: „Die Atemluft des Menschen wird durch etwa 12 Milliarden Tonnen Kohlendioxyd verseucht, die jedes Jahr von unserer Industriegesellschaft freigesetzt werden. Etwa die Hälfte dieser Menge bleibt permanent in der Luft. Es ist damit zu rechnen, dass der Kohlendioxydgehalt der Luft sich bis zum Jahre 2000 um 25 Prozent erhöht haben wird. (…) Die genauen Auswirkungen sind noch ungewiss, jedoch erscheint eine Verschiebung der durchschnittlichen Temperatur der Erde um mehrere Grad durchaus vorstellbar.“

Offenbar bezieht sich die Broschüre dabei auf den Bonner Geophysiker Hermann Flohn, der als Mitglied des NATO-Wissenschaftsausschusses eine 1896 vom schwedischen Chemiker Svante Arrhenius als Erklärung für die Entstehung der Eiszeiten aufgestellte Hypothese neu in die Diskussion gebracht hatte. Arrhenius vermutete, die Durchschnittstemperatur der Erde hänge in erster Linie von der CO2-Konzentration einer „Strahlungsschicht“ in sechs Kilometern Höhe ab, die durch „Gegenstrahlung“ reflektierter Sonnenenergie dafür sorge, dass die mittlere Temperatur der Erdoberfläche nicht der eines „schwarzen Strahlers“ (nach Stefan-Boltzmann) von minus 18 Grad entspricht, sondern plus 15 Grad Celsius beträgt. Verdoppele sich die CO2-Konzentration, steige der durchschnittliche Temperatur um 4 bis 6 °C. Sinke hingegen die CO2-Konzentration, komme es zur Abkühlung der Erdoberfläche und letztlich zu einer Eiszeit. Mit dieser Hypothese konnte Arrhenius um die vorletzte Jahrhundertwende niemanden überzeugen, weil sie nicht erklären konnte, wie eine einmal eingetretene Eiszeit zu einem Ende kommen konnte. Den Nobelpreis für Chemie bekam er 1903 für ganz andere Leistungen. Gegen Ende der 30er Jahre des 20. Jahrhunderts grub dann der englische Ingenieur Gay Stewart Callendar die zwischenzeitlich völlig in Vergessenheit geratene Hypothese wieder aus und versuchte mit einigem Erfolg, ihr mit dem Hinweis auf Arrhenius’ Nobelpreis Autorität zu verleihen. Über Callendar gelangte die Treibhaus-Hypothese noch in den 40er Jahren an Hermann Flohn.

Kasten

Auch wenn sie über das abstruse Postulat einer „Strahlungsschicht“ nur den Kopf schütteln können, akzeptieren viele mit Klimafragen befassten Naturwissenschaftler bis heute Arrhenius’ Herleitung des „natürlichen Treibhauseffektes“ von 33 °C, weil sich bis in die jüngste Zeit offenbar niemand die Mühe machte, seine Originalarbeit zu lesen. Das taten aber der Mainzer Meteorologe Wolfgang Thüne sowie der Braunschweiger Physiker Prof. Gerhard Gerlich und stellten dabei fest, dass Arrhenius grobe Rechenfehler unterlaufen sind. Akzeptiere man dessen Prämissen, so Thüne, gelange man nicht zu einer „Strahlungsgleichgewichtstemperatur“ von –18 °C. Thüne bestreitet allerdings, dass man die Erde überhaupt nach Stefan Boltzmann als punktförmigen schwarzen Körper in einer ebenfalls schwarzen Hohlkugel, mit der er im „Strahlungsgleichgewicht“ steht, betrachten kann, denn dann müssten Erde und Sonne die gleiche Temperatur haben.

Die Temperaturunterschiede zwischen der Erde und ihrem Trabanten, dem Mond, sind nach Thüne nicht in erster Linie die Folge des Gehaltes der irdischen Atmosphäre an Wasserdampf und anderen „Treibhausgasen“, sondern des viel rascheren Wechsels von Tag und Nacht (der Mond braucht für eine Umdrehung 772, die Erde hingegen nur 24 Stunden) sowie des Besitzes großer Wassermassen, die 71 Prozent ihrer Oberfläche bedecken. Das Wasser speichert große Mengen der eingestrahlten Sonnenwärme, und die Kürze der Nächte in den polfernen Regionen der Erde verhindert deren Auskühlung über das offene „atmosphärische Fenster“ zwischen 8 und 13,5 Mikrometer Wellenlänge, in der keines der in der Atmosphäre enthaltenen „Treibhausgase“ Infrarotstrahlen absorbiert. Wären auf der Erde die Nächte länger und fehlte Wasser, wäre es hier so kalt oder so warm wie auf dem Mond, vermutet Thüne. eg

Literatur: Wolfgang Thüne: Freispruch für CO2. Wie ein Molekül die Phantasien von Experten gleichschaltet. edition steinherz, Wiesbaden 2002, ISBN 3-9807378-1-0

Der transatlantischen Zusammenarbeit im Rahmen der „Dritten Dimension“ der NATO ist es im wesentlichen zuzuschreiben, dass zu Beginn der 70er Jahre des 20. Jahrhunderts in allen westlichen Industrieländern gleichzeitig in größter Eile Umweltschutz-Programme nach dem Muster des am 1. Januar 1970 von der Nixon-Regierung verkündeten „National Environment Policy Act“ verabschiedet wurden.

Es ging dabei im Grunde darum, das systemkritische Potential der Studentenrevolte dadurch zu entschärfen, dass man es auf die Schiene umwelt- bzw. soziotechnischer Verbesserungen der „Lebensqualität“ in den Industrieländern lenkte. Aus diesem Grunde wurde Umweltpolitik überall nicht parteipolitisch, sondern überparteilich „systemanalytisch“ begründet. Diesen Zweck erfüllte am besten die vom Club of Rome 1972 veröffentlichte Computersimulationsstudie „Die Grenzen des Wachstums“. Gleichzeitig hofften die NATO-Strategen, den Kalten Krieg durch die Politik des „Brückenschlages“ zum Ostblock auf ein für den Westen günstigeres Terrain verlagern zu können. Das heutige Verständnis von globaler Ökologie ist somit ein Kind des Kalten Krieges.

Dabei spielte die Angst vor einer drohenden Überhitzung unseres Planeten infolge eines menschengemachten „zusätzlichen Treibhauseffektes“ zunächst nur eine untergeordnete Rolle. Zwar schienen Dürren und Ernteausfälle in den USA die Warnungen vor einer Überhitzung der Erde zu bestätigen. Bis weit in die 70er Jahre des 20. Jahrhunderts blieb jedoch unter den Gelehrten die Furcht vor einer neuen Eiszeit vorherrschend, obwohl sich einzelne Forscher wie etwa der US-Klimahistoriker Stephen Schneider zum „Treibhaus“-Glauben bekehrten.

Das änderte sich erst in der zweiten Hälfte der 80er Jahre. Ende Januar 1986 stellte der Arbeitskreis Energie (AKE) der Deutschen Physikalischen Gesellschaft (DPG) der Presse in Bonn ein Papier mit dem Titel „Warnung vor einer drohenden Klimakatastrophe“ vor. Darin malt die von den Physikprofessoren Fricke (Würzburg) und Heinloth (Bonn) angeführte Gruppe in düstersten Farben die Überschwemmung dicht besiedelter Küstenregionen infolge des Abschmelzens polaren Eises durch eine erwartete Temperaturerhöhung von bis zu 8°C aus. (Das Wochenmagazin der „Der Spiegel“ berichtete darüber unter dem Titel „Tod im Treibhaus“.) Mit dieser für einen wissenschaftlichen Verein ungewöhnlichen Dramatisierung dachten die Physiker der Atomindustrie einen Gefallen zu tun. So ging die „skeptische Phase“ des politischen Klima-Diskurses zu Ende, die der Bielefelder Wissenschaftssoziologe Prof. Peter Weingart zwischen 1975 und 1985 ansetzt.

Es folgte die Phase des „Katastrophismus“, die bis zum „Erd-Gipfel“ von Rio reichte. Massenmedien, allen voran „Der Spiegel“ vom 11. August 1986 mit dem halb in den Nordseefluten versunkenen Kölner Dom auf dem Cover, griffen die Warnungen der Physiker auf und machten daraus eingängige Stories, die bewusst an der verbreiteten Urangst vor der Sintflut als Strafe Gottes anknüpften. Im Herbst 1987 setzte der deutsche Bundestag die Enquête-Kommission „Vorsorge zum Schutz der Erdatmosphäre“ ein. Diese hielt eine Reduktion der CO2-Emissionen um 30 Prozent für machbar. Im Jahre 1990 gab dann die deutsche Bundesregierung unter Helmut Kohl ihre vielzitierte einseitige Selbstverpflichtung zu einer 25-prozentigen CO2-Reduktion bis 2005 bekannt. Zu dieser Zeit sprachen alle im Bundestag vertretenen Parteien nur noch von der nahenden „Klimakatastrophe“. Der im angelsächsischen Sprachraum etablierte Terminus „climate change“ erschien ihnen als Verharmlosung.

Auch in den USA kam es zu einer gewissen Dramatisierung des Klima-Diskurses, als James Hansen, Direktor des NASA Goddard Institute for Space Studies, vor einem Ausschuss des Senats erklärte, es sei zu 99 Prozent sicher, „dass der Treibhauseffekt nachgewiesen und unser Klima bereits verändert ist.“ Hansens Aussage gab mit den Ausschlag für die Gründung des internationalen Klima-Schiedsgerichts IPCC durch die World Meteorological Organization (WMO) und das UN Umweltprogramm (UNEP).

So schien es dem US-Senator und Präsidentschaftsanwärter Al Gore naheliegend, in seinem pünktlich zum Rio-Gipfel erschienen Bestseller „Earth in Balance“ zu fordern, die drohende Klimakatastrophe nach dem Zusammenbruch des Ostblocks zum Ersatz-Feindbild des Westens zu machen. Die Rhetorik von der „einen Welt“, deren Ressourcen (einschließlich des Konstrukts „Weltklima“) rationell verwaltet werden sollten, beherrschte denn auch den „Erd-Gipfel“. Niemand fragte, ob es – angesichts der Geburt der Global-Ökologie aus dem Kalten Krieg – überhaupt noch angebracht war, die Einheit der Welt zu beschwören, sobald deren Zweiteilung in Ost und West überwunden war. Das taten erst ein Jahrzehnt danach die Berater des neuen US-Präsidenten George W. Bush.

Dennoch markiert die Rio-Konferenz das Ende des „Katastrophismus“. Aus der Herkules-Aufgabe „Abwendung der nahenden Apokalypse“ wurde eine Routineaufgabe der politischen Regulierung, die, entsprechend dem „Drei-Säulen-Modell“ der Nachhaltigkeit, mit anderen wirtschaftlichen und sozialen Aufgaben wetteifern musste. Nun wurden notgedrungen sehr viel kleinere Brötchen gebacken. Schon die 2. Konferenz der Unterzeichnerstaaten der Klimarahmenkonvention, die im März 1995 in Berlin stattfand, löste ein deutlich geringeres Medienecho aus.

Der „Katastrophen-Konsens“, zu dem es bei den Naturwissenschaftlern ohnehin nur scheinbar gekommen war, weil ihre Mehrheit schwieg, begann nun auch in den Medien zu bröckeln. Der Führung des IPCC gelang es nur mithilfe von Manipulationen, in das „Summary for Policymakers“ des für die Kyoto-Konferenz Ende 1997 ausschlaggebenden 2. IPCC-Berichts (John T. Houghton et al.: Climate Change 1995, Cambridge University Press 1996) die Aussage zu bringen: “In the light of new evidence and taking into account the remaining uncertainties, most of the observed warming over the last 50 years is likely to have been due to the increase in greenhouse gas concentrations.” Doch im Innern des dicken Berichts steht im Gegenteil, keine der zitierten Studien habe die beobachtete Erwärmung auf den Einfluss von „Treibhausgasen“ zurückführen können. In der Tat häuften sich in den 90er Jahren Arbeiten, die den Einfluss der „Treibhausgase“ erheblich geringer ansetzten als den der Solarzyklen und anderer natürlicher Klimaschwankungen. Außerdem konnten präzisere Satelliten-Messungen den in den letzten Jahrzehnten von etwa 1300 ungleich verteilten terrestrischen Mess-Stationen im Mittel registrierten leichten Temperaturanstieg nicht bestätigen. Kurz vor der Kyoto-Konferenz im Dezember 1997 brachte sogar „Der Spiegel“ einen Artikel mit dem Titel: „Der Weltuntergang fällt aus.“

Hätten sich Diplomaten und Wissenschaftler in Kyoto nicht noch im letzten Moment in einer ermüdenden Nachtsitzung auf einen mageren Kompromiss einer globalen CO2-Reduktion von 5,2 Prozent bis 2010 geeinigt, wäre es um die „Klimapolitik“ wohl endgültig geschehen gewesen. Das zeigt der Ausgang der Kyoto-Folgekonferenzen in Den Haag, Bonn und Marrakesch, in denen das CO2-Reduktionsziel durch die mehr als großzügige Anerkennung hypothetischer „Kohlenstoff-Senken“ noch weiter nach unten korrigiert wurde. Die Beschlüsse von Kyoto und Marrakesch – da sind sich alle Experten einig – werden keinen messbaren Einfluss auf die Temperaturkurve der Erde haben. Trotzdem hatten die „Klimaschützer“ in Politik, Wissenschaft und Wirtschaft allen Grund zum Jubeln. Denn die Beschlüsse von Marrakesch machen den Weg frei für das Milliardengeschäft des Emissionshandels. Verdienen dürfte daran hauptsächlich die Groß-Finanz, während die Industrie und ihre Beschäftigten die Zeche zahlen müssen.

Nach Ansicht des Wissenschaftssoziologen Peter Weingart verdeutlicht die Geschichte der „Klimapolitik“ die Grenzen und Risiken des naiv-rationalistischen Modells wissenschaftlicher Politikberatung. Das größte Risiko ist offenbar das der Verselbständigung scheinbar naturwissenschaftlich begründeter politischer „issues“. In einem Empfehlungspapier zur „Verbesserung der Kommunikation zwischen Wissenschaft, Politik und Medien, insbesondere im Hinblick auf die Wahrnehmung der Klimaforschung“, an dem Weingart maßgeblich mitgearbeitet hat, erklärt der Sachverständigenkreis des deutschen Bundesministeriums für Bildung und Forschung (BMBF) für Globale Umweltaspekte unter Vorsitz des Essener Physikochemikers Prof. Reinhard Zellner, „herkömmliche rationalistische Vorstellungen vom Primat wissenschaftlichen Wissens“ seien überholt. „Die Nachfrage der Politik nach gesichertem Wissen“, schreiben die Sachverständigen, „zwingt die Wissenschaft zu Aussagen, die immer stärker durch Nichtwissen gekennzeichnet sind. Die von der Sicherheit wissenschaftlicher Aussagen erwartete Legitimierung politischer Entscheidungen schlägt in ihr Gegenteil um.“ Dem ist nichts hinzuzufügen.

Edgar Gärtner

Zeittafel

1971: Die NATO erklärt die drohende Erwärmung der Erdatmosphäre infolge der steigenden CO2-Konzentration zum vordringlichen Umweltproblem.

1975: Die American Association for the Avancement of Science (AAAS) schließt sich auf ihrer Jahreskonferenz erstmals den Warnungen vor einer globalen Erwärmung an.

1986: Der Arbeitskreis Energie (AKE) der Deutschen Physikalischen Gesellschaft (DPG) erringt mit ihrer „Warnung vor einer drohenden Klimakatastrophe“ die Aufmerksamkeit der Massenmedien.

1987: Die Deutsche Meteorologische Gesellschaft (DMG) schließt sich der Warnung des AKE an, ersetzt aber das Schlagwort „Klimakatastrophe“ durch den sachlicheren Terminus „Klimaänderungen“.

1988: James Hansen, der Direktor des New Yorker Goddard Institute for Space Studies der NASA, erklärt vor einem Ausschuss des US-Senats, mit „99-prozentiger Sicherheit“ sei nachgewiesen, dass der „menschengemachte Treibhauseffekt unser Klima bereits verändert.“ Darauf hin gründen die World Meteorological Organization (WMO) und das UN-Umweltprogramm (UNEP) das International Panel on Climate Change (IPCC).

1991: Die dänischen Physiker Friis-Christensen und Lassen weisen in „Science“ auf auffällige Parallelen zwischen dem Sonnefleckenzyklus und der Entwicklung der mittleren Temperatur über den Landmassen der Erde hin.

1992: Die UN-Konferenz über Umwelt und Entwicklung (UNCED) in Rio de Janeiro verabschiedet das „Rahmenübereinkommen der Vereinten Nationen über Klimaänderungen“ (Klimakonvention).

1995: Auf der 2. Vertragsstaatenkonferenz der Klimakonvention in Berlin profiliert sich Deutschland erneut als Vorreiter des „Klimaschutzes“. International bindende Beschlüsse kommen nicht zustande.

1996: Der IPCC veröffentlicht seinen 2. Bericht. In seinen politischen Empfehlungen steht der vielzitierte Satz: „The balance of evidence suggests a discernible human influence on globale climate.“

1997: Die 3. Vertragsstaatenkonferenz der Klimakonvention in Kyoto einigt sch in letzter Minute auf bescheidene völkerrechtlich verbindliche Vorgaben für die Verminderung des Ausstoßes von CO2 und fünf weiterer „Treibhausgase“.

1999: Ein Statusreport führender Klimaforscher, angeführt von den Professoren Tim Barnett und Klaus Hasselmann, kommt zum Schluss, das „anthropogene Signal“ in der Klimaentwicklung sei nicht auszumachen.

2000: James Hansen widerruft seine Aussage von 1988. Eine Gruppe deutscher Geowissenschaftler unter Ulrich Berner und Hansjörg Streif veröffentlicht die Synthese „Klimafakten“, aus der hervorgeht, dass der Einfluss des CO2 auf die mittlere Temperatur der Erde um zwei Größenordnungen geringer ist als der der Sonnenzyklen. Die 6. Klimakonferenz in Den Haag wird im November ohne Ergebnis abgebrochen.

2001: Der neue US-Präsident George W. Bush kündigt in einem Brief vom 13. März an die Senatoren Craig, Hagel, Helms und Roberts den Ausstieg der USA aus dem „Kyoto-Prozess“ an. Durch die Erhöhung seiner Treibhaus-Erwärmungs-Hochrechnung auf bis zu 5,8 °C bis zum Ende des Jahrhunderts versucht der IPCC in seinem 3. Bericht die Kyoto-Beschlüsse zu retten.. Die Klimakonferenz von Den Haag wird im Juli in Bonn fortgesetzt. Zu einer Einigung kommt es schließlich erst im November in Marrakesch. Schon vor dem „Klima-Gipfel“ von Marrakesch schlägt die EU-Kommission ein rationierendes System der „Luftbewirtschaftung“ mithilfe handelbarer „Treibhausgasemissionsberechtigungen“ vor.

(erschienen Ende 2002 in „Chemische Rundschau“, CH-Solothurn)

Mülltrennung kein Dogma

Angesichts der unendlichen Geschichte der Novellierung einer Verpackungsverordnung, die jeder vernünftige Mensch abschaffen würde, erlaube ich mir, einen älteren Artikel ins Netz zu stellen, der zeigt, welcher Erkenntnisstand bereits vor sechs Jahren erreicht war.

Mülltrennung ist kein Dogma mehr

Die Duales System Deutschland AG (DSD) wird nun gleich von zwei Seiten in Frage gestellt: technisch erweist sich die Abfalltrennung in den privaten Haushalten als unsinnig und juristisch ist das DSD als Monopol nach Ansicht des Bundeskartellamtes nicht haltbar.

Die Deutschen dürfen wieder träumen. Nachdem sich die deutsche Umweltpolitik in den letzten zehn, zwölf Jahren in Form der Quotenregelungen der Verpackungsverordnung offenbar mehr um die Belange von Müllsammlern als um die Entlastung der Umwelt und der Bürger gekümmert und dadurch die Mülltrennung zu einer der wichtigsten (unbezahlten) Freizeitbeschäftigungen gemacht hat, scheint neuerdings wieder die Frage erlaubt, ob Abfallpolitik nicht auch das Ziel haben darf, den Bürgern das Leben leichter zu machen, ohne dabei das Ziel der nachhaltigen Umweltschonung aus dem Auge zu verlieren.

„Die Abfallwirtschaft kann sich heute wieder stärker den Bedürfnissen der Bürger widmen“, erklärt Prof. Jürgen Hahn, der zuständige Abteilungsleiter im Berliner Umweltbundesamt (UBA). Hahn verweist dabei auf eine in diesem Sommer erschienene Studie über die Zukunft der Abfallentsorgung, die Martin Kaimer und Diethard Schade an der Akademie für Technikfolgenabschätzung in Baden-Württemberg erstellt haben. Darin stellen die beiden Wissenschaftler fest, dass die mit der deutschen Verpackungsverordnung (VerpackV) von 1991 und dem Kreislaufwirtschaftsgesetz (KrW/AbfG) von 1996 verbundenen Bemühungen, die Endverbraucher zu einem ressourcensparenden Umgang mit ausgedienten Verpackungen und anderen Abfällen zu erziehen, fehlgeschlagen sind.

Das Dogma der Mülltrennung wird immer mehr zu einer logistischen Herausforderung, vor der immer mehr deutsche Privathaushalte kapitulieren müssen – zumal, wenn sie jetzt in der Wirtschaftskrise ganz andere Sorgen haben. Nur mithilfe komplizierter Anleitungen in Form von Broschüren und Entsorgungsterminkalendern gelingt es überhaupt, einigermassen den Überblick zu bewahren. So müssen Grünabfälle getrennt erfasst und über längere Zeiträume bis zur Abholung aufbewahrt werden, was im Sommer zu Ungeziefer- und Geruchsproblemen führen kann. Papier, Glas, Altmetalle, Altkleider etc. müssen zu Sammelcontainern oder zu kilometerweit entfernten Recyclinghöfen gefahren werden. Verpackungen aus Kunststoff, Aluminium, Weissblech und Verbundmaterialien sollen in die Gelben Tonnen, die in der Regel nur einmal im Monat abgeholt werden. Batterien, Leuchtstoffröhren, Lack- und Medikamentenreste müssen getrennt aufbewahrt und zu einem Schadstoffmobil oder einem Recyclinghof gebracht werden. Nur der verbleibende Restmüll wird noch wie früher abgeholt, heute aber meist in längeren Abständen. Trotz aller von den Haushalten zeitaufwändig und unentgeltlich erbrachten Vorleistungen steigen die kommunalen Abfallgebühren.

Kein Wunder, dass die Ergebnisse des Sortiereifers zu wünschen übrig lassen. In den Gelben Tonnen finden sich nach empirischen Untersuchungen bis zu 50 Prozent Abfälle, die dort nach der Absicht der Gesetzgeber nicht hingehören. Umgekehrt gelangt in die Grauen Restmülltonnen ein vergleichbarer Prozentsatz von Verpackungsabfällen mit dem Grünen Punkt. Um Verpackungskunststoffe und andere Wertstoffe sinnvoll aufbereiten zu können, ist eine mühsame und kostenträchtige Nachsortierung nötig. Deshalb regen Kaimer und Schade an, in Zukunft (wie vor dem Aufbau des Dualen Systems) nur noch Papier, Karton, Glasflaschen und Textilien sowie größere Kunststoffverpackungen, deren werkstoffliche Verwertung sich rechnet, getrennt zu sammeln. Alles andere soll mit hohem Nutzungsgrad thermisch verwertet werden.

Bund, Länder und Kommunen, so Prof. Jürgen Hahn vom UBA, hätten im letzten Jahrzehnt zuviel Hirnschmalz auf die Lösung nebensächlicher Probleme wie die stoffliche Verwertung ausgedienter Verpackungen verwandt und dabei die wichtigste Herausforderungen der Abfallwirtschaft aus dem Auge verloren: Die Umsetzung der schon 1993 erlassenen Technischen Anleitung Siedlungsabfall (TASi) und des darin enthaltenen Verbots der Ablagerung unbehandelter organischer Abfälle ab 2005 und das in einem „Eckpunktepapier“ der Bundesregierung für 2020 vorgesehene Gebot der kompletten Verwertung aller Abfälle.

Nach der Ablagerungsverordnung vom Januar 2001 sind für die Vorbehandlung sowohl die Müllverbrennung als auch mechanisch-biologische Verfahren zugelassen, sofern sie die strengen Grenzwerte der 30. Bundesimmissionsschutz-Verordnung (BImSchV) für Dioxine, Schwermetalle und andere Schadstoffe einhalten. Bis jetzt wird in Deutschland aber nur etwa die Hälfte der rund 30 Millionen Tonnen Siedlungsabfälle dem entsprechend entsorgt.

Angesichts dieser Lage droht Rainer Baake, Staatssekretär im Bundesumweltministerium (BMU): „Die Kommunen hatten 13 Jahre Zeit, sich auf die neuen gesetzlichen Bestimmungen einzustellen. Wer das geltende Recht bis Juni 2005 nicht beachtet, bekommt Besuch vom Staatsanwalt!“ Um die „Behandlungslücke“ rasch zu schließen, setzt das BMU nun offenbar verstärkt auf kostengünstige Alternativen zur klassischen Müllverbrennung wie das bislang umstrittene Trockenstabilatverfahren der mittelständischen hessischen Firma Herhof.

Dieses Verfahren nutzt die bei der siebentägigen Verrottung von unsortiertem feuchten Hausmüll in geschlossenen Rotteboxen entstehende Wärme zu dessen Trocknung. Der trockene Abfall lässt sich in vollautomatischen Sortieranlagen leicht von nichtbrennbaren Bestandteilen wie Batterien, Metallteilen, Glas, Keramik, Steinen und Sand befreien. Diese können sinnvoll verwertet werden. Die Anlage in Aßlar im hessischen Lahn-Dill-Kreis trennt zum Beispiel Scherben von Weiss-, Braun- und Grünglas so sauber, dass sie die Spezifikationen der Glashütten erfüllt. Das übrig bleibende organische Material (Trockenstabilat) eignet sich wegen seines hohen Brennwertes als Ersatzbrennstoff für Zementwerke und spezielle Feuerungsanlagen oder als Rohstoff für die Synthesegaserzeugung.

Prof. Jürgen Hahn vom UBA bescheinigte der Firma Herhof in einem Schreiben vom 16. Mai 2002: „Das Trockenstabilatverfahren mit stofflicher und energetischer Nutzung organischer Abfälle und differenzierten Recyclingmöglichkeiten für die anorganischen Fraktionen erfüllt bereits heute die Anforderungen, welche die Bundesregierung für 2020 geplant hat.“

Umwelt-Staatssekretär Rainer Baake lobte in diesem Frühjahr gar Herhofs Vision, den Haushalten in Zukunft ihre Abfälle ungetrennt und kostenlos abzunehmen, diese vollautomatisch zu sortieren und vollständig zu verwerten und die Abfallbehandlungskosten durch Rohstofferlöse zu decken. Indem sie für die EXPO 2000 in Hannover die vollautomatische Sortieranlage SORTEC entwickeln liess, hat die DSD AG ungewollt selbst dazu beigetragen, dieser Vision näher zu kommen und sich selbst überflüssig zu machen.

Edgar Gärtner

Kasten:

DSD-Monopol im Visier

Das deutsche Bundeskartellamt hat Ende August gegen die DSD AG ein förmliches Verfahren nach § 1 des Gesetzes gegen Wettbewerbsbeschränkungen (GWB) eingeleitet, da die Firma, an der neben den großen Handelsgesellschaften auch die Entsorgungsunternehmen beteiligt sind, die mit dem DSD sogenannte Leistungsverträge abgeschlossen haben, 95 Prozent des Marktes der Entsorgung von Verkaufsverpackungen beherrscht und alternativen Anbietern von Entsorgungsleistungen den Marktzutritt verwehrt. „Sollte das DSD unsere Bedenken nicht ausräumen, wird es ab 2006 in der jetzigen Form nicht mehr weiterexistieren“, erklärte Ulf Böge, der Präsident des Kartellamtes am 23. August in Bonn vor der Presse.

Sein Amt habe bislang im Rahmen seines Ermessensspielraums das Nachfragekartell toleriert, erläuterte Böge. Inzwischen seien aber Entwicklungen eingetreten, die ein Abgehen von dieser Praxis verlangten. Dazu zählten neben den Vorgaben der EU-Kommission (vgl. CR Nr. 10/2001) auch die Ergebnisse einer Durchsuchung der Geschäftsräume mehrer Handelsverbände, die den Verdacht erhärteten, dass diese ihre Mitglieder zum Boykott alternativer Entsorgungsdienstleister wie BellandVision und Interseroh aufgerufen haben.

eg

(erschienen 2002 in: Chemische Rundschau Nr. 17/6. September 2002)

Ist CO2 wirklich ein Problem?

Es ist nicht möglich, experimentell und statistisch nachzuweisen, dass der Anstieg des CO2-Gehaltes der Luft die Hauptursache der im 20. Jahrhundert registrierten leichten Erhöhung der globalen Durschnittstemperatur ist. Anfang der 40er Jahre wurden in Deutschland schon einmal höhere CO2-Konzentrationen gemessen als heute. Zwei Naturwissenschaftler demonstrieren, dass das keine Ausreißer waren.

Ist CO2 wirklich ein Problem? von Edgar L. Gärtner

Der CO2-Gehalt der Luft war auch früher keineswegs konstant

Nach dem APEC-Wirtschaftsforum in Singapur rechnet kaum noch jemand mit der Verabschiedung eines Kyoto-Nachfolge-Abkommens auf dem UN-Klima-Gipfel in Kopenhagen. Die EU-Regierungen, die sich in Sachen „Klimaschutz“ weit aus dem Fenster gelehnt haben, fürchten eine Blamage und mobilisieren nun ihr letztes Aufgebot, um noch ihr Gesicht wahren zu können. So hat Angela Merkel angekündigt, nun doch nach Kopenhagen fahren zu wollen – komme, was wolle. Aber das absehbare Scheitern der Mammut-Konferenz gilt beileibe nicht überall als schlechte Nachricht. Es gibt Wissenschaftler, die die Ansicht des von der UN eingesetzten „Weltklimarates“ IPCC, die Menschheit müsse einen weiteren Anstieg der Konzentration des Spurengases Kohlenstoffdioxid in der Luft um beinahe jeden Preis stoppen, nicht teilen.

Der IPCC stützt seine Warnung vor einer Überhitzung unseres Planeten auf kontinuierliche photoakkustische CO2-Messungen auf dem Hawaii-Vulkan Mauna Loa seit 1958. Dieser Standort wurde gewählt, weil man annahm, dort die von Großstädten und Industrien unbeeinflusste CO2-Hintergrund-Konzentration messen zu können. Allerdings erwies sich auch dieser Archipel nicht als unproblematisch, weil man dort die Ausgasungen des Vulkans aus den Roh-Messwerten herausrechnen musste. Die so erhaltenen CO2-Werte folgen einer stetig ansteigenden Zickzack-Kurve, die dem Wechsel zwischen Sommer und Winter auf der Nordhalbkugel folgt. Al Gore begründet mit dieser Kurve auf seiner rund um den Globus in vielen Schulen verwendeten PowerPoint-DVD die Forderung nach einer drastischen Einschränkung technischer CO2-Emissionen mithilfe des Emissionshandels.

Wie sah diese Kurve aber vor 1958 aus? Der IPCC behauptet, man könne sie vom aktuell erreichten Höchstwert von 388 ppm (parts per million)nach hinten bis ins 19. Jahrhundert verlängern bis zu einem vorindustriellen “Normalwert” von etwa 280 ppm. Dabei geht das Gremium stillschweigend davon aus, dass es vor 1958 nur wenige präzise und repräsentative Messungen des CO2-Gehaltes der Luft gab. In Wirklichkeit gab es schon hundert Jahre vor der Entwicklung elektronischer Messgeräte durchaus präzise chemische Methoden für die Bestimmung des CO2-Gehaltes der Luft. Im Jahre 2007 hat der Freiburger Biologielehrer Ernst Georg Beck unter dem Titel „180 Years accurate CO2-Gasanalysis of Air by Chemical Methods“ im engelischen Magazin “ENERGY & ENVIRONMENT” (Volume 18, No. 2/2007) Zigtausende von älteren CO2-Bestimmungen ausgewertet und gezeigt, dass um 1940 in Mittelhessen (Gießen) höhere CO2-Konzentrationen gemessen wurden als heute.

Sofort kam von etablierten Klimaforschern der Einwand, diese lokalen Messwerte seien wohl nicht repräsentativ für den globalen Trend. Deshalb hat Beck kürzlich auf dem Kongress „Klima 2009“ zusammen mit seinem Luxemburger Kollegen Francis Massen eine Formel vorgestellt, mit deren Hilfe sich aus lokalen CO2-Messwerten die Hintergrundkonzentration zuverlässig errechnen lässt, indem die jeweils vorherrschenden Windgeschwindigkeiten berücksichtigt werden. Die beiden bekamen für ihre Präsentation übrigens den Best Paper Award. Es ist nun klar, dass die älteren CO2-Messungen, sofern die methodisch korrekt gewonnen wurden, keineswegs verworfen werden können. Da diese große Schwankungen anzeigen, ist die von der großen Politik zum Dogma erhobene Vermutung, der steigende CO2-Gehalt der Luft sei hauptverantwortlich für den im vergangenen Jahrhundert gemessenen leichten Anstieg der bodennahen Durchschnitttemperatur über den Landmassen Erde nicht mehr haltbar. (17. November 2009)

Internet:

Der asiatisch-pazifische Anti-Klima-Gipfel

Die Angst vor einem Scheitern des Klimagipfels wächst

Die Klimakanzlerin fährt nach Kopenhagen

Beck & Massen: Berechnung der CO2-Hintergrundkonzentration auf der Grundlage lokaler bodennaher Messungen

========================================================================================

Es gibt keine Alternative zur Anpassung an den Klimawandel

Von Edgar L. Gärtner

Geologen halten das Zwei-Grad-Limit für die Erderwärmung für baren Unsinn

Unsere Enkel und Urenkel, so es denn noch welche geben sollte, werden sicher einmal ungläubig den Kopf schütteln, wenn sie in Geschichtsbüchern lesen, für welche Scheinprobleme und ungelegten Eier ihre Vorfahren mitten in einer der schwersten Wirtschaftskrisen viele Milliarden Papier-Euros oder Dollars locker gemacht haben. Besonders belustigt wären sie wohl, wenn sie erführen, dass eine Weltkonferenz einmal allen Ernstes beschlossen hat, den Anstieg der bodennahen Durchschnittstemperatur über den Kontinenten auf genau zwei Grad Celsius zu begrenzen, indem sie ihr Leben einschränken. Doch gerade dieses Zwei-Grad-Ziel galt bislang in der großen Politik und in der politisch korrekten Privatwirtschaft als felsenfestes Dogma, von dem verschiedenste kostenträchtige Einzelmaßnahmen für den „Klimaschutz“ abgeleitet wurden. Nun haben es drei führende deutsche Geowissenschaftler in einem am 28. Oktober 2009 im Wissenschaftsteil der FAZ erschienen Interview erstmals gewagt, dieses Dogma öffentlich anzuzweifeln.

Es handelt sich um Karin Lochte, die Chefin des Alfred-Wegener-Instituts für Meeresforschung (AWI) in Bremerhaven, Volker Mosbrugger, Direktor des Senckenberg-Forschungsinstituts und Museums in Frankfurt am Main, und Reinhard Hüttl, Direktor des Deutschen Geoforschungszentrums (GFZ) in Potsdam. Als Geologen beziehungsweise Paläontologen wissen diese Wissenschaftler über die längerfristige Entwicklung der Klimate viel besser Bescheid als „Klimaforscher“, die nur mit Computermodellen hantieren. Keiner von den dreien zieht in Zweifel, dass die Konzentration des Atemgases Kohlenstoffdioxid (CO2) in der Luft einen beträchtlichen Einfluss auf die Entwicklung der Durchschnittstemperatur unseres Planeten hat. Sie wissen aber auch, dass es noch eine ganze Reihe weiterer Faktoren gibt, die die Klimaentwicklung beeinflussen. Eine Politik, die sich einseitig auf einen Faktor, das CO2, konzentriert, kann deshalb nicht vorgeben, die Klimaentwicklung in den Griff bekommen zu können. Die Menschen haben also keine andere Wahl, als sich dem Klimawandel, der auch ohne ihr Zutun abläuft, irgendwie anzupassen. Mosbrugger drückt das so aus: „Ich glaube, es wird wie immer in der Evolution Gewinner und Verlierer geben (…) und wer sich am besten adaptiert, ist langfristig Gewinner. Jetzt ausschließlich auf Emissionsreduktion zu setzen, ist unklug.“

Allerdings irrt Mosbrugger meines Erachtens gewaltig, wenn er davon ausgeht, die Anpassung an den Klimawandel erfordere ein globales „Erdsystemmanagement“ und damit auch so etwas wie eine Weltregierung. Denkt er ernsthaft, die Bewegung der viele Milliarden Tonnen schweren Platten der Erdkruste managen zu können? Und um wie viel schwieriger wäre erst ein Management der Klimaentwicklung, in die auch kosmische Faktoren eingreifen? Das wäre schlicht einige Nummern zu groß für uns Menschen und bedürfte geradezu göttlicher Kräfte und Fähigkeiten. In Wirklichkeit erfordert die Anpassung an den Klimawandel überhaupt keine globale Strategie. Man müsste nur den Menschen auf lokaler und regionaler Ebene die Freiheit lassen, selbst zu entscheiden, wie sie mit sehr unterschiedlichen positiven und negativen Folgen des Klimawandels umgehen wollen. Die UNO würde überflüssig. Das ist wohl der tiefere Grund für die Versteifung des „Weltklimarates“ IPCC und anderer UN-Gremien auf „Mitigation“ und die Vernachlässigung der „Adaptation“.

Internet:

FAZ: Ein Limit von zwei Grad Erderwärmung ist praktisch Unsinn

================================================================================

Die Sonne birgt noch etliche Überraschungen

Im Juli 2009 brachte die New York Times einen interessanten Überblick über den Stand der wissenschaftlichen Debatte über den Zusammenhang zwischen den Sonnenfleckenzyklen und der Entwicklung des irdischen Klimas. Führende Solarforscher geben zu, dass sie von einem Verständnis der Ursachen zyklischer Schwankungen des solaren Magnetfeldes noch weit entfernt sind. Zurzeit schließen einige Forscher nicht aus, dass die gegenwärtige unerwartet lange Ruhephase der Sonne auf der Erde zu einer Zunahme niedrig hängender Wolken und in deren Folge zu einem spürbaren Rückgang der globalen Durchschnittstemeperatur führt, die mit dem Dalton-Minimum in der ersten Hälfte des 19. Jahrhunderts vergleichbar ist. (21. Juli 2009)

=======================================================================

In einem peer-reviewed Artikel unter dem Titel „Falsification Of The Atmospheric CO2 Greenhouse Effects Within The Frame Of Physics“, in: International Journal of Modern Physics B, Vol. 23, No. 3 (30 January 2009), pp. 275-364 (World Scientific Publishing Co.) weisen die Mathematischen Physiker Gerhard Gerlich (TU Braunschweig) und Ralf D. Tscheuschner (Hamburg) nach, dass die „offizielle“ Treibhaustheorie zur Erklärung des Klimawandels „außerhalb jeglicher Wissenschaft“ liegt. (17. März 2009)

====================================================================

Politische Manipulation der Klimaforschung: Prof. Richard Lindzen vom MIT nennt Ross und Reiter

Der bekannte Atmosphärenphysiker Prof. Richard Lindzen vom Massachusetts Institute of technology (MIT) deckt in einem auf einem Vortrag beruhenden Artikel im Detail auf, wer für die politische Manipulation der Klimaforschung verantwortlich ist.

===========================================================

Inzwischen warnte auch FOCUS-online seine Leser vor einer uns möglicherweise bevorstehenden Kleinen Eiszeit. Es lässt sich nicht mehr verheimlichen, dass die Aktivität der Sonne in den letzten Jahren auf ein beunruihigendes Niveau abgesunken ist.

=============================================================

DIE WELT berichtet relativ sachlich über die Auseinandersetzungen zwischen meinem Freund Ernst Beck, Biologielehrer in Freiburg, und Prof. Stefan Rahmstorf vom Postdam Institut für Klimafolgenforschung (PIK). Während Ramstorf versucht, seine inquisitorischen Methoden gegenüber „Klimaskeptikern“ zu rechtfertigen, gibt sich Beck gelassen. Die begonnene Abkühlung der Erde werde den „Skeptikern“ gegenüber den Erwärmungshysterikern in den kommenden Jahren ohnehin recht geben.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

NASA sucht noch immer nach Sonnenflecken und verharmlost das Ausbleiben des 24. Sonnenzyklus

Nun haben amerikanische Forscher nachgewiesen, dass Abschwächungen des Sonnenzyklus zu einer Abkühlung des Atlantik und zu sinkender Niederschlagstätigkeit führt. (29. August 2008)

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Nachruf auf einen zu früh verstorbenen freien Mann, der wirklich etwas von Klima verstand von Edgar Gärtner

Heute am 13. August 2008 ist der französische Klimatologe Prof. Marcel Leroux, kaum emeritiert, in einem Marseiller Hospital von uns gegangen. Dass er nach der Entfernung einer Niere im Spätherbst des letzten Jahres auf einmal mit Metastasen zu kämpfen hatte, die in seinem Körper herumkreisten, war mir durchaus bekannt. Ich hatte darüber vor gut einer Woche noch mit seiner zweiten Frau Colette gesprochen. Doch während ich noch dabei war, einen Besuch am Krankenbett vorzubereiten, ereilte mich die Nachricht von seinem plötzlichen Ableben. Noch unter Schock, schreibe ich diese Zeilen.

Ich kannte Marcel noch gar nicht so lange. Vor gut zwei Jahren saß ich unter den Arkaden meiner Ferienresidenz in der Nähe einer anderen südfranzösischen Hafenstadt und las mit großem Interesse sein letztes großes Werk „Global Warming. Myth or Reality? The errings ways of climatology“ (Springer-Verlag, Heidelberg 2005). Dessen Autor war mir bis dahin nur durch Zeitschriften-Veröffentlichungen bekannt. Das Impressum des dicken Buches etwas eingehender studierend stellte ich fest, dass sein mutiger Autor gar nicht so weit von mir hinter der Sainte Victoire, dem Hausberg von Aix en Provence, bekannter als Lieblingsobjekt des genial schlechten Malers Paul Cezanne, lebte. Also: Nichts wie hin! Nach zwei, drei Stunden Plausch über Gott und die Welt waren wir schon Freunde. Wobei man noch wissen muss, dass es bei Marcel keinen Alkohol, sondern nur verdünnten Orangensaft gab.

Marcel war nicht der Typ des geselligen Südfranzosen, der einen nach einigen Gläsern Pastis umarmt. Vielmehr war er Bretone, eher klein von Gestalt, aber zäh und drahtig. Er stammte aus einer Familie, deren Angehörige sich über Jahrhunderte als Fischer oder Seefahrer durchgeschlagen hatten. Denn der dünne, saure Granitboden der Bretagne konnte nicht viele Mäuler füttern. Seinen Vater, der, nun bald 100 Jahre alt, noch immer lebt, hatte es als Offizier der französischen Kriegsmarine nach Tunis verschlagen. Dort wurde Marcel geboren. Neben der französischen Sprache blieb ihm auch das Arabische bis zu seinem Lebensende geläufig. Das half ihm ungemein in seinem Werdegang als Klimaforscher. Denn obwohl von Kindesbeinen an passionierter Skipper, fühlte er sich am wohlsten ganz allein unter dem Sternenzelt der Sahara. Das war für ihn, wie er mir immer wieder versicherte, der Inbegriff von Freiheit.

So war es alles andere als zufällig, dass Marcel bald in der Erforschung des Wetters und der längerfristigen Klimaentwicklung Afrikas seine Lebensaufgabe fand. Denn er musste schon während seines Studiums an der Universität Dakar im Senegal feststellen, dass es über das Klima des schwarzen Kontinents keine brauchbare Synthese gab. Für seine Habilitationsarbeit (Thèse d’Etat) reiste Marcel zehn Jahre lang kreuz und quer durch Afrika, um die in ehemaligen Kolonialverwaltungen unter mehr oder weniger dicken Staubschichten vor sich hin gammelnden alten Wetteraufzeichnungen auszuwerten. Oft bedurfte es seiner ganzen Überredungsgabe beziehungsweise Bakschisch in harter Währung, um an die historischen Daten heranzukommen. Leroux entdeckte dabei, dass das Wettergeschehen im tropischen Afrika stark von atmosphärischen Vorgängen an den Polen beeinflusst wurde. Bis dahin dachten die Wetter- und Klimaforscher, es sei eher umgekehrt. Am Ende seiner entbehrungsreichen, aber auch faszinierenden Fleißarbeit stand ein zweibändiger Atlas der Klimageschichte Afrikas, der von der World Meteorological Organisation in Genf herausgegeben und inzwischen in Form einer CD-ROM neu aufgelegt wurde.

Nach weiteren Jahren an der Universität von Dakar bekam Marcel Leroux schließlich eine ordentliche Professur an der Universität Jean Moulin in Lyon und wurde Direktor des Instituts für Klimatologie, natürliche Risiken und Umwelt. In Lyon spezialisierte sich Leroux auf die Auswertung von Satelliten-Fotos, die bei seiner Arbeit in Afrika leider noch nicht zur Verfügung standen. Er stellte dabei fest, dass als treibende Kräfte des Wettergeschehens weniger Tiefdruckgebiete in Frage kamen, wie die klassische (synoptische) Meterologie annimmt, sondern vielmehr flache Kaltluftlinsen mit hohem Druck, die in der Nähe der Pole entstehen und dann Richtung Äquator ziehen. Die dabei verdrängte wärmere Luft bildet Tiefdruckwirbel, die uns schlechtes Wetter bringen. Leroux taufte die Kaltluftlinsen und die sie begleitenden Tiefdruckwirbel „Mobile Polar High“ (MPH). Er war überzeugt davon, dass diese selbst dem ungeübten Betrachter von Satellitenfotos ins Auge springenden Gebilde unser Verständnis der Wetterabläufe revolutionieren werden.

Aus der langjährigen Beobachtung der Häufigkeit von MPH schloss er, dass die Erdatmosphäre dabei ist, sich allmählich abzukühlen. Für die hysterischen Warnungen vor einer Überhitzung unseres Planeten infolge der Verstärkung eines (nicht messbaren!) „Treibhauseffektes“ durch den Ausstoß von Kohlenstoffdioxid hatte er nur Spott übrig. Damit machte er sich in den Augen der Pariser Bürokraten und der ihnen hörigen Massenmedien zum wissenschaftlichen Außenseiter, was ihn aber nicht weiter störte. Immerhin fand er sich in guter Gesellschaft mit dem führenden französischen Geophysiker Claude Allègre, der einige Jahre lang unter dem sozialistischen Premierminister Lionel Jospin das undankbare Amt des Erziehungs- und Forschungsministers übernommen hatte. Wie sein Freund Allègre ging Leroux auf Distanz zur sozialistischen Partei, als es in den letzten Jahren immer deutlicher wurde, dass diese unheilbar vom Virus des Nihilismus infiziert war. Leroux war sich sicher, seine Theorie der Klimaentwicklung werde sich durchsetzen, sobald die Vertreter der offiziellen Lehrmeinung einmal abgetreten seien. Er konnte nicht ahnen, dass er vor seinen Widersachern begraben werden würde.

Nachtrag: Ich bin sicher, Marcel hätte sich über den in der heutigen „Times“ stehenden Bericht über die Auswertung der Wetteraufzeichnungen der Logbücher großer Kapitäne gefreut. Sie demonstrieren die Überlegenheit direkter Beobachtung über die „Play-Station-Klimatologie.“ (14. August 2008)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Climate Sensitivity Reconsidered

von Christopher Monckton of Brenchley

(Deutsche Übersetzung von Argus auf oekologismus.de

Monckton stellt die IPCC-Eingangsparameter der Klimamodelle auf den Prüfstand: Strahlungsantrieb, Klimasensitivität und Rückkopplungen. Er analysiert einen nach dem anderen die IPCC-Parameter und bewertet sie neu anhand von eigenen Erkenntnissen, die er zusammen mit vielen Wissenschaftlern zusammengestellt hat. Ein sehr gut nachvollziehbarer und sehr übersichtlicher Ansatz!

Kernergebnis seiner Neubewertung der Parameter ist: Der Klimabericht des IPCC von 2007 übertreibt den Einfluss des CO2 auf die Temperatur um 500 bis 2000 Prozent.

Bemerkenswert ist auch der moderate Ton, in dem Monckton seine einschneidenden Korrekturen in dem IPCC-Rechengang anbringt und kommentiert.

Zusammenfassung und Kernaussagen in Deutsch

Die Weltklimarat (IPCC, 2007) hat beschlossen, dass die anthropogenen CO2 Emissionen wahrscheinlich mehr als Hälfte der “Erderwärmung” der letzten 50 Jahre verursachthaben und eine weitere schnelle Erd-Erwärmung verursachen werden. Jedoch hat sich globale Durchschnittstemperatur seit 1998 nicht erhöht und dürfte seit Ende 2001 sogar gefallen sein. Die vorliegende Analyse legt nahe, dass Fehler in den Modell-Vorhersagen des IPCC, zur Temperaturentwicklung und vielen anderen klimatischen Phänomenen, aus Fehl-Einschätzungen der drei wesentlichen Faktoren entstehen, aus denen sich die Klimaesensitivität zusammensetzt:

1. Strahlungsantrieb ΔF

2. Der Sensitivitäts-Parameter κ “ohne Rückkopplungen” und

3. Der Rückkopplungsfaktor ƒ.

Wesentliche Gründe, warum die Schätzungen des IPCC überbewertet sein dürften und daher nicht verläßlich sind, werden erklärt. Noch wichtiger ist die Feststellung, dass es womöglich gar keine “Klimakrise” gibt, und dass die zurzeit so populären Anstrengungen der Regierungen, die anthropogen CO2-Emissionen zu reduzieren, sinnlos sind, kaum berechenbar sind und sogar schädlich sein können.

Lord Monckton´s neue Studie belegt:

o Der Klimabericht des IPCC von 2007 übertreibt den Einfluss des CO2 auf die Temperatur um 500-2000 %;

o Der erwartete CO2-Anstieg wird kaum mehr als 0.6 °C zur globalen Durch-schnittstemperatur bis 2100 beitragen;

o nicht eine der drei Schlüsselvariablen, aus denen sich die Klimasensitivität ermitt-let, kann direkt gemessen werden;

o die Werte des IPCC für diese Schlüsselvariablen stammen von nur 4 (vier) veröf-fentlichten Papieren, nicht von 2.500;

o die Werte des IPCC für jede der drei Variablen, und folglich für die Klimaempfind-lichkeit, sind übertrieben angesetzt;

o Die “Globale Erwärmung” stoppte vor zehn Jahren, und die Oberflächentempera-tur ist seit sieben Jahren gefallen;

o nicht eines der Computermodelle, auf denen IPCC aufbaut, sagte eine so lange und schnelle Abkühlung voraus;

o das IPCC fügte eine Tabelle in den wissenschaftlichen Rechengang ein, die die Wirkung der Eisschmelze um 1000 % überbewertet;

o es wurde bereits vor 50 Jahren festgestellt, dass eine Vorhersage des Klimas um mehr als zwei Wochen unmöglich ist;

o Mars, Jupiter, der größte Mond des Neptuns sowie Pluto erwärmten sich zeit-gleich mit der Erde;

o in den letzten 70 Jahren war die Sonne aktiver als in fast jeder anderen Zeit in den letzten 11.400 Jahren.

***************************************************************************

Dr. Vincent Gray’s Abrechnung mit dem „Weltklimarat“ IPCC

„… das IPCC ist abgrundtief korrupt. Die einzige “Reform”, die ich mir vorstellen kann, wäre seine Abschaffung.“

„Das Verschwinden des IPCC ist nicht nur wünschenswert, sondern unvermeidlich.“

Diese Sätze stammen nicht von einem Verrückten, sondern von einem erfahrenen Wissenschaftler aus Neuseeland, der als offiziell bestellter “Expert Reviewer” des Intergovernmental Panel on Climate Change (IPCC) schon an dessen ersten im Jahre 1990 erschienenen Bericht mitgewirkt hat. Die Behauptung des IPCC, die „Evidenz“ einer Klimaschädigung durch eine Änderung der atmosphärischen Konzentration von „Treibhausgasen“ erbracht zu haben, sei schlicht falsch, schreibt Gray in einer nun im Internet zugänglichen systematischen und detaillierten Abrechnung mit den manipulativen Arbeitsmethoden des von der UN-Bürokratie im Jahre 1988 eingesetzten Gremiuns. Sein inzwischen aktualisierter Bericht zeigt Schritt für Schritt, wie aufgrund einer nicht thematisierten menschenfeindlichen religiösen Einstellung zweideutige Beobachtungen und verzerrte Interpretationen wissenschaftlicher Aussagen zu einem Machwerk verwoben wurden, das eine weltweite Kampagne für die Einschränkung menschlicher Entwicklungsmöglichkeiten rechtfertigt. Die geforderte Reduktion der Emission von „Treibhausgasen“ entbehre in Wahrheit jeglicher wissenschaftlichen Grundlage (14. Juli 2008)

********************************************************************

CO2-Gläubige rätseln über schlappe Sonne

Ich gehöre zu jenen, die das Glück hatten, Dr. Theodor Landscheidt noch persönlich erleben zu können. Hinter dem pensionierten Juristen mit der Fliege verbarg sich ein versierter Astronom, der über lange Jahre mit viel Geduld und mathematischer Bravour die Bewegungen und Entwicklungen der Sonne analysiert hatte. (Hier eine Sammlung seiner Veröffentlichungen) Schon um die Mitte der 90er Jahre war sich Landtscheidt sicher, dass die Sonne ab 2007 in eine längere Schwächephase eintreten würde, die auf der Erde zu einer empfindllichen Abkühlung führen muss. Denn er hatte schon erkannt, dass die Sonnfleckenzyklen auf eine Interferenz zwischen den Bewegungen der Sonne und ihres gewichtigen Planeten Jupiter zurückgeht. Australische Astrophysiker haben diese Entdeckung nun bestätigt. Landscheidt stellte seine Entdeckung auf dem Symposium „Klimaveränderungen – Ursachen und Auswirkungen“ vor, das am 10. und 11. November 1997 (das heißt kurz vor der gedankenlosen Verabschiedung des Kyoto-Protokolls über eine Reduktion von „Treibhausgasen“) im Bonner Hotel Königshof von der Europäischen Akademie für Umweltfragen organisiert worden war. Der Tübinger Biochemiker und Photosystheseforscher Prof. Dr. Helmut Metzner, der die Europäische Akademie gegründet und das Bonner Symposium organisiert hatte, war damals zuversichtlich, das mit Kyoto verbundene Selbstmordprogramm noch verhindern zu können. Wenige Wochen nach der Verabschiedung des Kyoto-Protokolls hatte er dann eine längere Unterredung mit seinem Parteifreund Prof. Dr. Klaus Töpfer (CDU). Dieser machte Metzner offenbar klar, dass es keine Möglichkeit mehr gab, den ins Rollen gekommenen Zug der internationalen Klima-Bürokratie noch aufzuhalten. Das mit den wichtigsten Klimaforschern der Welt (nicht nur mit „Skeptikern“) besetzte Bonner Symposium war offenbar für die Katz gewesen. Prof. Metzner legte sich nach dem Gespräch mit Klaus Töpfer erschöpft schlafen und wachte nicht wieder auf.

Konkret legte Theodor Landscheidt 1997 in Bonn dar, dass der seit längerem bekannte Gleissberg-Zyklus der Sonnenaktivität von 90 Jahren im Jahre 2007 seinen nächsten Phasensprung (Nulldurchgang) haben werde. Dadurch werde auf der Erde eine Abkühlungsphase eingeleitet, die ihren Höhepunkt im Jahr 2026 erreichen werde. (Meinem in „Öko-Nihilismus“ enthaltenen Zukunftsszenario habe ich diese Prognose unausgesprochen zugrunde gelegt.)

Landtscheidts Voraussage ist punktgenau eingetroffen. Seit Dezember 2006 tut sich auf unserem Zentralgestirn, abgesehen vom üblichen Brodeln der Plasmaströme, kaum noch etwas. Der längst überfällige Beginn der 24. Sonnenfleckenzyklus lässt auf sich warten. Die wenigen Spuren von Sonnenflecken, die sich hin und wieder zeigten, entpuppten sich als Überbleibsel des 23. Zyklus. Eine so lange Abwesenheit von Sonnenflecken wurde zuletzt vor 350 Jahren auf dem Höhepunkt der so genannten kleinen Eiszeit beobachtet. Diese führte in Europa zu einer Häufung von Vereisungen, Überschwemmungen, Missernten und Hungersnöten sowie in deren Gefolge zu massiven Auswanderungswellen.

Inzwischen nimmt sogar SPIEGELonline (siehe Link in der Überschrift) Kenntnis von einer Realität, die in den „Klimamodellen“, die den Überhitzungs-Projektionen des „Weltklimarates“ IPCC zugrunde liegen, gar nicht vorkommt. Läge der IPCC mit seiner Behauptung richtig, das Verbrennungs- und Atmungs-Gas Kohlenstoffdioxid (CO2) sei die Hauptursache der in den vergangenen Jahrzehnten beobachteten leichten globalen Erwärmung, dann müssten jetzt schleunigst alle Hindernisse beseitigt werden, die dem überfälligen Bau zahlreicher neuer Kohlekraftwerke entgegenstehen. (6. Juli 2008)

Die Sonne ist zu etwa 70 Prozent für den Klimawandel auf der Erde verantwortlich

Das schätzt Dr. Bruce West, Chefwissenschaftler des US Army Research Office, in einem in der Fachzeitschrift „Physiscs today“ veröffentlichten Aufsatz. Darüber berichtete am 3. Juni 2008 das US-Online-Magazin „Wired“. In Europa wurde die Nachricht mit vielen Konjunktiven entschärft. Da der 24. Sonnenzyklus noch immer auf sich warten lässt, sollten wir uns trotz des Tropenwetters, das in diesem Juni in weiten Teilen Deutschlands herrscht, auf eine Abkühlung der Erde gefasst machen.

In einem Bericht mit dem Titel „Global Temperature Dives in May.“ schreibt der Meteorologe Anthony Watts, das seit Beginn dieses Jahres feststellbare dramatische Absinken der Durchschnittemperatur der Erde habe sich im Mai fortgesetzt. Seit Januar 2007 sei die Temperatur um etwa den Betrag (0,75 Grad Celsius) abgesunken, der in den IPCC-Berichten als „Signal der menschengemachten globalen Erwärmung“ in den letzten 100 Jahren interpretiert wurde.

Hier ist die neueste Temperaturkurve,, die an der University of Alabama in Huntsville aufgezeichnet wurde.

Kollege Wolfram.von-Juterczenka@dw-world.de teilt folgende im Mai 2008 gemessene Temperaturwerte mit:

Spitzbergen -2,0° ( 0,8° kälter als Mai 07; wärmster der letzten 18 Jahre: 2006 +1,2°, kältester 1998 -5,3°)

Tromsoe 4,4° ( 1,3° kälter als 07; wärmster 10,9° 1990)

Neumeyer

(Antarktis) -22,4° (4,3° kälter als 07; wärmster in letzen 18 Jahren: -17,5° 1992, kältester -25,4° 2004)

Südpol -59,3° (1,4° kälter als 07; wärmster -18 Jahre- : -56,2 2006, kältester -60,0 1996)

Godthab

Westgrönland: 3,4° (3,5° wärmer als 07; wärmster – 10 Jahre- 3,5° 1996, kältester -2,6° 1992)

In seinem Blog brachte Anthony Watts am 15. Juni 2008 weitere Einzelheiten der Entwicklung des Magnetismus der Sonne und ihres Einflusses auf die Erde. Der Average Geomagnetic Planetary Index (Ap), ein Maß für die solare magnetische Feldstärke, ist im Oktober 2005 auf ein extrem niedriges Niveau abgesackt und hat sich seither nicht wieder erholt. (18. Juni 2008)

Global Warming macht Pause

Die britische Tageszeitung „Telegraph“ berichtet von einer neuen Veröffentlichung deutscher Klimaforscher im Wissenschaftsmagazin „nature“. Danach gehen die Forscher davon aus, aufgrund festgestellter Veränderungen in atmosphärischen und ozeanischen Strömungsmustern werde sich die begonnene Phase eines leichten Rückgangs der globalen Durchschnittstemperatur mindestens bis 2015 fortsetzen. Ich vermute, es handelt sich hier um einen ersten Versuch, dem perplexen Publikum zu erklären, warum die Realität den Verkündungen des „Weltklimarats“ IPCC nicht folgt, ohne klipp und klar zu sagen, dass die Klimaentwicklung mit der atmosphärischen Konzentration des zum zum „Klimakiller“ erklärten Kohlenstoffdioxids (CO2) wenig bis nichts zu tun hat. Jedenfalls haben die Autoren der am IFM Geomar-Institut für Meeresforschung in Kiel erarbeiteten Studie in Gestalt ihres Sprechers Mojib Latif sofort davor gewarnt, den nach ihrer Meinung fortbestehenden längerfristigen Erwärmungstrend auf die leichte Schulter zu nehmen. Die in ihren Augen gefährliche globale Erwärmung mache nur eine Pause.

Schon im vergangenen Jahr hatte ich Skeptiker-Freunde davor gewarnt, sich nicht zu früh zu freuen. Meine lieben Journalistenkollegen würden sicher auch noch den Purzelbaum hinkriegen, die drohende Kleine Eiszeit mit dem bösen CO2 in Verbindung zu bringen. Kollege Holger Darmbeck hat nur zwei Tage gebraucht, um diese Prophezeiung in SPIEGEL-online in Erfüllung gehen zu lassen. (2. Mai 2008)

Anzeichen für ein Abflachen des CO2 Anstiegs in der Atmosphäre und eine Abkühlung des Ozeans

Buchstäblich gar nichts entwickelt sich zurzeit entsprechend der Warnungen, für die der „Weltklimarat“ IPCC im Jahre 2007 mit dem Friedensnobelpreis ausgezeichnet wurde. Nicht nur die Temperaturkurve der Erde, sondern auch die Kurven der Methan- und CO2-Konzentrationen scheinen neuerdings abzuflachen. Hinzu kommt eine weitere irritierende Meldung: Forscher des Alfred-Wegener-Instituts für Meeresforschung (AWI) in Bremerhaven haben in einer monatelangen Messkampagne festgestellt, dass sich das Tiefenwasser rund um die Antarktis eindeutig abkühlt. Sicher ist es noch zu früh, um daraus einen neuen Trend abzuleiten. Aber die Zweifel an der Begründung der Angstmache wachsen. (21. April 2008)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Extremwetterkongress im Gegenwind

Da die Wettermaschine der Erde den Propheten einer heranrückenden Klimakatastrophe nicht Gefallen tut, verrückt zu spielen, befleißigten sich Massenmedien anlässlich des Hamburger Extremwetterkongresses ungenannter Sponsoren, den Eindruck zu erwecken, es stimme etwas nicht in der Antarktis. BILD titelte am Donnerstag, dem 27. März 2008: „Neuer Umweltschock. Südpol zerfällt.“ Nähme nan das wörtlich, müsste man die Seefahrt und den Luftverkehr sofort einstellen, denn ohne Südpol gäbe es auch keinen Nordpol mehr. Was die die Redaktion der BILD-Zeitung wirklich meinte, war das Abbrechen eines größeren Brockens des Wilkins-Schelfeises. Das kommt hin und wieder vor, hängt nach Aussage kompetenter Metorologen aber keineswegs mit der Temperaturentwicklung des Antarktischen Kontinents im Ganzen zusammen. Vielmehr ragt dieser Eis-Schelf mit der Antarktischen Halbinsel weit in Gewässer, die milden Nordwestwinden ausgesetzt sind. Als den Anden benachbarte seismisch aktive Zone der Erdkruste besitzt die antarktische Halbinsel überdies etliche aktive Untereis-Vulkane, die Bewegungen des Gletscheises beschleunigen können. Doch davon erfuhren die Leser von BILD nichts. Es kam den Kollegen der BILD-Redaktion wohl eher darauf an, ihren Lesern nach einem ausnehmend eisigen Osterfest einzureden, die globale Erwärmung gehe weiter. (Siehe hierzu auch die Erklärung auf der Website des EIKE Europäischen Instituts für Klima und Energie.

Hier die Entwicklung der Mitteltemperaturen der Antaktis:

Georg v. Neumeyer (deutsche Antarktisstation):

Januar 1991 bis 2008

-3,8 -1,8 -4,2 -5,7 -4,6 -3,9 -4,5 -4,2 -3,8 -5,6 -4,8 -3,2 -5 -2,3 -2,4 -3,1 -3,5 -5,6

Februar 1991 bis 2008

-6,6 -6,8 -9,7 -7,3 -6,4 -6,1 -8,7 -6,2 -7,2 -10,8 -7,8 -8,1 -7,2 -6 -7,2 -7,3 -9,8 -8,6

Südpol

Januar 1999 bis 2008

-26,2 -31,1 -29,8 -26,7 -27,6 -27,7 -26,4 -28,3 -27,5 -30,1

Februar 1999 bis 2008

-39,7 -43,2 -39,9 -40,7 -40,8 -38,6 -39,5 -42,8 -42,4 -41,8

Casey (Antarktis – Rand)

Januar 1994 bis 2008

-0,1 -2 -1 0,0 -0,4 -1,5 -1,8 -0,3 0.5 0,0 -0,7 0,7 -0,5 0,1 -1,2

Februar 1994 bis 2008

-2,1 -4,2 -2,6 -2,4 -2,8 -3,5 -2,7 -4,6 -2,9 -2,3 -1,1 -2 -2,5 -2,1 -4,1

Hier die Entwicklung der mittleren Temperaturen des Monats März an einigen ausgewählten Wetterstationen:

Spitzbergen 1995 – 2008

-15,4 -6.6 -12,3 -13,3 -7,5 -14,9 -16,8 -18,4 -17,8 -7,5 -17,1 -12,7 -7,0 -14,7

Südpol 1999 – 2008

-54,4 -53,5 -54,6 -48,6 -54,5 -55 -51,9 -56,4 -57,7 -53,3

Godthab (Grönland) 1991 – 2008

-6,7 -8,2 -13,8 -11,8 -12,7 -8,5 -10,6 -8,1 -6,9 -8,6 -5,7 -9,4 -6,6 -9,2 -2,7 -2,8 -7,2 -8,6

(Mitteilung von Wolfram.von-Juterczenka@dw-world.de)

******************************************************************

NASA-Forscher suchen verzweifelt nach Sonnenflecken

Anfang Januar 2008 schien es so, als käme der angesagte 24. Sonnenfleckenzyklus (seit dem 18. Jahrhundert) endlich in Gang. Doch das erste zaghafte Vorzeichen neuer Sonnenflecken verschwand schon nach drei Tagen. Nun wächst die Furcht vor einer neuen Kleinen Eiszeit. Die von interessierter Seite geschürte hysterische Angst vor einer Klimaverbesserung, Verzeihung: globalen Erwärmung dürfte schon bald als Problem erscheinen, das man gerne hätte.

Inzwischen tauchten auf den Fotos der Sonnen-Sonde SOHO zwar einige kleine Flecken auf. Doch diese erwiesen sich aufgrund der Polarität ihres Magnetfeldes eindeutig als Reste des auslaufenden 23. Zyklus. Die Freunde der Sonne wurden auf den Monat März vetröstet. Doch nichts tat sich. Nun erhoffen die Beobachter der NASA den Start des 24. Zyklus in der zweiten Jahreshälfte, vielleicht aber auch erst im nächsten Jahr. Dann wäre der 23. Zyklus der längste seit dem Jahre 1800. Das klingt nicht sehr beruhigend. (8. April 2008)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Kürzlich hat der Britische Wetterdienst (UK/CRU/UEA) die „Global-Temperatur 2007“ publiziert.

2007 kommt seit 1998 nur auf Platz 8, bei fallender Tendenz. Wie peinlich für die Klimagogen, hatten sie doch noch vor wenigen Wochen einen „neuen Rekord“ mit 14.54° (1998: 14.52°) hinaustrompetet. Stattdessen nun weiterhin fallende Tendenz, und zwar recht deutlich. Damit gibt es seit 1998 keinen weiteren Temperaturanstieg mehr – im Gegenteil. (Danke an Dipl. Met. Klaus-Eckart Puls für die Mitteilung)

Januar 2008 war nach Satelliten-Messungen der zweitkälteste Januar in den letzten 15 Jahren.

Der Winter 2007/2008 gilt schon jetzt auf der Nordhalbkugel als der kälteste Winter seit Menschengedenken. Nur die Deutschen haben davon nicht viel mitbekommen.

100 Jahre Erwärmung in einem Jahr rückgängig gemacht

Inzwischen zeigen Zusammenstellungen von unzweifelhaften Messdaten aus der ganzen Welt, dass der in hundert Jahren erreichte Gesamtbetrag der Klimaverbesserung (ein Anstieg des globalen Temperaturmittelwerts von etwa 0,7 °C) in einem einzigen Jahr verloren gegangen ist. Das meldet der Blog DailyTech.com. Dort findet sich auch eine beeindruckende Temperaturkurve für die letzten Jahre.

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Schwerwiegende Fehler im IPCC Report 2007

Quelle: IPPCC, 2007: Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Solomon, S., D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M.Tignor and H.L. Miller (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA.

Hier der Link zum AR 4

von Ernst-Georg Beck, Dipl. Biol. 1/2008

Statement:

Der 4. Klimabericht des IPCC (Weltklimarat) 2007 der UNO enthält in wesentlichen Teilen falsche Informationen. Deshalb sind alle daraus abgeleiteten politischen Konsequenzen haltlos und ohne wissenschaftliche Basis. Alle Verweise und Diskussionen über mögliche Konsequenzen in Publikationen der Medien, Schulen und Universitäten beruhen auf Pseudowissenschaft. Politische und wirtschaftliche Aktivitäten gemäß der irrigen Behauptungen des IPCC müssen sofort beendet werden. Eine unabhängige, wissenschaftliche Debatte muß zur Aufklärung stattfinden.

1. Falsche Temperaturdaten:

a)Die Temperaturkurven S. 25 und 29 (pdf) seit 1960 beruhen hauptsächlich auf dem Wärmeinseleffekt, da besonders für die ansteigenden Temperaturen seit 1975 wenige in Städten liegende Stationen verwendet werden. Tatsächlich steigen die Temperaturen nicht wie gezeigt an, sie fallen weltweit laut Satellitenmessung:

Nachweis: Ross McKitrick

Satellitendaten: MSU

b) Die gezeigten Kurven S. 29 (PDF, S. 121 IPCC) enden alle 2001. Warum im Bericht 2007, wo doch der letzte IPCC Bericht 2007 erschien?

Weil die mittlere Erdtemperatur seit 1998 nicht mehr steigt, sondern fällt! Treibhauseffekt?

Nachweis: Hier der Lieferant der IPCC-Temperaturdaten

CRU (England), Jones et al. (rechts die Temperaturen anklicken)

2. Falsche CO2 / Methan-Daten:

Die Kurven des CO2 und Methans sind teilweise falsch bzw. irreführend dargestellt.

CO2 war in den letzten 200 Jahren stark schwankend mit Konzentrationen wie heute um 1825, 1857 und 1942. Methan stagniert seit langem und fällt seit 2007, also kann es nicht als zusätzliches Treibhausgas wirken.

Nachweis: CO2

Methan: NOAA (2006)

3. Weniger Hurrikane:

Behauptung S. 15 „Tropical storm and hurricane frequencies vary considerably from year to year, but evidence suggests substantial increases in intensity and duration since the 1970s……. Specifically, the number of category 4 and 5 hurricanes increased by about 75% since 1970.“

Das ist nur ein Teil der Wahrheit bzw. falsch: Die Anzahl der Hurrikane mit maximaler Stärke war in den 30er Jahren des 20. Jahrhunderts am stärksten.

Nachweis: NOAA (2007)

4. Kein Meeresspiegelanstieg:

Die Kurve S. 19 ist irreführend und entspricht dem Tunnelblick des IPCC alles auszublenden, was nicht in die Hypothese passt. Derzeit steigen keine Meersspiegel!

Nachweis: Prof. N.A. Mörner

5. Kein Konsens:

Der gesamte IPCC-Bericht ist im wesentlichen Teil, der den menschengemachten Klimawandel betrifft genau von 5 Personen begutachtet worden. Die Behauptung, er sei im Konsens von 2500 Wissenschaftlern entstanden ist falsch.

Nachweis: John McLean.

Inzwischen ist übrigens die bittere und im Detail belegte Abrechnung des IPCC Expert-Reviewers Dr. Vincent Gray aus dem Internet herunterladbar. Dr. Gray fordert nach allem, was er erleben musste, nichts weniger als die sofortige Auflösung dieses Gremiums. Denn die Theorie der vom Menschen gemachten globalen Erwärmung sei von Anfang an ein krankhaft religiös begründeter Schwindel gewesen. (akt. 12. Juli 2008)

****************************************************************************************************

Werden wissenschaftliche Standards überflüssig ?

Das neue Jahr begann in den deutschen Medien mit neuen Zumutungen für den gesunden Menschenverstand. Erst berichteten mehrere Online-Magazine und Radiosender, das vergangene Jahr habe in Deutschland einen neuen Durchschnittstemperatur-Rekord gebracht. Doch kurz darauf musste die Meldung mit dem Hinweis auf einen Rechenfehler des Deutschen Wetterdienstes korrigiert werden. Nun heißt es, ein neuer Rekord sei knapp verfehlt worden. Dabei sollte ohnehin klar sein, dass die Durchschnittstemperatur unseres Landes, das nur ein Pünktchen auf dem Globus darstellt, kaum Aussagekraft besitzt. Weltweit hat sich 2007 die seit etwa einem Jahrzehnt beobachtbare Stagnation der bodennahen Durchschnittstemperatur fortgesetzt. Da der Ausstoß von Kohlenstoffdioxid (CO2) zur gleichen Zeit wegen des Wirtschaftsbooms in „Schwellenländern“ wie China, Indien und Brasilien und zum Teil auch in alten Industrieländern kräftig angestiegen ist, bedarf die Behauptung, anthropogenes CO2 sei die Hauptursache der globalen Erwärmung, inzwischen schon einer gehörigen Portion Schuzpe. Doch die herrschende nihilistische „Elite“ fühlt sich offenbar so fest im Sattel, dass sie keinen Grund für eine Korrektur ihrer kostspieligen und selbstmörderischen „Klimaschutzpolitik“ sieht. Man kann sicher sein, dass sich in unseren Medien immer jemand findet, der Wetterereignisse aller Art und vielleicht sogar eine deutliche Abkühlung der Erde als Bestätigung der offziellen Lehrmeinung bzw. als Erfolg der „Klimapolitik“ zu interpretieren weiß.

So wurde der Bielefelder Wissenschaftsphilosoph Martin Carrier wegen seiner unverholenen Rechtfertigung politischer Manipulation der Klimaforschung mit dem begehrten Leibnizpreis der Deutschen Forschungsgemeinschaft (DFG) ausgezeichnet. In einem am 2. Januar 2008 vom Deutschlandfunk ausgestrahlten Interview verriet Carrier, wie sich die Politik mithilfe serviler Eierköpfe ihre vermeintliche Legitimation beschafft. Hier ein Auszug aus dem von Christian Schütte geführten Interview:

„Schütte: Der Klimawandel wird kommen, und er ist zum Großteil durch Menschen verursacht. So hat es der Weltklimarat im vergangenen Jahr dargelegt, ein wissenschaftlicher Bericht. Dennoch sagen Sie, dass an der Entstehung im Grunde genommen auch die Politik beteiligt gewesen sei. Inwiefern?

Carrier: Wir haben hier ein Beispiel für einen positiven Einfluss der Politik auf die Wissenschaft, eben dass das Einwirken der Politik im Weltklimarat, im IPCC, wo die Politik die Wissenschaftler gedrängt hat, die verschiedenen Spezialmodelle zu Ozeanatmosphäre und so weiter zu einem aussagekräftigen Gesamtbild zu verbinden. Die Wissenschaftler selbst hatten ja hier mit Zurückhaltung ihre eigenen Spezialitäten gepflegt und den Blick über den Gartenzaun gerade nicht gewagt. Und der Grund ist klar: Der Eindruck herrschte, dass man nicht hinreichend verlässlich die verschiedenen Teilansätze miteinander verknüpfen könnte. Andererseits ist ja die Politik auf eine Gesamtsaussage angewiesen, da man sonst keine Maßnahmen einleiten oder begründen kann.

Schütte: Das heißt, die Ergebnisse und Empfehlungen sind politisch beeinflusst?

Carrier: Ja, in dem Sinne, wie gesagt, dass sich sozusagen der Druck der Politik als heilsam erwiesen hat insofern, als eine Frage von praktischer Relevanz von außen gestellt worden ist, die die Wissenschaft dann nach Kräften zu lösen versucht hat und in diesem Fall auch erfolgreich zu lösen versucht hat. Und das ist eben eine Frage, die sich so aus der disziplinären Entwicklung der Wissenschaft von selbst nicht gestellt hätte.

Schütte: Wie groß ist denn die Gefahr, dass wissenschaftliche Standards vernachlässigt würden durch den Druck der Politik?

Carrier: Natürlich besteht im Einzelfall auch jetzt immer noch wieder die Gefahr der Überforderung, wenn Fragen gestellt werden, die gewissermaßen von außen kommen, aus der Praxis kommen und sich nicht in der Wissenschaft selbst so ergeben hätten. Aber wir haben eben ganz häufig auch die Fälle, dass hier ein Anstoß, ein Anreiz ausreicht, damit die Wissenschaft dann doch belastbare Resultate erreicht.“

Mein Kommentar: Carrier hat sicher recht, wenn er darauf hinweist, dass die Wissenschaft keine letzte Gewissheit erlangen kann über das, was geht. Doch kann sie m. E. sehr wohl erkennen, was alles nicht geht. Darüber geben uns beispielsweise die Gesetze der Thermodynamik Aufschluss. Carrier aber schließt aus den Grenzen wissenschaftlicher Erkenntnisfähigkeit offenbar, man könne sich politisch darauf einigen, was möglich ist. Wissenschaftliche Standards spielen danach keine Rolle mehr. Entscheidend ist, dass etwas herauskommt, das der Politik in den Kram passt. Sollten sich die von der Politik manipulierten Aussagen des „Weltklima-Rates“ IPCC als Irrtum herausstellen, wäre das in den Augen Carriers nicht weiter schlimm. Denn das von der EU zur obersten Richtschnur der Politik erhobene „Vorsorgeprinzip“ ist so definiert, dass man damit schlicht alles rechtfertigen kann. So wird es möglich, selbst völlig unnütze Milliarden-Investitionen, die lediglich der parasitären Bereicherung der Mitglieder des Ökologisch-Industriellen Komplexes dienen, als Dienst für das „Gemeinwohl“ auszugeben. (Edgar Gärtner, 10. Januar 2008)

„Klimapolitik“ nicht wissenschaftlich begründbar

In der WELT vom 25. September 2007 stellen Prof. Hans Mathias Kepplinger und seine Assistentin Senja Post die Ergebnisse einer online-Umfrage unter sämtlichen 239 deutschen Klimaforschern vor, die ich am 10. September in meinem unten wiedergegebenen Kommentar in der gleichen Zeitung schon kurz erwähnt hatte. Zu den wichtigsten Ergebnissen dieser Umfrage zählt der Befund, dass nur eine Minderheit von 10 bis 20 Prozent der angesprochenen Forscher die empirischen und theoretischen Voraussetzungen für die Berechnung des Klimas heute schon für gegeben hält. Die große Mehrheit der Klimaforscher ist sich also ziemlich unsicher über die Zusammenhänge und die zukünftige Entwicklung des Klimas. „Diese Befunde werfen die grundlegende Frage auf, ob die weitreichenden politischen Maßnahmen zum Schutz des Klimas mit Verweisen auf die Klimaforschung gerechtfertigt werden können“, folgern Kepplinger und Post.

Senja Posts Buch „Klimakatastrophe oder Katastrophenklima?“ ist inzwischen erschienen.

Erwärmung der Arktis überwiegend natürlich

SPIEGELonline hat nun im Bericht über Untersuchungen russischer Forscher zugegeben, dass die auffällig rasche Schmelze von Teilen des arktischen Packeises im letzten Sommer zum großen Teil auf eine natürliche Veränderung von Luftströmungen zurückgeht. Während in einem Teil der Arktis die Temperatur gegen den von „Klimamodellen“ prognostizierten Trend zurückgeht, sind andere Teile der Arktis dem Einfluss warmer südlicher Luftströmungen ausgesetzt. Auf diese Entwicklung hat der inzwischen emeritierte französische Klimatologe Marcel Leroux (Lyon) in seinem im Jahre 2005 im renommierten Springer-Verlag (Heidelberg) erschienen Buch „Global Warming. Myth or Reality?“ hingewiesen. Da Leroux in diesem Buch Ansichten über Ursache und Ablauf des Wettergeschehens vertritt, die der derzeitigen Schulmeteorologie teilweise widersprechen, wurde das Buch von der Fachwelt bislang weitgehend totgeschwiegen. Die Leser meiner in der „Chemischen Rundschau“, im „Novo-Magazin“ und „eigentümlich frei“ erschienenen Artikel, meiner Homepage sowie meines Buches „Öko-Nihilismus“ konnten sich allerdings ausgiebig über die etwas ketzerischen Ansichten des französischen Wissenschaftlers informieren. Was heute in SPIEGELonline steht, weist darauf hin, dass Leroux mit seinen Ansichten wohl nicht ganz falsch liegt. Lesen Sie bitte hier unten einen meiner letzten Beiträge über Leroux und seine Klimahypothese, der im vergangenen September in der WELT erschien.

(3. Januar 2008)

Es wird kalt, nicht heiß

von Edgar Gärtner, Hydrobiologe

Warum versuchen in Europa „Experten“, den Menschen einzureden, nicht die Abkühlung, sondern die Erwärmung der Erde stelle die größere Bedrohung dar? Es muss doch einen Grund haben, dass sie bekannte Zusammenhänge buchstäblich auf den Kopf stellen.

Besuch bei Marcel Leroux, einem in Südfrankreich nicht weit von der Grabstätte Picassos lebenden emeritierten Professor für Klimatologie, der in seinen Büchern eine andere Auffassung über die Ursachen des Klimawandels vertritt als die von der Politik nominierten Experten im zwischenstaatlichen Klimarat IPCC. Der noch frisch und drahtig wirkende Skipper bretonischer Herkunft erklärt mir am Computerbildschirm anhand zahlreicher Satellitenfotos, warum in diesem Jahr in Deutschland so früh der erste Schnee gefallen ist. Er zeigt mir die von Grönland nach Süden ziehende gewaltige Kaltluftmasse mit hohem Druck, die ein charakteristisches Wolkenband vor sich herschiebt, das sich an seiner Nordostseite zu einem Tiefdruckwirbel verdichtet. In Südfrankreich macht sich dieser Kaltlufteinbruch durch einen heftigen Mistralwind bemerkbar.

Neben den Wolkenbildern findet man im Internet hochauflösende Druck-, Niederschlags- und Windkarten, vertikale Temperatur- und Windprofile beinahe für jeden Ort und viele andere Angaben, die laufend aktualisiert werden. Man kann dabei sogar die Daten konkurrierender Anbieter vergleichen, um sich sein Bild über das Wettergeschehen zu machen.

So sieht man deutlich, dass die in Form stehender Wellen durch den Trichter des Rhône-Tals gepresste Kaltluft nur bis etwa 1500 Meter Meereshöhe reicht und dass ihr größter Teil von den Alpen und den Pyrenäen nach Westen auf den Atlantik abgedrängt wird. Setzt sich ein solches Kälte-Hoch jedoch einmal irgendwo auf dem Kontinent fest (wie in diesem Sommer in Südost-Europa), kann es auch zur Ursache einer Hitzewelle werden, weil die Luft dann rasch von der Sonne aufgeheizt wird.

Leroux hat nachgewiesen, dass solche Kaltlufteinbrüche seit den 70er-Jahren in immer kürzeren Abständen aufeinanderfolgen. In Südfrankreich lässt sich das einfach überprüfen: Man braucht nur die Entwicklung der Häufigkeit von Mistralwinden in den vergangenen 30 Jahren zu vergleichen. Dann hat man einen Anhaltspunkt für die Richtung des Klimawandels. Leroux schließt aus seinen langjährigen Beobachtungen, dass wir Zeugen eines allmählichen Abkühlungsprozesses sind, der zu einer kleinen Eiszeit führen kann. Das sei vor allem eine schlechte Nachricht für Afrika.

Der Geograf, der als Sohn eines Marineoffiziers in Tunesien geboren wurde und den größten Teil seines wissenschaftlichen Werdegangs in Afrika absolviert hat, kennt die Klimageschichte des Schwarzen Kontinents wie kein Zweiter. Er zeigt mir anhand anderer Satellitenaufnahmen, dass der Einfluss der in Westeuropa einbrechenden Kaltluft bis weit nach Westafrika reicht. Dort verstärkt sie trockene Passatwinde und trägt damit zum Vorrücken der Wüste bei. Es ist seit Längerem bekannt, dass die Sahara ihre größte Ausdehnung auf dem Höhepunkt der letzten Eiszeit erreichte. Warmzeiten hingegen brachten dem Schwarzen Kontinent immer reichlich Niederschläge und damit relativen Wohlstand.

Warum wissen das in Europa so wenige? Warum versuchen dort „Experten“, den Menschen einzureden, nicht die Abkühlung, sondern die Erwärmung der Erde stelle die größere Bedrohung dar? Es muss doch einen Grund haben, dass sie bekannte Zusammenhänge buchstäblich auf den Kopf stellen. Leroux sieht ihn darin, dass die Politik sich mit einer lautstarken Minderheit computergläubiger Forscher zusammengetan hat, die von historischer Geografie und Meteorologie wenig Ahnung haben.

Der Mainzer Kommunikationsforscher Hans Mathias Kepplinger bestätigt das. Er hat in einer Umfrage herausgefunden, dass nur etwa ein Drittel der deutschen Klimaforscher glaubt, dass der Fortgang der Erwärmung überwiegend negative Konsequenzen hätte. Doch von den anderen zwei Dritteln hört und sieht man bislang nicht viel in den Medien. Es mehren sich aber die Anzeichen für ein Ende der Schweigespirale. Nicht zufällig werden neuerdings Bücher und Sendungen über den „Klimaschwindel“ zu Bestsellern.

(Kommentar erschienen am 10. September 2007 in DIE WELT, Berlin)

———————————————————————————————————————–

Klima: Crux mit grönländischen Knochen

Gemeinhin gilt die seit 1958 am Mauna Loa, einen aktiven Vulkan auf Hawaii, mithilfe der von Charles Keeling perfektionierten Infrarot-Spektroskopie aufgezeichnete gezackte Kurve eines kontinuierlichen, leicht exponentiell anmutenden Anstiegs der CO2-Konzentration der Atmosphäre als wichtigstes „Beweisstück“ für die Annahme, die massive Verbrennung fossiler Energieträger seit der industriellen Revolution des 19. Jahrhunderts trage die Hauptschuld an dem seit etwa 150 Jahren feststellbaren leichten Anstieg der Durchschnittstemperatur über den Landmassen der Erde. Der Freiburger Biochemiker und Gymnasiallehrer Ernst-Georg Beck hat seine freie Zeit genutzt, um an Hand älterer Fachveröffentlichungen über präzise Messungen des CO2-Gehaltes der Luft mithilfe der klassischen Pettenkofer-Methode zu überprüfen, ob sich die inzwischen schon legendäre Mauna-Loa-Kurve von ihrem aktuellen Wert (ca. 380 ppm CO2) tatsächlich nach rückwärts extrapolieren lässt bis zum Wert von etwa 280 ppm CO2, der in den meisten „Klima-Modellen“, die den schlagzeilenträchtigen Berichten des UN-Klimarats IPCC zugrunde liegen, als „vorindustrielles Niveau“ angenommen wird.

Becks Fleißarbeit der Auswertung von etwa 90.000 verwertbaren, weil methodisch einwandfreien historischen Messungen förderte eine Überraschung zutage: Zu Beginn der 40er Jahre des vergangenen Jahrhunderts war die CO2-Konzentration mit 420 ppm in ländlichen Gebieten Deutschlands (gemessen von einer der am besten ausgerüsteten Wetterstationen bei Giessen in Mittelhessen) schon einmal deutlich höher als heute. Auch in den Jahrzehnten davor hat der CO2-Gehalt offenbar stark geschwankt. Deutliche Einflüsse gingen z.B. um 1820 vom Ausbruch des Vulkans Tambora in Indonesien aus. Beck fragt sich nun, ob das Ignorieren dieser älteren Messungen, deren Präzision größtenteils nichts zu wünschen übrig lasse, nicht einem Betrug durch Charles Keeling gleichkommt. Jedenfalls könne der UN-Klimarat IPCC nicht so tun, als habe es vor 1958 keine exakten CO2-Messungen gegeben. Beck hat die Auswertung seiner Literatur-Recherche in diesem Jahr unter dem Titel „180 Years accurate CO2-Gasanalysis of Air by Chemical Methods“ im englischen Fachmagazin ENERGY & ENVIRONMENT (Volume 18, No. 2/2007) veröffentlicht.

Im Mai 2007 hat Beck eine deutsche Kurzfassung seiner Arbeit unter dem gewagten Titel „Der CO2-Betrug, der größte Skandal der Wissenschaftsgesichte der Neuzeit?“ im Internet veröffentlicht. Seither ist Becks Arbeit Gegenstand heftigster Polemik. Inzwischen gibt es allein unter der Internet-Adresse, auf der Becks Artikel erschien, an die 500 mehr oder weniger kritische Stellungsnahmen.

Die von Beck aufgrund älterer chemischer Messungen in Europa rekonstruierte Kurve der historischen Entwicklung der atmosphärischen CO2-Konzentration unterscheidet sich in auffälliger Weise von der vom IPCC veröffentlichten Kurve, die vor 1958 in der Hauptsache auf der Analyse der Lufteinschlüsse von Eisbohrkernen beruht. Diese Analysen spiegeln allerdings nur in den oberen Eisschichten die absoluten CO2-Konzentrationen wider. Schon in wenigen Metern Tiefe liegt die eingeschlossene Luft wegen des wachsenden Drucks nicht mehr in Form von Bläschen vor, sondern fest gebunden in Clathraten, deren Analyse bestenfalls gerade noch Aufschluss über die relativen Konzentrationen ihrer Bestandteile gibt, aber kaum noch etwas über die früher vorhandene reale CO2-Konzentration in der Luft aussagt. Insofern sind die in wissenschaftlichen Veröffentlichungen dokumentierten historischen CO2-Bestimmungen von großem Interesse.

Die Korrektheit der von Beck gesammelten und ausgewerteten historischen CO2-Messungen steht wohl außer Frage. Immerhin zählen zu deren Autoren Persönlichkeiten wie der Nobelpreisträger Otto Warburg und der durch das Linde-Lufttrennverfahren bekannt gewordene Paul Schuftan, deren Messtechniken über allen Zweifel erhaben scheinen. Doch bleibt die Frage, ob die korrekt gemessenen Konzentrationen auch als repräsentativ für die jeweilige globale Durchschnittskonzentration gelten können. So wies Urs Neu vom Pro Clim – Forum for Climate and Global Change der Swiss Academy of Sciences, Bern, im Internet darauf hin, dass Beck Messungen aufführt, die beinahe zur gleichen Zeit vorgenommen wurden, aber zu weit voneinander abweichenden Ergebnissen gelangten. Das sei ein Hinweis auf die fehlende Representativität der von Beck zitierten Messwerte, meint Neu. Außerdem seien Beck bei der Auswertung der unterschiedlichen Messreihen Fehler in der Kalibrierung und Skalierung unterlaufen, die an Manipulation grenzten.

Ähnlich argumentiert Prof. Stefan Rahmstorf vom Potsdam Institut für Klimafolgenforschung (PIK) auf der Internet-Seite „RealClimate“. Rahmstorf knöpft sich hauptsächlich Becks Darstellung der aus Proxydaten (fossile Baumringe, Stalagmiten usw) rekonstruierten Temperaturkurve der vergangenen 1000 Jahre vor, die schon einmal 1990 im 1. IPCC-Bericht gezeigt wurde. Danach war es in der mittelalterlichen Warmzeit, als auf Grönland Weizen angebaut wurde und Kühe grasten, deutlich wärmer und in der darauf folgenden „Kleinen Eiszeit“ erheblich kühler als heute. Rahmstorf streitet ab, dass es im Hochmittelalter tatsächlich wärmer war als heute und verteidigt die erstmals im IPCC-Bericht von 2001 gezeigte „Hockey-Schläger“-Temperatur-Rekonstruktion von Michael Mann et al. Diese Kurve hat in etwas modifizierter Weise auch Eingang in den neuesten IPCC-Bericht gefunden. Danach ist die heutige Durchschnittstemperatur der Erde deutlich höher als jemals zuvor in den letzten 1000 Jahren, was in den Massenmedien als Zeichen einer drohenden „Klimakatastrophe“ gedeutet wird.

Immerhin haben die Kanadier Steve McIntyre und Ross McKitrick Manns „Hockey-Schläger-Kurve“ schon vor zwei Jahren in den „Geophysical Research Letters“, dem Organ der US Geophysical Society, einer fundierten Methodenkritik unterzogen und als statistisches Artefakt entlarvt. Und wie will Stefan Rahmstorf mit der vom IPCC akzeptierten Temperaturkurve erklären, dass bis ins 12. Jahrhundert, durch zahlreiche Knochenfunde belegt, auf Grönland tatsächlich Viehzucht betrieben wurde? Es scheint, dass das letzte Wort in Sachen CO2 und Klima noch nicht gesprochen ist.

Edgar Gärtner

(erschienen in: Chemische Rundschau Nr. 9/2007, VS-Medien, CH-Solothurn)

Rahmstorf entlarvt sich selbst

Abfallpolitik in Europa

Die Europäische Union revidiert ihre Abfallrahmenrichtlinie. Rechtsunsicherheiten sollten ausgeräumt und die Abfallmengen von der Produktionssteigerung entkoppelt werden. Großen Streit gab es über die Vorzüge der Abfallverbrennung, die Art der Kunststoffverwertung und die Rolle der Kommunen im Verhältnis zur Privatwirtschaft. Der Trend geht in Richtung kommunale Planwirtschaft.

EU-Abfall-Rahmenrichtlinie

Europa auf dem Wege in die Recycling-Gesellschaft?

Die Europäische Union revidiert ihre Abfallrahmenrichtlinie. Rechtsunsicherheiten sollen ausgeräumt und die Abfallmengen von der Produktionssteigerung entkoppelt werden. Großen Streit gab es über die Rolle der Abfallverbrennung und der Kommunen im Verhältnis zur Privatwirtschaft. Im Juni 2008 einigten Parlamentarier und Bürokraten auf einen Kompromiss.

Am 17. Juni 2008 hat das Europa-Parlament (EP) in Strassburg in zweiter Lesung der Kompromissfassung einer Revision der EU-Abfall-Rahmenrichtlinie zugestimmt, der zwar den Interessen der Industrie entgegenkommt, gleichzeitig aber auch Bestrebungen einer Rekommunalisierung der Abfallwirtschaft fördert. Wäre es hingegen nach dem Willen der übergroßen Mehrheit des Umweltausschusses des EP gegangen, bekäme die europäische Abfallwirtschaft schon bald große Ähnlichkeit mit dem Sero-System der untergegangenen DDR. (Für die, die damit nichts anzufangen wissen: Mithilfe des Sero-Systems gewann die sozialistische Wirtschaft, um knappe Devisen zu sparen, mit wirtschaftlich unvertretbar hohem Aufwand Sekundärrohstoffe.) Der liberale Europa-Abgeordnete Holger Krahmer (Leipzig), umweltpolitischer Sprecher der FDP im EP, hat als durchgängiges Motiv der am 8. April 2008 vorgelegten Stellungnahme des Umweltausschusses zum Ratsentwurf („Gemeinsamer Standpunkt“) der neuen Richtlinie die „Verliebtheit in die Planwirtschaft“ ausgemacht. Das sagte der Ex-Marxist auf einem Symposium der tecpol GmbH für ökoeffiziente Polymerverwertung und der BKV Plattform für Kunststoff und Verwertung in Frankfurt.

Alle Vorschläge des Ausschusses, so Krahmer, laufen auf mehr Bürokratie hinaus. Die Abfalldefinition sei keineswegs klarer geworden. Werde sie beibehalten, mache die Abgrenzung zwischen Produkten und Abfällen mühsame Abstimmungsverfahren notwendig, die obendrein in verschiedenen Mitgliedsländern der EU zu unterschiedlichen Ergebnissen führen dürften. Die Abfallverbrennung werde von den Parlamentariern nur in sehr eingeschränktem Maße als sinnvolle Verwertung anerkannt. Zudem werde die grenzüberschreitende Privatisierung der Abfallwirtschaft erschwert und der Rekommunalisierung Vorschub geleistet, ohne dem unerwünschten „Mülltourismus“ die Grundlage zu entziehen.

Als die EU-Kommission im Dezember 2005 die Revision alten der Abfallrahmenrichtlinie von 1975 auf den Weg brachte, wurde sie im Wesentlichen von zwei Motiven geleitet:

• Die gewünschte Entkopplung der Abfallmengen von der steigenden Arbeitsproduktivität sei nicht beobachtbar. Es bedürfe bindender nationaler Recyclingziele, um zu greifbaren Ergebnissen zu gelangen. Ziel der EU müsse die Überwindung der Wegwerf-Mentalität in einer „Recycling-Gesellschaft“ sein.

• Die Rechtsunsicherheiten bei der Abgrenzung zwischen Produkt und Abfall sowie zwischen der Verwertung und der Beseitigung von Abfällen sollen ausgeräumt werden.

Ähnlich wie REACh unterlag auch die Revision der Abfallrichtlinie, die in Brüssel unter dem Kürzel WFD (Waste Framework Directive) zirkuliert, dem für Außenstehende kaum verständlichen Mitentscheidungsverfahren, bei dem es zu einem kompliziert erscheinenden Hin und Her zwischen Kommission, Parlament und Rat kommt. In einem „Trilog“ in der Endphase der Auseinandersetzung versuchen die Gremien dann zu vermeiden, dass das Gesetzesvorhaben in einem finalen „Showdown“ untergeht. Bis September 2006 waren zum Kommissionsvorschlag von 2005 über 600 Änderungsanträge eingegangen. Nach seiner 1. Lesung im Europa-Parlament Ende Februar 2007 zeichnete sich ein Einvernehmen zwischen Parlament und Rat über folgende Ziele ab:

• Stabilisierung des gesamten Abfallaufkommens der EU (derzeit jährlich 1,8 Milliarden Tonnen) bis 2012,

• verbindliche Recyclingziele bis 2020 von 50 Prozent für Siedlungsabfälle und 70 Prozent für Bauschutt.

Dabei muss man wissen, dass in einigen EU-Mitgliedsstaaten heute noch 90 Prozent der Siedlungsabfälle auf Deponien gehen, in anderen aber nur noch 10 Prozent.

Unterschiedliche Ansichten gab es hinsichtlich der Hierarchie der Abfallbehandlung. Als oberstes Ziel der Abfallpolitik sah schon die Kommission in ihrem Vorschlag die Abfallvermeidung. Während aber die Kommission die fünfstufige Hierarchie von Vermeidung, Wiederverwendung, Recycling, sonstige Verwertung und Beseitigung nur im Sinne einer Leitlinie verstand, forderte die Mehrheit des EP eine dirigistische Regelung und sah dabei obendrein die Abfallverbrennung überwiegend nicht als sinnvolle Verwertung, sondern als minderwertige Beseitigung von Abfällen an. Nur die Verbrennung in hoch energieeffizienten Anlagen mit einem Stützfeuerungsanteil von weniger als 39 Prozent Primärenergie sollte als Verwertung zugelassen werden. Diese höchst umstrittene Einschränkung wurde im April 2008 vom Umweltausschuss des EP mit einer knappen Mehrheit von 29 zu 24 Stimmen bestätigt. Die Mehrheit der Ausschussmitglieder erklärte die Deponierung und die Verbrennung von Abfällen für gleichermaßen unerwünscht. Damit fielen die Europa-Parlamentarier hinter den im deutschen Kreislaufwirtschaftsgesetz von 1994 und in der deutschen Praxis der Genehmigung von Abfallverbrennungsanlagen erreichten Erkenntnisstand zurück. Es steht in Deutschland heute selbst bei den Grünen außer Zweifel, dass mit modernen Filtern ausgerüstete Kehrricht-Verbrennungsanlagen effiziente Senken für Dioxine, Quecksilber, Cadmium und andere Schadstoffe darstellen.

Industrieverbände, allen voran PlasticsEurope, die Vereinigung der europäischen Kunststoffhersteller, forderten demgegenüber eine flexible, d.h. stoff- und produktbezogene Hierarchie, die Lebenszyklusanalysen Rechnung trägt. Diese Analysen kamen im Falle der Verwertung ausgedienter Kunststoffverpackungen übereinstimmend zum Schluss, dass ein Anteil des werkstofflichen Recyclings in der Größenordnung von 15 bis 25 Prozent optimal ist. Eine höhere Wiederverwertungsquote bringe nicht nur rasch steigende Kosten mit sich, sondern führe gegenüber der Verbrennung oder der rohstofflichen Verwertung von Plastikabfällen in der Stahlindustrie auch zu sinkender Öko-Effizienz. PlasticsEurope erinnert daran, dass Kunststoffabfälle sozusagen „eingefrorenes Öl“ darstellen und aufgrund ihres hohen Heizwertes andere Brennstoffe ökologisch sinnvoll ersetzen können. Die Kunststofferzeuger befürworten daher eine weite Recyclingdefinition, die auch die rohstoffliche Verwertung von Kunststoffresten als Reduktionsmittel in Hochöfen einschließt, sowie die Anerkennung der energetischen Nutzung von Plastikabfällen als Verwertung.

Eine solche weite Definition des Recycling war auch im ursprünglichen Richtlinien-Vorschlag der Kommission enthalten. Es hieß dort, Recycling ist „die Verwertung von Abfall in Produkte, Werkstoffe oder Rohstoffe, entweder für den ursprünglichen Zweck oder für andere Zwecke. Es schließt eine energetische Verwertung nicht mit ein.“ Diese Definition ging in den Ende 2007 veröffentlichten „Gemeinsamen Standpunkt“ des Rates ein. Doch der Umweltausschuss des EP schloss sich einem im März 2008 vorgelegten Änderungsantrag an, der die Anerkennung des Einsatzes von Kunststoffabfällen als Reduktionsmittel als rohstoffliches Recycling ausschließt. PlasticsEurope machte sich selbstverständlich für die weite Recycling-Definition der EU-Kommission stark. Der Verband hat dabei vor allem die Verwertung von etwa 400.000 Tonnen geshredderten Kunststoffverpackungen mit dem „Grünen Punkt“ aus der Sammlung des Dualen Systems Deutschland (DSD) und der Kunststoff-Fraktion von geshredderten Altautos in Hochöfen der österreichischen Voestalpine Stahl, in Schmelzöfen der belgischen Umicore und weitere Projekte in Salzgitter im Auge. Insgesamt, so Dr. Ingo Sartorius von PlasticsEurope, müssten für über 600.000 Tonnen Kunststoffabfälle neue Verwertungsmöglichkeiten gefunden werden, hätte sich die enge Recycling-Definition durchgesetzt.

Sowohl die deutsche Industrie als auch die Berliner Regierung machten sich für die Verwertungsdefinition der Kommission wie auch des gemeinsamen Standpunktes des Rates stark. Danach gelten als Abfallverwertung Verfahren, „in deren Ergebnis die Abfälle einem sinnvollen Zweck zugeführt werden, so dass andere Ressourcen, die für diesen Zweck eingesetzt worden wären, innerhalb oder außerhalb der Anlage ersetzt werden…“ Nur eine solche Definition erlaube eine Verbindung zwischen Materialwirtschaft und Energiegewinnung im Sinne der Ressourcen- und Energieeffizienz. Deutschland drängte deshalb darauf, die Revision der WFD noch vor Ablauf der slowenischen EU-Präsidentschaft durch die 2. Lesung des EP-Plenums und die 2. Lesung des Rates zu bringen.

Den Durchbruch brachte ein „Trilog“ am 2. Juni 2008. Es kam dort zwischen der Kommission, dem Rat und dem Parlament zu einem Kompromiss, dessen Kern der Verzicht der von der EP-Mehrheit im Februar 2007 in der 1. Lesung geforderten verbindlichen nationalen Abfallvermeidungszielen darstellt. Danach sollte die Abfallproduktion bis zum Jahre 2012 auf dem Niveau von 2009 eingefroren werden. Stattdessen bekommen die nationalen Regierungen nun eine Frist von fünf Jahren nach Inkrafttreten der Richtlinie, um Abfallvermeidungsprogramme auf den Weg zu bringen. Dafür mussten die Kommission und die in dieser Frage hinter ihr stehende Privatwirtschaft Einschränkungen der Freizügigkeit auf dem europäischen Binnenmarkt akzeptieren. Die Behandlung gemischter Haushaltsabfälle soll Bestandteil der „kommunalen Daseinsvorsorge“ bleiben. Dr. Rainer Cosson sprach als kommissarischer Hauptgeschäftsführer des Bundesverbandes der Deutschen Entsorgungswirtschaft (BDE) von einem „Rückfall in die Kleinstaaterei.“ Immerhin sollen getrennt gesammelte Verpackungsabfälle, nach Aussage von EU-Umweltkommissar Stavros Dimas, weiterhin grenzüberschreitend verwertet werden können.

So stehen nun die Chancen für die Durchsetzung der weiten Recycling- und Verwertungsdefinitionen auf nationaler Ebene gut. Die neue WFD wird Anfang 2009 in Kraft treten und müsste bis Ende 2010 in nationales Recht umgesetzt werden. Wäre es im Juni 2008 nicht zu einer Einigung gekommen, hätte ein Vermittlungsverfahren mit ungewissem Ausgang in die Wege geleitet werden müssen. Angesichts der bevorstehenden Europawahlen wollte kaum jemand dieses Risiko eingehen.

Edgar Gärtner

(erschienen in: CR-Chemische Rundschau Nr. 8 vom 14. August 2008, VS-Medien AG, CH-Solothurn)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

EU-Abfallstudie

Chancen für das PVC-Recycling

Die Kunststoffindustrie gehört zu den dynamischsten Industriezweigen Europas. Nach dem 17. Bericht über Produktion, Verbrauch und Verwertung von Kunststoffen, den die europäischen Hersteller, Verarbeiter und Wiederverwerter von Kunststoffen vor kurzem unter dem Titel „Compelling Facts about Plastics 2006“ vorgelegt haben, wuchs die Gesamtnachfrage nach Kunststoffen in Europa (einschließlich der Schweiz und Norwegens) im Jahre 2006 mit vier Prozent doppelt so schnell wie das Bruttoinlandsprodukt (BIP) und erreichte eine Gesamtmenge von beinahe 50 Millionen Tonnen. Etwa die Hälfte davon wurde nach dem Gebrauch werkstofflich, rohstofflich oder energetisch wiederverwertet. Dabei gab es große Unterschiede zwischen den Ländern. Während in sieben von ihnen die Wiederverwertungsrate bereits über 80 Prozent lag, haben andere noch einen beträchtlichen Nachholbedarf. In der Hälfte der EU-Mitgliedsländen liegen die Verwertungsraten noch unter 30 Prozent.

Fast zur gleichen Zeit erschien auch eine vom Joint Research Center der EU-Kommission Institute for Prospective Technological Studies (JRC/IPTS) beim GAIKER Centro Tecnológico in Sevilla/Spanien in Auftrag gegebene Studie über die ökologischen Perspektiven der Verwertung von Altkunststoffen bis zum Jahre 2015 unter dem Titel „Assessment of the Environmental Advantages and Drawbacks of Existing and Emerging Polymers Recovery Processes“ (Autoren: Clara Delgado, Leire Barruetabeña, Oscar Salas). Diese Studie, die mit älteren Zahlen arbeitet, untersucht, wie die Vorgaben der EU-Verpackungsverordnung von 1994, der Altauto-Verordnung von 2000 und der Elektro- bzw. Elektronikschrott-Verordnung von 2002 sowie der EU-Direktive über eine Integrierte Produktpolitik (IPPC) von 2005 bei verschiedenen Kunststoffarten umgesetzt werden können. Dabei gehen die Autoren auch auf die Wiederverwertung von PVC-Abfällen ein, obwohl PVC mengenmäßig im Vergleich zu leichtem und schwerem PE zu den weniger bedeutenden Kunststoffströmen gehört. Aus mehreren Gründen steht die PVC-Verwertung vor besonderen Problemen.

Zum einen ist die Verwendung von PVC als kurzlebiges Verpackungsmaterial nur noch von geringer Bedeutung, während hier der Einsatz konkurrierender Kunststoffe wie PE, PET und PP zum Teil explosionsartig zugenommen hat. Dementsprechend findet sich im Hausmüll im Schnitt nur noch etwa ein Prozent PVC. Gleichzeitig hat der Einsatz von PVC als langlebiger Werkstoff am Bau (vor allem in Form von Rohren, Fensterprofilen, Fußbodenbelägen und Dachbahnen) an Bedeutung gewonnen, wobei enorme Spannbreiten in der Lebensdauer, aber auch Unterschiede zwischen vergleichbaren EU-Ländern ins Auge springen. Es gibt PVC-Abwasserrohre, die seit der Vorkriegszeit, d.h. seit 80 Jahren im Gebrauch sind oder, falls sie nicht mehr benutzt werden, unter der Erde bleiben und in dieser Form kein Abfallproblem darstellen. Auch ausgebaute Fenster bzw. deren PVC-Rahmen werden nur zum Teil zu Abfall, weil es insbesondere in den ärmeren ost- und südeuropäischen Ländern einen Markt für Gebrauchtfenster gibt. Ein wichtiger Stoffstrom vom Bau, die Kabelverwertung, die wegen des starken Anstiegs der Kupferpreise in den letzten Jahren rasch an Bedeutung gewonnen hat, wird bislang in Kunststoffstatistiken nicht erfasst, weil sich die Kabelzerleger in erster Linie als Altmetall- und nicht als Kunststoffverwerter sehen. Deshalb sind im Bausektor insgesamt nur grob überschlägige Berechnungen der PVC-Verwertung möglich. Die JRC/IPTS-Studie stellt lediglich fest, dass die Verwertungsrate von Alt-PVC (die die Autoren ohne Berücksichtigung der Kabel europaweit auf 10 Prozent schätzen) hier stark von freiwilligen Recycling-Initiativen der PVC-Verarbeiter abhängt. Diese Initiativen sind seit Anfang der 90iger Jahre zunächst in den Niederlanden und Deutschland für Rohre, Bodenbeläge Fenster und Dachbahnen aufgebaut worden. Seit 2005 fördert die PVC-Branche die Anlieferung von PVC-Abfällen durch finanzielle Anreize. Ein Beispiel dafür ist das vor allem in Großbritannien, den Niederlanden und in Frankreich eingeführte Recovinyl-System.

Zum andern hängt die Entwicklung des Einsatzes von Kunststoffen im Bausektor stark von Mode- bzw. Image-Trends ab. Während PVC-Fensterprofile in Deutschland inzwischen einen Marktanteil von über 50 Prozent erobert haben, ist ihr Einsatz im Nachbarland Frankreich rückläufig. Welcher Trend sich durchsetzen wird, ist nicht ausgemacht. Um die Vorteile von PVC als haltbarer sowie ressourcen- und energieeffizienter Werkstoff herauszustellen, haben über 20.000 im Nachhaltigkeits-Programm „Vinyl 2010“ zusammengeschlossene europäische PVC-Hersteller und –Verarbeiter sowie Lieferanten von Additiven im März 2000 eine freiwillige Selbstverpflichtung gegenüber der EU-Kommission abgegeben. Dazu gehört neben dem Verzicht auf die Verwendung bedenklicher Cadmium-Stabilisatoren ab 2001 und dem Versprechen, bleihaltige Stabilisatoren bis 2015 schrittweise durch harmlosere Additive zu ersetzen, auch die Zusage, bis zum Jahre 2010 zusätzlich mindestens 200.000 Tonnen Nach-Gebrauchs-PVC-Abfälle, die noch keiner Regulierung unterliegen, sinnvoll zu verwerten.

Dabei steht das werkstoffliche Recycling im Vordergrund. Dieses schneidet nach dem in der JRC/IPTS-Studie enthaltenen Ranking der Kunststoff-Verwertungswege auch am besten ab. Die Autoren der Studie erwarten, dass im Jahre 2015 insgesamt etwa 24 Millionen Tonnen ausgediente Kunststoffe (davon fast 16 Millionen Tonnen Verpackungsabfälle) in den Siedlungsabfall gelangen. Den Löwenanteil machen dabei (mit 38 bzw. 17 Prozent) LDPE und HDPE aus. Es folgen 15 Prozent PET, 13 Prozent PP und 10 Prozent PS. PVC-Reste gehören mit einem Anteil von 4 Prozent zu den weniger bedeutenden Bestandteilen des Siedlungsabfalls. Größer wäre der PVC-Anteil mit 12 Prozent (gegenüber gut 36 Prozent PP und 22 Prozent PUR in geshredderten Altautos. Die Autoren der Studie schätzen, dass bis 2015 68 bis 83 Prozent der untersuchten PVC-Abfälle eingesammelt werden können. Am bedeutendsten bleibt der PVC-Anteil mit 56 Prozent (gegenüber 63 Prozent im Jahre 2005) in der Kunststofffraktion des Bauschutts. Schätzungsweise 1,12 Mio. Tonnen (gegenüber 660.000 Tonnen im Jahre 2005) würden davon verwertet. Auch wenn die Gesamtverwertungsquote im Szenario einer angenommenen Bevorzugung des werkstofflichen Recycling mit 46 Prozent vermutlich deutlich niedriger ausfallen wird als bei den anderen durchgerechneten Szenarien mit einem höheren Verbrennungsanteil, bringt dieses Szenario die größte Umweltentlastung.

Nach dem Fortschrittsbericht 2007 von „Vinyl 2010“ hat sich die zusätzlich recycelte Menge von Nach-Gebrauchs-PVC-Abfällen von Jahr zu Jahr mehr als verdoppelt: von 18.077 Tonnen im Jahre 2004 auf 38.793 Tonnen 2005 und 82.812 Tonnen 2006. Über sieben Millionen Euro schoss „Vinyl 2010“ im letzten Berichtsjahr verschiedenen Recycling-Projekten mit einem Gesamtvolumen von etwa 40.000 Tonnen Alt-PVC zu.

Für Deutschland hat die CONSULTIC Marketing & Industrieberatung GmbH in Alzenau für das Jahr 2005 folgende Zahlen ermittelt: Von 360.000 Tonnen Nach-Gebrauchs-PVC-Abfall insgesamt wurden 270.000 Tonnen (75 Prozent) verwertet. Davon 210.000 Tonnen (58 Prozent) überwiegend in Abfallverbrennungsanlagen energetisch und 60.000 Tonnen (17 Prozent) stofflich. 54.000 Tonnen (15 Prozent) davon wurden werkstofflich recycelt, der Rest rohstofflich. Der bedeutendste Teil dieses Abfallstroms (24.000 Tonnen) stammt nach der Analyse von CONSULTIC aus der Kabelzerlegung. 18.000 Tonen stammten aus anderen Quellen wie Verpackungen und 12.000 Tonnen gingen auf freiwillige Recycling-Initiativen der PVC-Verarbeiter zurück.

Nach Auskunft des führenden Kabelverwerters Cablo in Fehrbellin bei Berlin, der zu 100 Prozent Europas größter Kupferhütte Norddeutsche Affinerie gehört, liegt die aus Kabelschrott stammende wiederverwertete PVC-Menge in Deutschland, vorsichtig geschätzt, mit 60.000 Jahrestonnen deutlich über der von CONSULTIC angenommenen Menge. Hinzu komme eine unbekannte PVC-Menge aus Altkabeln, die nach China verschifft und dort in Handarbeit mit Taschenmessern, sauber nach Farben getrennt, von den Kupferdrähten abgelöst wird. „Dieses vorbildliche werkstoffliche Recycling ist bei uns leider unbezahlbar“, klagt Michael Landau von Cablo. Es ist nicht ausgeschlossen, dass auch in anderen EU-Ländern mehr PVC aus Kabelabfällen wiederverwertet als bisher bekannt. Das wirft das die Frage auf, ob es nicht für die Kunststoffbranche sinnvoll wäre, bereits funktionierende Wege der PVC-Verwertung besser zu erfassen und statistisch richtig einzuordnen.

Edgar Gärtner (veröffentlicht in: SwissPlastics, VS-Medien, CH-Solothurn, Nr. 4/2008)

Bio-Kunststoffe: Zwischen Faszination und Verwirrung

Von Edgar Gärtner

In einem Editorial der New York Times stand in diesem Frühjahr zu lesen: „Amerikaner schmeißen jedes Jahr 100 Milliarden Plastiktüten weg, Berge von Plastik, die 1000 Jahre halten können…“ Im gleichen Atemzug lobt die große linksliberale Zeitung San Francisco als erste US-Großstadt, die angefangen hat, die Ausgabe von Einkaufstüten aus biologisch nicht abbaubaren Kunststoffen in Gemüseläden und Apotheken zu verbieten. Da die Nation neuerdings nach Möglichkeiten des Energiesparens Ausschau halte, sollten Bundesstaaten und lokale Behörden darüber hinaus beginnen, die Verbraucher zum Einsatz wieder verwendbarer Tragetaschen anzuhalten.

In diesem kleinen Artikel finden sich gleich mehrere der Irrtümer, die in Sachen Bioplastik und Energiesparen herumgeistern. So ist die biologische Abbaubarkeit nicht unbedingt ein Hinweis auf eine biologische Herkunft der Rohstoffe. Nur ein Teil der in der freien Natur biologisch abbaubaren oder in industriemäßigen Rotteanlagen kompostierbaren Kunststoffe ist aus nachwachsenden Rohstoffen gemacht. Bio-Kunststoffe können auch aus herkömmlichen, ölbasierten Polymeren wie Polyester bestehen, deren Molekülketten chemisch so abgewandelt werden, dass sie für Mikroorganismen wie Pilze und Bakterien verwertbar werden. Die häufigste Anwendungsform ist eine Mischung dieser Polymere fossilen Ursprungs mit abbaubaren Komponenten biologischen Ursprungs wie zum Beispiel Kartoffel-Stärke (so genannte „Blends“).

Die Kompostierbarkeit von Verpackungen bzw. von Kunststoffen wird in Europa durch die Norm EN 13432 bzw. DIN EN 14995 definiert. Nicht alle biologisch abbaubaren Stoffe sind auch kompostierbar. Umgekehrt sind nicht alle kompostierbaren Stoffe unter allen Umständen biologisch abbaubar. In großtechnischen Kompostierungsanlagen läuft die Rotte unter streng kontrollierten Bedingungen wie zum Beispiel einer bestimmten Feuchte und einer Mindesttemperatur von 60 Grad Celsius ab. Wo solche Bedingungen in der freien Natur nicht gegeben sind, kann die Zersetzung kompostierbarer Kunststoffe Jahre beanspruchen. Auch so genannte „Grünabfälle“, wie Holz und andere Gartenabfälle zersetzen sich sehr langsam, wenn sie nicht den für den Abbau geeigneten Bedingungen eines Komposters unterliegen.

Kompostierbare Plastiktüten sind also nicht geeignet, dem so genannten Littering-Problem, dem achtlosen Wegwerfen von Verpackungen aller Art in die Landschaft beizukommen. Sie können sogar zum Glauben verleiten, die Natur werde mit diesen weggeworfenen kompostierbaren Tüten schon alleine fertig, und damit das Littering-Problem noch verschärfen.

Der Anteil aller Biokunststoffe am gesamten Kunststoffmarkt war im Jahre 2005 noch sehr gering. Er betrug in Europa gerade einmal 50.000 Tonnen von einem Gesamtverbrauch von fast 50 Millionen Tonnen Kunststoff, d. h. etwa ein Prozent. Einige EU-Länder versuchen, den Anteil der Biokunststoffe durch staatliche Eingriffe in den Markt zu steigern. Oft geht es dabei aber nur vordergründig um die Belange des Umweltschutzes oder der Ressourcenschonung. Denn wie das Beispiel des Littering kompostierbarer Plastikbeutel zeigt, sind Biokunststoffe nicht grundsätzlich umweltfreundlicher als herkömmliche Polymere.

Deshalb geriet der Versuch der französischen Regierung, per Dekret die Ausgabe nicht biologisch abbaubarer Kunststoff-Tragetaschen an den Kassen von Supermärkten zu verbieten, unter den Verdacht, in Wirklichkeit auf die Förderung französischer Agrarinteressen und auf die Abschottung französischer Märkte abzuzielen. Der Entwurf des französischen Dekrets bezieht sich lediglich auf einen bestimmten Typ von Plastiktüten, deren Gesamtmenge von jährlich 85.000 Tonnen gerade einmal 0,3 Prozent der französischen Haushaltsabfälle ausmacht. Würde zu deren Produktion jedoch Kartoffelstärke eingesetzt, könnte der Absatz von Stärkekartoffeln in Frankreich um 50 Prozent gesteigert werden. Das zeigt, dass die französische Regierung mit ihrem Dekretentwurf nicht Abfallprobleme, sondern die Agrarförderung im Auge hatte.

PlasticsEurope, die Vertretung der europäischen Kunststoffhersteller, hat im Oktober 2006 und noch einmal im Mai 2007 in einem Schreiben an die EU-Generaldirektion Unternehmen und Industrie formell gegen den französischen Vorstoß Beschwerde eingelegt. Selbst die französische Umwelt- und Energieeffizienzbehörde ADEME warnte in der Auswertung einer 2004 für die Supermarktkette „Carrefour“ erstellten vergleichenden Produkt-Lebensweg-Analyse davor, den Einsatz biologisch abbaubarer Kunststoffe für Tragetaschen als per se umweltschonend hinzustellen. Die energetische Verwertung, d.h. die kontrollierte Verbrennung von Kunststoffabfällen in Abfallverbrennungsanlagen mit moderner Filtertechnik schneidet in Lebenszyklusanalysen oft besser ab als die Kompostierung. In Deutschland hat dies eine umfassende Ökobilanz des BIfA, Bayerisches Institut für Angewandte Umweltforschung in Augsburg, über die Verwertungsmöglichkeiten kompostierbarer Verpackungschips bestätigt. Die Untersuchung wurde nach den anerkannten Regeln gemäß der Norm ISO 14040 ff. durchgeführt und bereits im Jahr 2000 fertig gestellt.

Somit ist es nicht sinnvoll, Werkstoffen eine bestimmte Rohstoffbasis oder einen konkreten Entsorgungsweg vorzuschreiben. Kriterien für die Auswahl der Rohstoffe können nur die Anforderungen sein, die verschiedene Märkte an Kunststoff-Artikel stellen. Bei den Verpackungen, dem größten Absatzmarkt der Kunststoffindustrie, sind das auf Seiten der Verbraucher die Nachfrage nach preiswerten, sicheren und bequemen, d. h. leichten, wieder verschließbaren und praktisch portionierbaren Verpackungen. Auf Seiten des Handels stehen mehr deren Lager- und Logistikfähigkeit sowie Diebstahlsicherung im Vordergrund. Bei den Abfüllern wiederum geht es eher um Eigenschaften wie Maschinengängigkeit und Normengerechtigkeit. Der Staat schließlich interessiert sich für die Konformität der Verpackungen mit dem Lebensmittel-, Eich- und Abfallrecht.

Weil Verpackungen aus synthetischen Kunststoffen diesen Kriterien oft am besten entsprechen, konnten sie ihren Marktanteil in den vergangenen Jahrzehnten in einem harten Wettbewerb zu Lasten von Verpackungen aus klassischen Werkstoffen wie Papier, Karton oder Holz stark ausweiten. Auch Produkte aus nachwachsenden Rohstoffen müssen sich diesem harten Wettbewerb stellen, um synthetische Kunststoffe zu verdrängen. Industrie- oder klimapolitisch motivierte Strategien zur Ausweitung des Marktanteils nachwachsender Rohstoffe sollten eher darauf abzielen, unterschiedlichen Verbrauchergruppen Produkte mit neuen Eigenschaften anzubieten oder einen Zusatznutzen zu vermitteln. Es gibt etliche Beispiele, die zeigen, dass sich Produkte aus bioabbaubaren Kunststoffen und/oder nachwachsenden Rohstoffen auf dem Markt gegenüber Standard-Kunststoffen aufgrund besserer Gebrauchseigenschaften wie z.B. der Abbaubarkeit bei bestimmten Medizinprodukten, der gesteuerten Wasserdampfdurchlässigkeit bei Verpackungen für frische Lebensmittel oder durch gutes Kosten-Leistungs-Verhältnis bei Naturfaserverbunden im Fahrzeugbau, sowie bei bioabbaubaren Mulchfolien in der Landwirtschaft durchsetzen. Besonderer Marktanreize bedarf es hierfür nicht. Vielmehr schaffen gleiche Wettbewerbsbedingungen die Voraussetzung für innovative Produktentwicklungen.

Nach einer Studie der Universität Utrecht und der Fraunhofer Gesellschaft aus dem Jahre 2004 könnte theoretisch etwa ein Drittel des europäischen Kunststoffbedarfs (über 15 Millionen Tonnen) durch Materialien aus Biomasse ersetzt werden. Dafür würden etwa 5 Millionen Hektar Land oder 2 bis 3 Prozent der Gesamt-Anbaufläche benötigt. Das wäre ohne weiteres machbar. Allerdings könnte es zu Konflikten um die Landnutzung kommen, sollte die Europäische Union ihre Pläne umsetzen, bis zum Jahre 2020 zwanzig Prozent der Treibstoffe durch Biosprit zu ersetzen. Denn dafür bräuchte man – je nach der angewandten Technologie – 30 bis 60 Millionen Hektar Land, d.h. bis zu einem Drittel der verfügbaren landwirtschaftlichen Nutzfläche. Dabei käme es zu einem Verdrängungswettbewerb. Eine breite Diskussion um die konkurrierende Nutzung der Agrarfläche für die Herstellung von Lebensmitteln, von Viehfutter oder von Rohstoffen steht aber noch aus.

Die Nutzung von Biomasse ist dennoch eine Chance, die der Industrie zur Verfügung stehende Rohstoffbasis zu verbreitern und gleichzeitig neue Geschäftsfelder zu erschließen. Denn prinzipiell kann jede Kohlenstoffquelle als Rohstoff für die Kunststoffproduktion eingesetzt werden. Wie sinnvoll aber die Ausweitung des Einsatzes nachwachsender Rohstoffe für die Herstellung von Werkstoffen mit neuen nützlichen Eigenschaften auch sein mag, für die Verminderung unserer Abhängigkeit von begrenzten Rohöl-Vorräten ist sie nicht geeignet. Denn auf die Kunststoffproduktion entfallen nur etwa 4 Prozent des gesamten europäischen Öl- und Gasverbrauchs. Bei ihrem Einsatz als Leichtbauteile, Dämmstoffe usw. ermöglichen es Kunststoffe jedoch, ein Vielfaches dieser Ölmenge beim Produktgebrauch einzusparen. Und nach dem Gebrauch steht uns die in ihnen gebundene Ölmenge nach wie vor zur energetischen Verwertung zur Verfügung. Die werkstoffliche Wiederverwertung von Kunststoffen ist demgegenüber nicht immer von Vorteil.

(erschienen in: SwissPlastics 8/2007)

Streit um die Bewertung von Rückständen der Abfallverbrennung

Edgar Gärtner und Andreas Oberholz*)

Das Wirtschaftswunder der Nachkriegszeit des 20. Jahrhunderts führte zu einer bedrohlichen Anhäufung von Rückständen von Produktion und Konsum. Allein in der alten (westdeutschen) Bundesrepublik entstanden schätzungsweise 50.000 Kippdeponien, von denen niemand genau wusste, was sie unter einer dünnen Bodenabdeckung mit Ziergrün alles verbargen. Nicht selten kam es in den Kippen zwischen verschiedenen Bestandteilen der abgelagerten Zivilisationsrückstände zu unkontrollierten chemischen Reaktionen und in deren Folge zum Austritt brennbarer Gase und/oder giftiger Abwässer. So erklärte die Bundesregierung im Jahre 1972, ein Jahr nach der Verabschiedung des ersten umfassenden Umweltprogramms, mit dem Gesetz über die Beseitigung von Abfällen die Abfallentsorgung zur öffentlichen Aufgabe.

Die mit diesem Gesetz eingeführte völlige Trennung zwischen öffentlicher Abfallbeseitigung und Marktwirtschaft ließ sich in der Praxis aber nicht lange aufrecht erhalten. 1986 wurde das Gesetz von 1972 novelliert – und zwar mit dem Ziel, statt nach dem Motto „Vergraben und Vergessen“ zu verfahren, eine Abfallwirtschaft aufzubauen, die dem Grundsatz des Vorrangs der Vermeidung und Verwertung vor der Beseitigung von Abfällen folgt. Weitere zwölf Jahre später wurde dann mithilfe des heute noch gültigen Kreislaufwirtschafts- und Abfallgesetzes (KrW-/AbfG) vom 27. September 1994 versucht, die Abfallwirtschaft konsequent auf das Ziel auszurichten, Stoffkreisläufe zu schließen. Gleichzeitig wurde dadurch, entsprechend der Abfallrahmenrichtlinie der EU, die Abfallwirtschaft gegenüber dem europäischen Binnenmarkt geöffnet.

Die ebenfalls 1994 erlassene Technische Anleitung Siedlungsabfall (TASi) verbietet die Deponierung unbehandelter Abfälle seit Juni 2005. Dadurch wurde die Abfallverbrennung zum Standardverfahren der Beseitigung von Hausmüll mit den Nebenzwecken der energetischen Nutzung der Verbrennungswärme und der stofflichen Verwertung der dabei anfallenden Rückstände. Mechanisch-biologische Anlagen (MBA), die in Deutschland eine Zeit lang, wegen der Verteufelung von Hausmüllverbrennungsanlagen (HMVA) als „Dioxinschleudern“, hoch im Kurs standen, wurden dadurch zur Nischenlösung herabgestuft. Die erste rot-grüne Bundesregierung setzte sich das ehrgeizige Ziel, bis zum Jahre 2020 eine vollständige stoffliche und energetische Verwertung aller Siedlungsabfälle zu erreichen. Alle Hausmülldeponien sollen bis dahin geschlossen werden.

Deponien für mineralische Abfälle wird es aber weiterhin geben. Die jährlich in Deutschland anfallenden 220 Millionen Tonnen Baureststoffe und andere mineralische Abfälle stellen den mit Abstand bedeutendsten Abfallstrom dar. Infolge der Umsetzung der TASi wird dieser Strom weiter anschwellen. Schon im Jahre 2002 fielen in den damals betriebenen 60 deutschen HMVA insgesamt 3,14 Millionen Tonnen Rohschlacke an. Nach der Entschrottung blieben davon 2,9 Millionen Tonnen übrig. Diese wurden zu etwa 70 Prozent als Verfüllmaterial oder im Straßen- und Dammbau verwendet. Der Rest ging in den Bergversatz oder auf Deponien.

Der Vorrang der Verwertung vor der Beseitigung von Abfällen bringt es mit sich, dass Stoffe unter bestimmten Voraussetzungen umdeklariert, d.h. wieder aus ihrer Eigenschaft als Abfall zur Beseitigung entlassen werden müssen, um auf dem freien Markt als verwertbare Reststoffe gehandelt werden zu können. Das ist bei HMVA-Rückständen aber problematisch, da es sich dabei sozusagen um Abfall vom Abfall handelt: Ein chemisch zunächst instabiles Vielstoff-Gemisch wechselnder Zusammensetzung, das Böden und Grundwasser bedenklich mit giftigen Schwermetallen und anderen Schadstoffen belasten könnte, würde es ohne Vorbehandlung im Damm- oder Straßenbau eingesetzt.

Rein theoretisch wäre es heute zwar möglich, die Abfallverbrennung so zu gestalten, dass alle Wertstoffe (vor allem Metalle, Gips, Calciumsalze und Salzsäure) als Produkte vermarktet werden und am Ende neben Filterasche nur völlig steriles und chemisch inertes Glas als Rückstand übrig bliebe. Die Verglasung von Abfällen, wie sie heute in Japan üblich ist, kostet aber zusätzliche Energie und widerspräche somit dem im Gesetz festgeschriebenen Ziel der energetischen Verwertung.

Entscheiden sich kommunale oder private HVA-Betreiber jedoch für den Weg der thermischen Abfallbehandlung, der den gesetzlichen Anforderungen entspricht, handeln sie sich aber neue Zielkonflikte ein. Nach § 1 des KrW-/AbfG gilt es, die Förderung der Kreislaufwirtschaft zur Schonung der natürlichen Ressourcen mit der Sicherung der umweltverträglichen Beseitigung von Abfällen zu verbinden. Gerade bei den mineralischen Abfällen geht aber das eine allzu oft nur auf Kosten des anderen. Alte Hasen des Umweltschutzes erinnern sich noch an den Kieselrot-Skandal, der daher rührte, dass Schlacke (Kieselrot) der Marsberger Kupfer-Hütte (Kieselrot) Jahrzehnte lang in großem Maßstab als Graswuchs hemmende Deckschicht von Sportplätzen verwendet wurde – bis Chemiker nachweisen konnten, dass darin Dioxine enthalten waren.

Andererseits gäbe es überhaupt keine Verwertungsmöglichkeit für die den gesetzlichen Regeln entsprechenden Verbrennungsrückstände, wenn der Vorsorgegrundsatz als Forderung nach der Null-Emission potentiell gefährlicher Stoffe ausgelegt würde. Deshalb erhielt die Länderarbeitsgemeinschaft Abfall (LAGA) schon zu Beginn der 90er Jahre von der Umweltministerkonferenz den Auftrag, einheitliche Kriterien für eine ökologisch vertretbare Verwertung solcher Abfälle (überwiegend Bauschutt) zu erarbeiten. So entstand die LAGA-Mitteilung 20 („Anforderungen an die stoffliche Verwertung von mineralischen Abfällen – Technische Regeln“) von 1997. Sie wurde bis 2004 von den meisten Fachleuten als Grundlage für eine bundesweite Harmonisierung des Verwaltungsvollzugs anerkannt, auch wenn einzelne Bundesländer (insbesondere solche ohne eigene Abfallverbrennungskapazitäten) die Verwertung HMVA-Schlacke weiterhin nicht zuließen. Sie verfügten auch gar nicht über geeignetes Genehmigungs- und Aufsichtspersonal.

In der Praxis bereiten übrigens an sich harmlose Bestandteile der Schlacke wie vor allem Sulfate oder Aluminium erheblich mehr Probleme als Schwermetalle oder andere giftige Stoffe. Wird Schlacke mit einem hohen Gehalt an Anhydrit (CaSO4) zu früh als Bau- oder Füllmaterial eingesetzt, kommt es zu Schäden durch Aufblähungen (Sulfattreiben) infolge der Umwandlung des Anhydrits in Gips und Ettringit (Ca6Al2[(OH)/SO4]3. Um das zu verhindern, muss die Schlacke nach der LAGA M 20 vor ihrem Einsatz mehrere Tage zur Entwässerung vorgelagert und nach der Aufbereitung mindestens drei Monate lang zwischengelagert werden. In dieser Zeit wandelt sich Portlandit (Ca(OH)2) unter Zutritt von CO2 aus der Luft größtenteils in Calcit (CaCO3) um. Dabei werden Schwermetalle zum Teil in das Gitter der Calcitkristalle eingebunden. Deshalb zeigen dann Eluat-Tests überwiegend niedrigere Schwermetallwerte an. Auf der Basis dieser Tests wird entschieden, ob das Material überhaupt im Straßenbau verwendet werden darf oder ob es deponiert werden muss.

Deponierungsgegner wie etwa Günter Dehoust vom Darmstädter Öko-Institut bezweifeln jedoch die prognostische Aussagefähigkeit gängiger Eluat-Tests wie des S4-Elutionsverfahrens (DIN 385414-S4). Etliche Untersuchungen zeigten, dass die Carbonate nach und nach aus der verbauten Schlacke ausgewaschen werden und eingeschlossene Schwermetalle bei pH-Werten unter 5 wieder in Lösung gehen. „Es ist davon auszugehen, dass längerfristig nahezu alle in einem Damm oder einer Deponie enthaltenen Schadstoffe ausgetragen werden“, betont Dehoust und verweist auf Langzeituntersuchungen, die vom Schweizer Bundesamt für Umwelt, Wald und Landwirtschaft (BUWAL) schon vor über 15 Jahren abgeschlossen wurden.

Das deutsche Bundesbodenschutzgesetz (BBodSchG) von 1998 führte deshalb viel strengere Vorsorgewerte ein als die LAGA M 20. Da es nicht gelang, diese Technische Richtlinie rasch und mit vertretbarem Aufwand an das BBodSchG anzupassen, löste sich die LAGA AG „Mineralische Abfälle“ im März 2004 auf, um den Weg frei zu machen für die Erarbeitung einer bundeseinheitlichen ordnungsrechtlichen Regelung. Im November 2004 empfahl die Umweltministerkonferenz, die bis dahin erarbeitete Technische Richtlinie Boden in den Vollzug zu übernehmen. Doch die Wirtschaftsministerkonferenz legte einen Monat später Widerspruch dagegen ein. HMVA-Betreiber mit einem starken Verwertungsinteresse fuhren jedoch z. T. fort, sich mit Zustimmung der jeweils zuständigen Behörde provisorisch an den Richtwerten der LAGA M 20 zu orientieren. Im April 2005 entschied das Bundesverwaltungsgericht im Rechtsstreit um die Verfüllung einer Tongrube jedoch, dass die alte LAGA M 20 nicht der im § 7 des BBodSchG verankerten Vorsorgepflicht genügt.

Aufgrund der unterschiedlichen Sichtweisen der jeweiligen für den Grundwasserschutz oder für die Abfallbehandlung zuständigen Länderbehörden kam es in der LAGA zu Konflikten, die sich so weit zuspitzten, dass verschiedene Behördenvertreter überhaupt nicht mehr miteinander redeten. Es bedurfte der persönlichen Initiative Hansjürgen Rheins, des damals am Ende seiner Amtszeit stehenden Leiters der Abteilung Abfallwirtschaft der Hamburger Behörde für Stadtentwicklung und Umwelt, um die in der LAGA entstandene Blockadesituation aufzubrechen. Es gelang ihm schließlich, im Zusammenarbeit mit Partnern aus der Privatwirtschaft die zerstrittenen Behördenvertreter wieder an einen Tisch zu bringen.

Die entstandene Rechtsunsicherheit, die die Existenz einer ganzen Branche in frage stellt, musste in der Tat schleunigst ausgeräumt werden. Wegen ihres starken Eigeninteresses als Besitzerin zweier in Hamburg betriebener Hausmüllverbrennungsanlagen wagte die Vattenfall Europe Waste to Energy GmbH das Experiment, zwischen Januar 2005 und März 2006 unter der Schirmherrschaft der Freien und Hansestadt Hamburg eine Serie von Klausurtagungen zu sponsern. Moderiert von der Ahrensburger Konfliktberatung Jakubowski, diskutierten Fachleute aus Wirtschaft, Wissenschaft, Umweltverwaltung und Politik mit unterschiedlichen Interessen und Blickwinkeln im Schloss Tremsbüttel (Schleswig-Holstein) über mögliche Wege, aus der Blockadesituation heraus zu kommen. Noch vor dem Abschluss des Tremsbütteler Dialogs organisierte das daran ebenfalls beteiligte Bundesumweltministerium (BMU) im Februar 2006 einen eigenen Workshop mit über 200 Teilnehmern aus Wirtschaft, Wissenschaft und Verwaltung zum gleichen Thema.

Die Teilnehmer beider Veranstaltungen sprachen sich mit großer Mehrheit für eine bundeseinheitliche Regelung (teilweise auf der Basis aktualisierter Eckpunkte der LAGA M 20) aus und sahen darin sogar eine Form von Deregulierung. Betroffene Unternehmer wie Thomas Buhck, der Geschäftsführer der norddeutschen Buhck-Gruppe, hatten ihnen klar gemacht, dass ihnen die bundesweite Einheitlichkeit von Grenzwerten wichtiger ist als deren Höhe. „Wenn Sie heute einen mineralischen Reststoff wie zum Beispiel HMVA-Schlacke verkaufen, erzielen Sie damit vielleicht 2 bis 3 € je Tonne am Markt. Wenn Sie den gleichen Reststoff in eine Verfüllung bringen, dann bezahlen Sie dafür 5 bis 10 €. Und wenn Sie ihn in eine Deponie bringen, dann sind Sie 20 bis 25 € je Tonne ärmer. Wir müssen also zwischen volkswirtschaftlichen und möglichen ökologischen Schäden abwägen“, erklärte Buhck.

Dr. Heiner Zwahr, der damalige Geschäftsführer der Hamburger MVR Müllverwertung Rugenberger Damm GmbH & Co. KG, bestätigte, dass HMVA-Schlacke in Hamburg durchaus einen positiven Marktwert hat. Abnehmer sei neben dem Hafenbau, wo das Material als ungebundene Tragschicht verwendet wird, zum Teil auch der Straßenbau. Es gebe aber einen starken Wettbewerb mit Naturstoffen (z.B. mit Granit aus Schottland, der günstig mit Schiffen geliefert werden kann) und auch mit anderen Recyclingprodukten. Eine Verdrängung herkömmlicher Rohstoffe bei höherwertigen Anwendungen wie die Beton- und Asphaltherstellung sei erwünscht, aber nicht immer machbar. Bei der Betonherstellung störe der Aluminiumgehalt der Schlacke, der bei Wasserzutritt zur Bildung von Aluminaten und Wasserstoff führen kann. Bei der Verwendung von HMVA-Schlacke in der Asphaltherstellung hingegen könnten zwar ohne übermäßigen Aufwand die Vorsorgewerte der BBodSchV eingehalten werden. Doch führe die starke Porosität der Schlacke zu einem überhöhten Bitumenverbrauch. Das mache diesen interessanten Anwendungsbereich wirtschaftlich fraglich.

Günter Dehoust hält ein höherwertiges Recycling mineralischer Abfälle ohnehin nur in Ausnahmefällen für möglich. Dennoch sei es sinnvoll, die Verwertung von HMVA-Schlacken zu fördern, um die Position der HMVA im Konkurrenzkampf mit Zementwerken zu stärken. Dort werden zur Zeit etwa 16 Prozent der Siedlungsabfälle mitverbrannt. Die Abfallbehandlung in HMVA sei demgegenüber ökologisch vorteilhaft, weil sie die Möglichkeit bietet, gefährliche Schadstoffe durch Bergversatz bzw. Untertage-Deponierung von Filterasche und hoch belasteten Schlacke-Fraktionen ganz aus dem Wirtschaftskreislauf zu schleusen. Deshalb sei eine Bundesverordnung mit einheitlichen Grenzwerten notwendig und sinnvoll.

Nach Aussage des Leiters des BMU-Referats „Produktionsabfälle“, Ministerialrat Rüdiger Wagner, stellt sich das BMU dieser Aufgabe. Nach Abstimmungsgesprächen im Herbst 2006 werde 2007 das förmliche Rechtssetzungsverfahren eingeleitet. Es werde voraussichtlich zwei Verordnungen geben: Eine für bodenähnliche Verwendungen (Verfüllungen) von mineralischen Abfällen im Rahmen der BBodSchV und eine für die technische Verwendung von mineralischen Reststoffen im Straßen- und Landschaftsbau nach § 7 KrW/AbfG. Diskussionsbedarf gebe es noch bei der Definition der Schnittstellen sowie über den Wert des S4-Elutionsverfahrens und dessen eventuell notwendige Ergänzung durch aussagekräftigere Säulenversuche.

Das Landesumweltamt (LUA) von Nordrhein-Westfalen, das wegen des traditionell hohen Aufkommens von mineralischen Abfällen aus dem Bergbau, der Stahlindustrie und aus Kraftwerken über die größten Erfahrungen mit der Analyse der darin enthaltenen Schadstoffe verfügt, führt im Auftrag des Umweltbundesamtes (UBA) das Forschungsvorhaben „Sickerwasserprognose“ im Rahmen eines vom Bundesministerium für Bildung und Forschung (BMBF) koordinierten Verbundes durch. Auf der Basis der Ergebnisse dieser Forschungen wird das LUA dem BMU demnächst Grenzwerte für verschiedene Schadstoffe vorschlagen. Erst dann, so Dr. Axel Kopp vom BMU, werden Verordnungsentwürfe in Angriff genommen.

Diese Entwicklung zeigt, dass sich die Initiative des inzwischen pensionierten Hans-Jürgen Rhein und der Konfliktberatung Jakubowski in jeder Hinsicht gelohnt hat. Sie hat die sprachlosen Vertreter verschiedener Länder- und Bundesbehörden aus ihren Bunkern herausgelockt und dem Bundesumweltministerium Rückenwind für seinen Versuch einer bundesweiten Vereinheitlichung der gesetzlichen Vorgaben für die sinnvolle Verwertung mineralischer Reststoffe gegeben. Somit scheint der Weg frei für die Regulierung des mit Abstand größten Abfallstroms nach den gleichen Prinzipien, die seit Beginn der 90er Jahre in Form der Verpackungsverordnung erstmals an einem der kleineren Abfallströme erprobt wurden. Somit würde in Deutschland mit den beiden ausstehenden Verordnungen der Schlussstein einer ökologisch begründeten Abfallpolitik gesetzt.

*) Fachjournalisten

Bürgerfreundliche Abfallverwertung statt Müllkartell

Bürgerfreundliche Abfallverwertung statt Müllkartell

Von Edgar Gärtner

Dem Bundeskartellamt ist das Monopol der Duales System Deutschland AG (DSD) und der mit ihm über Leistungsverträge verflochtenen Mitgliedsfirmen des Bundesverbandes der Deutschen Entsorgungswirtschaft (BDE) seit längerem ein Dorn im Auge. Nach der Auswertung einer Ende 2001 angeordneten Durchsuchung der Geschäftsräume von DSD und BDE sowie einiger Spitzenverbände des Handels hat das Bundeskartellamt nun gegen das DSD und Entsorgungsunternehmen wie RWE Umwelt (Ex-Trienekens) ein zweites Verfahren wegen „Verstoß gegen das kartellrechtliche Boykottverbot“ eingeleitet.

Nach Aussage von Kartellamtspräsident Ulf Böge hat die großangelegte Durchsuchungsaktion den Verdacht erhärtet, dass die genannten Verbände die für die Entsorgung zuständigen Gebietskörperschaften dazu aufgerufen haben, die Mainzer Firma Landbell zu boykottieren. Landbell versucht seit drei Jahren, ein konkurrierendes System zum Grünen Punkt des DSD aufzubauen. DSD-Chef Wolfram Brück habe die Entsorgungsunternehmen schriftlich aufgefordert, nicht mit Landbell zusammenzuarbeiten.

Nach Auskunft des Online-Nachrichtendienstes www.ne-na.de versuchte die vom DSD beauftragte Stuttgarter Anwaltskanzlei Gleiss, Lutz, Hootz und Hirsch den Entsorgungsverband Saar (EVS) und das saarländische Umweltministerium von einer Zusammenarbeit mit Landbell abzubringen, indem sie behauptet, diese stehe der Abstimmungserklärung mit dem DSD entgegen. Dem entsprechend beschieden die EVS-Geschäftsführer das Angebot des Landbell-Geschäftsführers Wolfgang Schertz mit folgender Absage, die an Deutlichkeit kaum zu wünschen übrig lässt: „Abgesehen davon, dass es der EVS gewohnt ist, von ihm abgeschlossene Verträge korrekt einzuhalten, besteht auch unsererseits kein wirtschaftliches Interesse daran, der DSD AG in Köln irgendeinen Vorwand zu liefern, diesen Leistungsvertrag vorzeitig zu kündigen.“

Nur Pech für das Müllkartell, dass die EU-Kommission letztes Jahr entschieden hat, dass Wettbewerber die Infrastruktur des Grünen Punktes, ähnlich wie Wettbewerber auf dem Strom- oder Telekommunikationsmarkt, mitbenutzen dürfen. Nun drohen den aktiv am Boykott von Landbell und anderen Wettbewerbern beteiligten Strafen von bis zu 500.000 Euro.

Inzwischen mehren sich auch von Seiten der Wissenschaft die Stimmen, die eine Abkehr vom Dogma der Hausmülltrennung und der damit verbundenen privilegierten Stellung des DSD sowie der von ihm auf Gedeih und Verderb abhängigen privaten Müllsammler und –verwerter fordern. So wies etwa Prof. Ernst Ulrich von Weizsäcker, der frühere Präsident des Wuppertal Instituts für Klima-Umwelt-Energie, der nun für die SPD im Bundestag sitzt, zwei Tage nach der Bundestagswahl auf einer Tagung in Wetzlar auf die blamable Ökobilanz des Grünen Punktes hin: „Den Verbrauchern sollte endlich reiner Wein eingeschenkt werden. Das DSD tut so, als sei der Grüne Punkt ein wichtiger Beitrag für den Umweltschutz. Dem ist aber nicht so. Und zudem ist das DSD viel zu teuer.“

Martin Kaimer von der Akademie für Technikfolgenabschätzung in Baden-Württemberg rechnete in Wetzlar vor: „Durch das Recycling von Leichtverpackungen wurden nach Angaben des Grünen Punktes im vergangenen Jahr 400.000 Tonnen Kohlendioxid eingespart. Das entspricht 128 Millionen Litern Heizöl. Doch diese Einsparung kostete umgerechnet über 14 Euro pro Liter. Das ist etwa das 21-fache des derzeitigen Dieselpreises!“

Kein Wunder, dass das Bundesumweltministerium (BMU) sich angesichts dieser Bilanz inzwischen mit der lange Zeit verteufelten Müllverbrennung angefreundet hat. „Als mein Dienstherr Bundesumweltminister Jürgen Trittin sein Amt antrat, gehörte er wie die meisten Grünen zu den Gegnern der Abfallverbrennung. Heute hat er mit Müllverbrennungsanlagen keine Probleme mehr, sofern diese die geltenden strengen Abluft-Grenzwerte einhalten. Denn er weiß, dass bei der Verbrennung höchstens halb so viel Treibhausgase freigesetzt werden wie bei der Deponierung von Abfällen.“ So resümiert Dr. Helmut Schnurer, Leiter der Unterabteilung Abfallwirtschaft im BMU, den Lernprozess der letzten Jahre.

Aus Kostengründen setzt das BMU dabei verstärkt auf das bislang umstrittene Trockenstabilatverfahren der hessischen Firma Herhof. Dieses Verfahren nutzt die bei der siebentägigen Verrottung von unsortiertem feuchten Hausmüll in geschlossenen Rotteboxen entstehende Wärme zu dessen Trocknung. Der trockene Abfall lässt sich in vollautomatischen Sortieranlagen leicht von Störstoffen wie Batterien, Metallteilen, Glas, Keramik, Steinen und Sand befreien. Diese können energiesparend und gewinnbringend verwertet werden. Das gilt vor allem für energieaufwändig gewonnene Nichteisen-Metalle wie Aluminium, Kupfer usw. Das übrig bleibende organische Material (Trockenstabilat) eignet sich wegen seines hohen Brennwertes als Ersatzbrennstoff in Zementwerken und Papierfabriken oder als Rohstoff für die Methanerzeugung.

In einer mit Diethard Schade an der Stuttgarter Technikfolgen-Akademie erstellten Studie hat Martin Kaimer festgestellt, dass die Normalbürger mit dem derzeitigen Mülltrennsystem mithilfe von vier oder fünf verschiedenen Tonnen überfordert sind. In den Gelben Tonnen finden sich bis zu 50 Prozent Gegenstände, die dort nicht hineingehören. Umgekehrt findet sich in den Grauen Restmülltonnen ein vergleichbarer Prozentsatz von ausgedienten Verpackungen mit dem Grünen Punkt. Um die im Hausmüll enthaltenen Wertstoffe nutzen zu können, ist meist eine aufwändige Nachsortierung nötig.

Aufgrund der Erfahrungen mit der automatischen Mülltrennung in den Trockenstabilatanlagen von Aßlar im hessischen Lahn-Dill-Kreis, Rennerod im Westerwald und Dresden schlägt Kaimer deshalb vor, in Zukunft (wie vor dem Aufbau des DSD) nur noch Papier, Karton, Glasflaschen und Textilien sowie größere Kunststoffbehälter, deren werkstoffliche Verwertung sich rechnet, getrennt zu sammeln. Alles andere (auch die stinkenden Bioabfälle) soll mit möglichst hohem Nutzungsgrad verbrannt werden. Helmut Schnurer vom BMU hat dafür sogar eine Förderung nach dem Erneuerbare-Energie-Gesetz (EEG) in Aussicht gestellt.

(erschienen 2002 in: Chemische Rundschau)