Ist CO2 wirklich ein Problem?

Es ist nicht möglich, experimentell und statistisch nachzuweisen, dass der Anstieg des CO2-Gehaltes der Luft die Hauptursache der im 20. Jahrhundert registrierten leichten Erhöhung der globalen Durschnittstemperatur ist. Anfang der 40er Jahre wurden in Deutschland schon einmal höhere CO2-Konzentrationen gemessen als heute. Zwei Naturwissenschaftler demonstrieren, dass das keine Ausreißer waren.

Ist CO2 wirklich ein Problem? von Edgar L. Gärtner

Der CO2-Gehalt der Luft war auch früher keineswegs konstant

Nach dem APEC-Wirtschaftsforum in Singapur rechnet kaum noch jemand mit der Verabschiedung eines Kyoto-Nachfolge-Abkommens auf dem UN-Klima-Gipfel in Kopenhagen. Die EU-Regierungen, die sich in Sachen „Klimaschutz“ weit aus dem Fenster gelehnt haben, fürchten eine Blamage und mobilisieren nun ihr letztes Aufgebot, um noch ihr Gesicht wahren zu können. So hat Angela Merkel angekündigt, nun doch nach Kopenhagen fahren zu wollen – komme, was wolle. Aber das absehbare Scheitern der Mammut-Konferenz gilt beileibe nicht überall als schlechte Nachricht. Es gibt Wissenschaftler, die die Ansicht des von der UN eingesetzten „Weltklimarates“ IPCC, die Menschheit müsse einen weiteren Anstieg der Konzentration des Spurengases Kohlenstoffdioxid in der Luft um beinahe jeden Preis stoppen, nicht teilen.

Der IPCC stützt seine Warnung vor einer Überhitzung unseres Planeten auf kontinuierliche photoakkustische CO2-Messungen auf dem Hawaii-Vulkan Mauna Loa seit 1958. Dieser Standort wurde gewählt, weil man annahm, dort die von Großstädten und Industrien unbeeinflusste CO2-Hintergrund-Konzentration messen zu können. Allerdings erwies sich auch dieser Archipel nicht als unproblematisch, weil man dort die Ausgasungen des Vulkans aus den Roh-Messwerten herausrechnen musste. Die so erhaltenen CO2-Werte folgen einer stetig ansteigenden Zickzack-Kurve, die dem Wechsel zwischen Sommer und Winter auf der Nordhalbkugel folgt. Al Gore begründet mit dieser Kurve auf seiner rund um den Globus in vielen Schulen verwendeten PowerPoint-DVD die Forderung nach einer drastischen Einschränkung technischer CO2-Emissionen mithilfe des Emissionshandels.

Wie sah diese Kurve aber vor 1958 aus? Der IPCC behauptet, man könne sie vom aktuell erreichten Höchstwert von 388 ppm (parts per million)nach hinten bis ins 19. Jahrhundert verlängern bis zu einem vorindustriellen “Normalwert” von etwa 280 ppm. Dabei geht das Gremium stillschweigend davon aus, dass es vor 1958 nur wenige präzise und repräsentative Messungen des CO2-Gehaltes der Luft gab. In Wirklichkeit gab es schon hundert Jahre vor der Entwicklung elektronischer Messgeräte durchaus präzise chemische Methoden für die Bestimmung des CO2-Gehaltes der Luft. Im Jahre 2007 hat der Freiburger Biologielehrer Ernst Georg Beck unter dem Titel „180 Years accurate CO2-Gasanalysis of Air by Chemical Methods“ im engelischen Magazin “ENERGY & ENVIRONMENT” (Volume 18, No. 2/2007) Zigtausende von älteren CO2-Bestimmungen ausgewertet und gezeigt, dass um 1940 in Mittelhessen (Gießen) höhere CO2-Konzentrationen gemessen wurden als heute.

Sofort kam von etablierten Klimaforschern der Einwand, diese lokalen Messwerte seien wohl nicht repräsentativ für den globalen Trend. Deshalb hat Beck kürzlich auf dem Kongress „Klima 2009“ zusammen mit seinem Luxemburger Kollegen Francis Massen eine Formel vorgestellt, mit deren Hilfe sich aus lokalen CO2-Messwerten die Hintergrundkonzentration zuverlässig errechnen lässt, indem die jeweils vorherrschenden Windgeschwindigkeiten berücksichtigt werden. Die beiden bekamen für ihre Präsentation übrigens den Best Paper Award. Es ist nun klar, dass die älteren CO2-Messungen, sofern die methodisch korrekt gewonnen wurden, keineswegs verworfen werden können. Da diese große Schwankungen anzeigen, ist die von der großen Politik zum Dogma erhobene Vermutung, der steigende CO2-Gehalt der Luft sei hauptverantwortlich für den im vergangenen Jahrhundert gemessenen leichten Anstieg der bodennahen Durchschnitttemperatur über den Landmassen Erde nicht mehr haltbar. (17. November 2009)

Internet:

Der asiatisch-pazifische Anti-Klima-Gipfel

Die Angst vor einem Scheitern des Klimagipfels wächst

Die Klimakanzlerin fährt nach Kopenhagen

Beck & Massen: Berechnung der CO2-Hintergrundkonzentration auf der Grundlage lokaler bodennaher Messungen

========================================================================================

Es gibt keine Alternative zur Anpassung an den Klimawandel

Von Edgar L. Gärtner

Geologen halten das Zwei-Grad-Limit für die Erderwärmung für baren Unsinn

Unsere Enkel und Urenkel, so es denn noch welche geben sollte, werden sicher einmal ungläubig den Kopf schütteln, wenn sie in Geschichtsbüchern lesen, für welche Scheinprobleme und ungelegten Eier ihre Vorfahren mitten in einer der schwersten Wirtschaftskrisen viele Milliarden Papier-Euros oder Dollars locker gemacht haben. Besonders belustigt wären sie wohl, wenn sie erführen, dass eine Weltkonferenz einmal allen Ernstes beschlossen hat, den Anstieg der bodennahen Durchschnittstemperatur über den Kontinenten auf genau zwei Grad Celsius zu begrenzen, indem sie ihr Leben einschränken. Doch gerade dieses Zwei-Grad-Ziel galt bislang in der großen Politik und in der politisch korrekten Privatwirtschaft als felsenfestes Dogma, von dem verschiedenste kostenträchtige Einzelmaßnahmen für den „Klimaschutz“ abgeleitet wurden. Nun haben es drei führende deutsche Geowissenschaftler in einem am 28. Oktober 2009 im Wissenschaftsteil der FAZ erschienen Interview erstmals gewagt, dieses Dogma öffentlich anzuzweifeln.

Es handelt sich um Karin Lochte, die Chefin des Alfred-Wegener-Instituts für Meeresforschung (AWI) in Bremerhaven, Volker Mosbrugger, Direktor des Senckenberg-Forschungsinstituts und Museums in Frankfurt am Main, und Reinhard Hüttl, Direktor des Deutschen Geoforschungszentrums (GFZ) in Potsdam. Als Geologen beziehungsweise Paläontologen wissen diese Wissenschaftler über die längerfristige Entwicklung der Klimate viel besser Bescheid als „Klimaforscher“, die nur mit Computermodellen hantieren. Keiner von den dreien zieht in Zweifel, dass die Konzentration des Atemgases Kohlenstoffdioxid (CO2) in der Luft einen beträchtlichen Einfluss auf die Entwicklung der Durchschnittstemperatur unseres Planeten hat. Sie wissen aber auch, dass es noch eine ganze Reihe weiterer Faktoren gibt, die die Klimaentwicklung beeinflussen. Eine Politik, die sich einseitig auf einen Faktor, das CO2, konzentriert, kann deshalb nicht vorgeben, die Klimaentwicklung in den Griff bekommen zu können. Die Menschen haben also keine andere Wahl, als sich dem Klimawandel, der auch ohne ihr Zutun abläuft, irgendwie anzupassen. Mosbrugger drückt das so aus: „Ich glaube, es wird wie immer in der Evolution Gewinner und Verlierer geben (…) und wer sich am besten adaptiert, ist langfristig Gewinner. Jetzt ausschließlich auf Emissionsreduktion zu setzen, ist unklug.“

Allerdings irrt Mosbrugger meines Erachtens gewaltig, wenn er davon ausgeht, die Anpassung an den Klimawandel erfordere ein globales „Erdsystemmanagement“ und damit auch so etwas wie eine Weltregierung. Denkt er ernsthaft, die Bewegung der viele Milliarden Tonnen schweren Platten der Erdkruste managen zu können? Und um wie viel schwieriger wäre erst ein Management der Klimaentwicklung, in die auch kosmische Faktoren eingreifen? Das wäre schlicht einige Nummern zu groß für uns Menschen und bedürfte geradezu göttlicher Kräfte und Fähigkeiten. In Wirklichkeit erfordert die Anpassung an den Klimawandel überhaupt keine globale Strategie. Man müsste nur den Menschen auf lokaler und regionaler Ebene die Freiheit lassen, selbst zu entscheiden, wie sie mit sehr unterschiedlichen positiven und negativen Folgen des Klimawandels umgehen wollen. Die UNO würde überflüssig. Das ist wohl der tiefere Grund für die Versteifung des „Weltklimarates“ IPCC und anderer UN-Gremien auf „Mitigation“ und die Vernachlässigung der „Adaptation“.

Internet:

FAZ: Ein Limit von zwei Grad Erderwärmung ist praktisch Unsinn

================================================================================

Die Sonne birgt noch etliche Überraschungen

Im Juli 2009 brachte die New York Times einen interessanten Überblick über den Stand der wissenschaftlichen Debatte über den Zusammenhang zwischen den Sonnenfleckenzyklen und der Entwicklung des irdischen Klimas. Führende Solarforscher geben zu, dass sie von einem Verständnis der Ursachen zyklischer Schwankungen des solaren Magnetfeldes noch weit entfernt sind. Zurzeit schließen einige Forscher nicht aus, dass die gegenwärtige unerwartet lange Ruhephase der Sonne auf der Erde zu einer Zunahme niedrig hängender Wolken und in deren Folge zu einem spürbaren Rückgang der globalen Durchschnittstemeperatur führt, die mit dem Dalton-Minimum in der ersten Hälfte des 19. Jahrhunderts vergleichbar ist. (21. Juli 2009)

=======================================================================

In einem peer-reviewed Artikel unter dem Titel „Falsification Of The Atmospheric CO2 Greenhouse Effects Within The Frame Of Physics“, in: International Journal of Modern Physics B, Vol. 23, No. 3 (30 January 2009), pp. 275-364 (World Scientific Publishing Co.) weisen die Mathematischen Physiker Gerhard Gerlich (TU Braunschweig) und Ralf D. Tscheuschner (Hamburg) nach, dass die „offizielle“ Treibhaustheorie zur Erklärung des Klimawandels „außerhalb jeglicher Wissenschaft“ liegt. (17. März 2009)

====================================================================

Politische Manipulation der Klimaforschung: Prof. Richard Lindzen vom MIT nennt Ross und Reiter

Der bekannte Atmosphärenphysiker Prof. Richard Lindzen vom Massachusetts Institute of technology (MIT) deckt in einem auf einem Vortrag beruhenden Artikel im Detail auf, wer für die politische Manipulation der Klimaforschung verantwortlich ist.

===========================================================

Inzwischen warnte auch FOCUS-online seine Leser vor einer uns möglicherweise bevorstehenden Kleinen Eiszeit. Es lässt sich nicht mehr verheimlichen, dass die Aktivität der Sonne in den letzten Jahren auf ein beunruihigendes Niveau abgesunken ist.

=============================================================

DIE WELT berichtet relativ sachlich über die Auseinandersetzungen zwischen meinem Freund Ernst Beck, Biologielehrer in Freiburg, und Prof. Stefan Rahmstorf vom Postdam Institut für Klimafolgenforschung (PIK). Während Ramstorf versucht, seine inquisitorischen Methoden gegenüber „Klimaskeptikern“ zu rechtfertigen, gibt sich Beck gelassen. Die begonnene Abkühlung der Erde werde den „Skeptikern“ gegenüber den Erwärmungshysterikern in den kommenden Jahren ohnehin recht geben.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

NASA sucht noch immer nach Sonnenflecken und verharmlost das Ausbleiben des 24. Sonnenzyklus

Nun haben amerikanische Forscher nachgewiesen, dass Abschwächungen des Sonnenzyklus zu einer Abkühlung des Atlantik und zu sinkender Niederschlagstätigkeit führt. (29. August 2008)

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Nachruf auf einen zu früh verstorbenen freien Mann, der wirklich etwas von Klima verstand von Edgar Gärtner

Heute am 13. August 2008 ist der französische Klimatologe Prof. Marcel Leroux, kaum emeritiert, in einem Marseiller Hospital von uns gegangen. Dass er nach der Entfernung einer Niere im Spätherbst des letzten Jahres auf einmal mit Metastasen zu kämpfen hatte, die in seinem Körper herumkreisten, war mir durchaus bekannt. Ich hatte darüber vor gut einer Woche noch mit seiner zweiten Frau Colette gesprochen. Doch während ich noch dabei war, einen Besuch am Krankenbett vorzubereiten, ereilte mich die Nachricht von seinem plötzlichen Ableben. Noch unter Schock, schreibe ich diese Zeilen.

Ich kannte Marcel noch gar nicht so lange. Vor gut zwei Jahren saß ich unter den Arkaden meiner Ferienresidenz in der Nähe einer anderen südfranzösischen Hafenstadt und las mit großem Interesse sein letztes großes Werk „Global Warming. Myth or Reality? The errings ways of climatology“ (Springer-Verlag, Heidelberg 2005). Dessen Autor war mir bis dahin nur durch Zeitschriften-Veröffentlichungen bekannt. Das Impressum des dicken Buches etwas eingehender studierend stellte ich fest, dass sein mutiger Autor gar nicht so weit von mir hinter der Sainte Victoire, dem Hausberg von Aix en Provence, bekannter als Lieblingsobjekt des genial schlechten Malers Paul Cezanne, lebte. Also: Nichts wie hin! Nach zwei, drei Stunden Plausch über Gott und die Welt waren wir schon Freunde. Wobei man noch wissen muss, dass es bei Marcel keinen Alkohol, sondern nur verdünnten Orangensaft gab.

Marcel war nicht der Typ des geselligen Südfranzosen, der einen nach einigen Gläsern Pastis umarmt. Vielmehr war er Bretone, eher klein von Gestalt, aber zäh und drahtig. Er stammte aus einer Familie, deren Angehörige sich über Jahrhunderte als Fischer oder Seefahrer durchgeschlagen hatten. Denn der dünne, saure Granitboden der Bretagne konnte nicht viele Mäuler füttern. Seinen Vater, der, nun bald 100 Jahre alt, noch immer lebt, hatte es als Offizier der französischen Kriegsmarine nach Tunis verschlagen. Dort wurde Marcel geboren. Neben der französischen Sprache blieb ihm auch das Arabische bis zu seinem Lebensende geläufig. Das half ihm ungemein in seinem Werdegang als Klimaforscher. Denn obwohl von Kindesbeinen an passionierter Skipper, fühlte er sich am wohlsten ganz allein unter dem Sternenzelt der Sahara. Das war für ihn, wie er mir immer wieder versicherte, der Inbegriff von Freiheit.

So war es alles andere als zufällig, dass Marcel bald in der Erforschung des Wetters und der längerfristigen Klimaentwicklung Afrikas seine Lebensaufgabe fand. Denn er musste schon während seines Studiums an der Universität Dakar im Senegal feststellen, dass es über das Klima des schwarzen Kontinents keine brauchbare Synthese gab. Für seine Habilitationsarbeit (Thèse d’Etat) reiste Marcel zehn Jahre lang kreuz und quer durch Afrika, um die in ehemaligen Kolonialverwaltungen unter mehr oder weniger dicken Staubschichten vor sich hin gammelnden alten Wetteraufzeichnungen auszuwerten. Oft bedurfte es seiner ganzen Überredungsgabe beziehungsweise Bakschisch in harter Währung, um an die historischen Daten heranzukommen. Leroux entdeckte dabei, dass das Wettergeschehen im tropischen Afrika stark von atmosphärischen Vorgängen an den Polen beeinflusst wurde. Bis dahin dachten die Wetter- und Klimaforscher, es sei eher umgekehrt. Am Ende seiner entbehrungsreichen, aber auch faszinierenden Fleißarbeit stand ein zweibändiger Atlas der Klimageschichte Afrikas, der von der World Meteorological Organisation in Genf herausgegeben und inzwischen in Form einer CD-ROM neu aufgelegt wurde.

Nach weiteren Jahren an der Universität von Dakar bekam Marcel Leroux schließlich eine ordentliche Professur an der Universität Jean Moulin in Lyon und wurde Direktor des Instituts für Klimatologie, natürliche Risiken und Umwelt. In Lyon spezialisierte sich Leroux auf die Auswertung von Satelliten-Fotos, die bei seiner Arbeit in Afrika leider noch nicht zur Verfügung standen. Er stellte dabei fest, dass als treibende Kräfte des Wettergeschehens weniger Tiefdruckgebiete in Frage kamen, wie die klassische (synoptische) Meterologie annimmt, sondern vielmehr flache Kaltluftlinsen mit hohem Druck, die in der Nähe der Pole entstehen und dann Richtung Äquator ziehen. Die dabei verdrängte wärmere Luft bildet Tiefdruckwirbel, die uns schlechtes Wetter bringen. Leroux taufte die Kaltluftlinsen und die sie begleitenden Tiefdruckwirbel „Mobile Polar High“ (MPH). Er war überzeugt davon, dass diese selbst dem ungeübten Betrachter von Satellitenfotos ins Auge springenden Gebilde unser Verständnis der Wetterabläufe revolutionieren werden.

Aus der langjährigen Beobachtung der Häufigkeit von MPH schloss er, dass die Erdatmosphäre dabei ist, sich allmählich abzukühlen. Für die hysterischen Warnungen vor einer Überhitzung unseres Planeten infolge der Verstärkung eines (nicht messbaren!) „Treibhauseffektes“ durch den Ausstoß von Kohlenstoffdioxid hatte er nur Spott übrig. Damit machte er sich in den Augen der Pariser Bürokraten und der ihnen hörigen Massenmedien zum wissenschaftlichen Außenseiter, was ihn aber nicht weiter störte. Immerhin fand er sich in guter Gesellschaft mit dem führenden französischen Geophysiker Claude Allègre, der einige Jahre lang unter dem sozialistischen Premierminister Lionel Jospin das undankbare Amt des Erziehungs- und Forschungsministers übernommen hatte. Wie sein Freund Allègre ging Leroux auf Distanz zur sozialistischen Partei, als es in den letzten Jahren immer deutlicher wurde, dass diese unheilbar vom Virus des Nihilismus infiziert war. Leroux war sich sicher, seine Theorie der Klimaentwicklung werde sich durchsetzen, sobald die Vertreter der offiziellen Lehrmeinung einmal abgetreten seien. Er konnte nicht ahnen, dass er vor seinen Widersachern begraben werden würde.

Nachtrag: Ich bin sicher, Marcel hätte sich über den in der heutigen „Times“ stehenden Bericht über die Auswertung der Wetteraufzeichnungen der Logbücher großer Kapitäne gefreut. Sie demonstrieren die Überlegenheit direkter Beobachtung über die „Play-Station-Klimatologie.“ (14. August 2008)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Climate Sensitivity Reconsidered

von Christopher Monckton of Brenchley

(Deutsche Übersetzung von Argus auf oekologismus.de

Monckton stellt die IPCC-Eingangsparameter der Klimamodelle auf den Prüfstand: Strahlungsantrieb, Klimasensitivität und Rückkopplungen. Er analysiert einen nach dem anderen die IPCC-Parameter und bewertet sie neu anhand von eigenen Erkenntnissen, die er zusammen mit vielen Wissenschaftlern zusammengestellt hat. Ein sehr gut nachvollziehbarer und sehr übersichtlicher Ansatz!

Kernergebnis seiner Neubewertung der Parameter ist: Der Klimabericht des IPCC von 2007 übertreibt den Einfluss des CO2 auf die Temperatur um 500 bis 2000 Prozent.

Bemerkenswert ist auch der moderate Ton, in dem Monckton seine einschneidenden Korrekturen in dem IPCC-Rechengang anbringt und kommentiert.

Zusammenfassung und Kernaussagen in Deutsch

Die Weltklimarat (IPCC, 2007) hat beschlossen, dass die anthropogenen CO2 Emissionen wahrscheinlich mehr als Hälfte der “Erderwärmung” der letzten 50 Jahre verursachthaben und eine weitere schnelle Erd-Erwärmung verursachen werden. Jedoch hat sich globale Durchschnittstemperatur seit 1998 nicht erhöht und dürfte seit Ende 2001 sogar gefallen sein. Die vorliegende Analyse legt nahe, dass Fehler in den Modell-Vorhersagen des IPCC, zur Temperaturentwicklung und vielen anderen klimatischen Phänomenen, aus Fehl-Einschätzungen der drei wesentlichen Faktoren entstehen, aus denen sich die Klimaesensitivität zusammensetzt:

1. Strahlungsantrieb ΔF

2. Der Sensitivitäts-Parameter κ “ohne Rückkopplungen” und

3. Der Rückkopplungsfaktor ƒ.

Wesentliche Gründe, warum die Schätzungen des IPCC überbewertet sein dürften und daher nicht verläßlich sind, werden erklärt. Noch wichtiger ist die Feststellung, dass es womöglich gar keine “Klimakrise” gibt, und dass die zurzeit so populären Anstrengungen der Regierungen, die anthropogen CO2-Emissionen zu reduzieren, sinnlos sind, kaum berechenbar sind und sogar schädlich sein können.

Lord Monckton´s neue Studie belegt:

o Der Klimabericht des IPCC von 2007 übertreibt den Einfluss des CO2 auf die Temperatur um 500-2000 %;

o Der erwartete CO2-Anstieg wird kaum mehr als 0.6 °C zur globalen Durch-schnittstemperatur bis 2100 beitragen;

o nicht eine der drei Schlüsselvariablen, aus denen sich die Klimasensitivität ermitt-let, kann direkt gemessen werden;

o die Werte des IPCC für diese Schlüsselvariablen stammen von nur 4 (vier) veröf-fentlichten Papieren, nicht von 2.500;

o die Werte des IPCC für jede der drei Variablen, und folglich für die Klimaempfind-lichkeit, sind übertrieben angesetzt;

o Die “Globale Erwärmung” stoppte vor zehn Jahren, und die Oberflächentempera-tur ist seit sieben Jahren gefallen;

o nicht eines der Computermodelle, auf denen IPCC aufbaut, sagte eine so lange und schnelle Abkühlung voraus;

o das IPCC fügte eine Tabelle in den wissenschaftlichen Rechengang ein, die die Wirkung der Eisschmelze um 1000 % überbewertet;

o es wurde bereits vor 50 Jahren festgestellt, dass eine Vorhersage des Klimas um mehr als zwei Wochen unmöglich ist;

o Mars, Jupiter, der größte Mond des Neptuns sowie Pluto erwärmten sich zeit-gleich mit der Erde;

o in den letzten 70 Jahren war die Sonne aktiver als in fast jeder anderen Zeit in den letzten 11.400 Jahren.

***************************************************************************

Dr. Vincent Gray’s Abrechnung mit dem „Weltklimarat“ IPCC

„… das IPCC ist abgrundtief korrupt. Die einzige “Reform”, die ich mir vorstellen kann, wäre seine Abschaffung.“

„Das Verschwinden des IPCC ist nicht nur wünschenswert, sondern unvermeidlich.“

Diese Sätze stammen nicht von einem Verrückten, sondern von einem erfahrenen Wissenschaftler aus Neuseeland, der als offiziell bestellter “Expert Reviewer” des Intergovernmental Panel on Climate Change (IPCC) schon an dessen ersten im Jahre 1990 erschienenen Bericht mitgewirkt hat. Die Behauptung des IPCC, die „Evidenz“ einer Klimaschädigung durch eine Änderung der atmosphärischen Konzentration von „Treibhausgasen“ erbracht zu haben, sei schlicht falsch, schreibt Gray in einer nun im Internet zugänglichen systematischen und detaillierten Abrechnung mit den manipulativen Arbeitsmethoden des von der UN-Bürokratie im Jahre 1988 eingesetzten Gremiuns. Sein inzwischen aktualisierter Bericht zeigt Schritt für Schritt, wie aufgrund einer nicht thematisierten menschenfeindlichen religiösen Einstellung zweideutige Beobachtungen und verzerrte Interpretationen wissenschaftlicher Aussagen zu einem Machwerk verwoben wurden, das eine weltweite Kampagne für die Einschränkung menschlicher Entwicklungsmöglichkeiten rechtfertigt. Die geforderte Reduktion der Emission von „Treibhausgasen“ entbehre in Wahrheit jeglicher wissenschaftlichen Grundlage (14. Juli 2008)

********************************************************************

CO2-Gläubige rätseln über schlappe Sonne

Ich gehöre zu jenen, die das Glück hatten, Dr. Theodor Landscheidt noch persönlich erleben zu können. Hinter dem pensionierten Juristen mit der Fliege verbarg sich ein versierter Astronom, der über lange Jahre mit viel Geduld und mathematischer Bravour die Bewegungen und Entwicklungen der Sonne analysiert hatte. (Hier eine Sammlung seiner Veröffentlichungen) Schon um die Mitte der 90er Jahre war sich Landtscheidt sicher, dass die Sonne ab 2007 in eine längere Schwächephase eintreten würde, die auf der Erde zu einer empfindllichen Abkühlung führen muss. Denn er hatte schon erkannt, dass die Sonnfleckenzyklen auf eine Interferenz zwischen den Bewegungen der Sonne und ihres gewichtigen Planeten Jupiter zurückgeht. Australische Astrophysiker haben diese Entdeckung nun bestätigt. Landscheidt stellte seine Entdeckung auf dem Symposium „Klimaveränderungen – Ursachen und Auswirkungen“ vor, das am 10. und 11. November 1997 (das heißt kurz vor der gedankenlosen Verabschiedung des Kyoto-Protokolls über eine Reduktion von „Treibhausgasen“) im Bonner Hotel Königshof von der Europäischen Akademie für Umweltfragen organisiert worden war. Der Tübinger Biochemiker und Photosystheseforscher Prof. Dr. Helmut Metzner, der die Europäische Akademie gegründet und das Bonner Symposium organisiert hatte, war damals zuversichtlich, das mit Kyoto verbundene Selbstmordprogramm noch verhindern zu können. Wenige Wochen nach der Verabschiedung des Kyoto-Protokolls hatte er dann eine längere Unterredung mit seinem Parteifreund Prof. Dr. Klaus Töpfer (CDU). Dieser machte Metzner offenbar klar, dass es keine Möglichkeit mehr gab, den ins Rollen gekommenen Zug der internationalen Klima-Bürokratie noch aufzuhalten. Das mit den wichtigsten Klimaforschern der Welt (nicht nur mit „Skeptikern“) besetzte Bonner Symposium war offenbar für die Katz gewesen. Prof. Metzner legte sich nach dem Gespräch mit Klaus Töpfer erschöpft schlafen und wachte nicht wieder auf.

Konkret legte Theodor Landscheidt 1997 in Bonn dar, dass der seit längerem bekannte Gleissberg-Zyklus der Sonnenaktivität von 90 Jahren im Jahre 2007 seinen nächsten Phasensprung (Nulldurchgang) haben werde. Dadurch werde auf der Erde eine Abkühlungsphase eingeleitet, die ihren Höhepunkt im Jahr 2026 erreichen werde. (Meinem in „Öko-Nihilismus“ enthaltenen Zukunftsszenario habe ich diese Prognose unausgesprochen zugrunde gelegt.)

Landtscheidts Voraussage ist punktgenau eingetroffen. Seit Dezember 2006 tut sich auf unserem Zentralgestirn, abgesehen vom üblichen Brodeln der Plasmaströme, kaum noch etwas. Der längst überfällige Beginn der 24. Sonnenfleckenzyklus lässt auf sich warten. Die wenigen Spuren von Sonnenflecken, die sich hin und wieder zeigten, entpuppten sich als Überbleibsel des 23. Zyklus. Eine so lange Abwesenheit von Sonnenflecken wurde zuletzt vor 350 Jahren auf dem Höhepunkt der so genannten kleinen Eiszeit beobachtet. Diese führte in Europa zu einer Häufung von Vereisungen, Überschwemmungen, Missernten und Hungersnöten sowie in deren Gefolge zu massiven Auswanderungswellen.

Inzwischen nimmt sogar SPIEGELonline (siehe Link in der Überschrift) Kenntnis von einer Realität, die in den „Klimamodellen“, die den Überhitzungs-Projektionen des „Weltklimarates“ IPCC zugrunde liegen, gar nicht vorkommt. Läge der IPCC mit seiner Behauptung richtig, das Verbrennungs- und Atmungs-Gas Kohlenstoffdioxid (CO2) sei die Hauptursache der in den vergangenen Jahrzehnten beobachteten leichten globalen Erwärmung, dann müssten jetzt schleunigst alle Hindernisse beseitigt werden, die dem überfälligen Bau zahlreicher neuer Kohlekraftwerke entgegenstehen. (6. Juli 2008)

Die Sonne ist zu etwa 70 Prozent für den Klimawandel auf der Erde verantwortlich

Das schätzt Dr. Bruce West, Chefwissenschaftler des US Army Research Office, in einem in der Fachzeitschrift „Physiscs today“ veröffentlichten Aufsatz. Darüber berichtete am 3. Juni 2008 das US-Online-Magazin „Wired“. In Europa wurde die Nachricht mit vielen Konjunktiven entschärft. Da der 24. Sonnenzyklus noch immer auf sich warten lässt, sollten wir uns trotz des Tropenwetters, das in diesem Juni in weiten Teilen Deutschlands herrscht, auf eine Abkühlung der Erde gefasst machen.

In einem Bericht mit dem Titel „Global Temperature Dives in May.“ schreibt der Meteorologe Anthony Watts, das seit Beginn dieses Jahres feststellbare dramatische Absinken der Durchschnittemperatur der Erde habe sich im Mai fortgesetzt. Seit Januar 2007 sei die Temperatur um etwa den Betrag (0,75 Grad Celsius) abgesunken, der in den IPCC-Berichten als „Signal der menschengemachten globalen Erwärmung“ in den letzten 100 Jahren interpretiert wurde.

Hier ist die neueste Temperaturkurve,, die an der University of Alabama in Huntsville aufgezeichnet wurde.

Kollege Wolfram.von-Juterczenka@dw-world.de teilt folgende im Mai 2008 gemessene Temperaturwerte mit:

Spitzbergen -2,0° ( 0,8° kälter als Mai 07; wärmster der letzten 18 Jahre: 2006 +1,2°, kältester 1998 -5,3°)

Tromsoe 4,4° ( 1,3° kälter als 07; wärmster 10,9° 1990)

Neumeyer

(Antarktis) -22,4° (4,3° kälter als 07; wärmster in letzen 18 Jahren: -17,5° 1992, kältester -25,4° 2004)

Südpol -59,3° (1,4° kälter als 07; wärmster -18 Jahre- : -56,2 2006, kältester -60,0 1996)

Godthab

Westgrönland: 3,4° (3,5° wärmer als 07; wärmster – 10 Jahre- 3,5° 1996, kältester -2,6° 1992)

In seinem Blog brachte Anthony Watts am 15. Juni 2008 weitere Einzelheiten der Entwicklung des Magnetismus der Sonne und ihres Einflusses auf die Erde. Der Average Geomagnetic Planetary Index (Ap), ein Maß für die solare magnetische Feldstärke, ist im Oktober 2005 auf ein extrem niedriges Niveau abgesackt und hat sich seither nicht wieder erholt. (18. Juni 2008)

Global Warming macht Pause

Die britische Tageszeitung „Telegraph“ berichtet von einer neuen Veröffentlichung deutscher Klimaforscher im Wissenschaftsmagazin „nature“. Danach gehen die Forscher davon aus, aufgrund festgestellter Veränderungen in atmosphärischen und ozeanischen Strömungsmustern werde sich die begonnene Phase eines leichten Rückgangs der globalen Durchschnittstemperatur mindestens bis 2015 fortsetzen. Ich vermute, es handelt sich hier um einen ersten Versuch, dem perplexen Publikum zu erklären, warum die Realität den Verkündungen des „Weltklimarats“ IPCC nicht folgt, ohne klipp und klar zu sagen, dass die Klimaentwicklung mit der atmosphärischen Konzentration des zum zum „Klimakiller“ erklärten Kohlenstoffdioxids (CO2) wenig bis nichts zu tun hat. Jedenfalls haben die Autoren der am IFM Geomar-Institut für Meeresforschung in Kiel erarbeiteten Studie in Gestalt ihres Sprechers Mojib Latif sofort davor gewarnt, den nach ihrer Meinung fortbestehenden längerfristigen Erwärmungstrend auf die leichte Schulter zu nehmen. Die in ihren Augen gefährliche globale Erwärmung mache nur eine Pause.

Schon im vergangenen Jahr hatte ich Skeptiker-Freunde davor gewarnt, sich nicht zu früh zu freuen. Meine lieben Journalistenkollegen würden sicher auch noch den Purzelbaum hinkriegen, die drohende Kleine Eiszeit mit dem bösen CO2 in Verbindung zu bringen. Kollege Holger Darmbeck hat nur zwei Tage gebraucht, um diese Prophezeiung in SPIEGEL-online in Erfüllung gehen zu lassen. (2. Mai 2008)

Anzeichen für ein Abflachen des CO2 Anstiegs in der Atmosphäre und eine Abkühlung des Ozeans

Buchstäblich gar nichts entwickelt sich zurzeit entsprechend der Warnungen, für die der „Weltklimarat“ IPCC im Jahre 2007 mit dem Friedensnobelpreis ausgezeichnet wurde. Nicht nur die Temperaturkurve der Erde, sondern auch die Kurven der Methan- und CO2-Konzentrationen scheinen neuerdings abzuflachen. Hinzu kommt eine weitere irritierende Meldung: Forscher des Alfred-Wegener-Instituts für Meeresforschung (AWI) in Bremerhaven haben in einer monatelangen Messkampagne festgestellt, dass sich das Tiefenwasser rund um die Antarktis eindeutig abkühlt. Sicher ist es noch zu früh, um daraus einen neuen Trend abzuleiten. Aber die Zweifel an der Begründung der Angstmache wachsen. (21. April 2008)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Extremwetterkongress im Gegenwind

Da die Wettermaschine der Erde den Propheten einer heranrückenden Klimakatastrophe nicht Gefallen tut, verrückt zu spielen, befleißigten sich Massenmedien anlässlich des Hamburger Extremwetterkongresses ungenannter Sponsoren, den Eindruck zu erwecken, es stimme etwas nicht in der Antarktis. BILD titelte am Donnerstag, dem 27. März 2008: „Neuer Umweltschock. Südpol zerfällt.“ Nähme nan das wörtlich, müsste man die Seefahrt und den Luftverkehr sofort einstellen, denn ohne Südpol gäbe es auch keinen Nordpol mehr. Was die die Redaktion der BILD-Zeitung wirklich meinte, war das Abbrechen eines größeren Brockens des Wilkins-Schelfeises. Das kommt hin und wieder vor, hängt nach Aussage kompetenter Metorologen aber keineswegs mit der Temperaturentwicklung des Antarktischen Kontinents im Ganzen zusammen. Vielmehr ragt dieser Eis-Schelf mit der Antarktischen Halbinsel weit in Gewässer, die milden Nordwestwinden ausgesetzt sind. Als den Anden benachbarte seismisch aktive Zone der Erdkruste besitzt die antarktische Halbinsel überdies etliche aktive Untereis-Vulkane, die Bewegungen des Gletscheises beschleunigen können. Doch davon erfuhren die Leser von BILD nichts. Es kam den Kollegen der BILD-Redaktion wohl eher darauf an, ihren Lesern nach einem ausnehmend eisigen Osterfest einzureden, die globale Erwärmung gehe weiter. (Siehe hierzu auch die Erklärung auf der Website des EIKE Europäischen Instituts für Klima und Energie.

Hier die Entwicklung der Mitteltemperaturen der Antaktis:

Georg v. Neumeyer (deutsche Antarktisstation):

Januar 1991 bis 2008

-3,8 -1,8 -4,2 -5,7 -4,6 -3,9 -4,5 -4,2 -3,8 -5,6 -4,8 -3,2 -5 -2,3 -2,4 -3,1 -3,5 -5,6

Februar 1991 bis 2008

-6,6 -6,8 -9,7 -7,3 -6,4 -6,1 -8,7 -6,2 -7,2 -10,8 -7,8 -8,1 -7,2 -6 -7,2 -7,3 -9,8 -8,6

Südpol

Januar 1999 bis 2008

-26,2 -31,1 -29,8 -26,7 -27,6 -27,7 -26,4 -28,3 -27,5 -30,1

Februar 1999 bis 2008

-39,7 -43,2 -39,9 -40,7 -40,8 -38,6 -39,5 -42,8 -42,4 -41,8

Casey (Antarktis – Rand)

Januar 1994 bis 2008

-0,1 -2 -1 0,0 -0,4 -1,5 -1,8 -0,3 0.5 0,0 -0,7 0,7 -0,5 0,1 -1,2

Februar 1994 bis 2008

-2,1 -4,2 -2,6 -2,4 -2,8 -3,5 -2,7 -4,6 -2,9 -2,3 -1,1 -2 -2,5 -2,1 -4,1

Hier die Entwicklung der mittleren Temperaturen des Monats März an einigen ausgewählten Wetterstationen:

Spitzbergen 1995 – 2008

-15,4 -6.6 -12,3 -13,3 -7,5 -14,9 -16,8 -18,4 -17,8 -7,5 -17,1 -12,7 -7,0 -14,7

Südpol 1999 – 2008

-54,4 -53,5 -54,6 -48,6 -54,5 -55 -51,9 -56,4 -57,7 -53,3

Godthab (Grönland) 1991 – 2008

-6,7 -8,2 -13,8 -11,8 -12,7 -8,5 -10,6 -8,1 -6,9 -8,6 -5,7 -9,4 -6,6 -9,2 -2,7 -2,8 -7,2 -8,6

(Mitteilung von Wolfram.von-Juterczenka@dw-world.de)

******************************************************************

NASA-Forscher suchen verzweifelt nach Sonnenflecken

Anfang Januar 2008 schien es so, als käme der angesagte 24. Sonnenfleckenzyklus (seit dem 18. Jahrhundert) endlich in Gang. Doch das erste zaghafte Vorzeichen neuer Sonnenflecken verschwand schon nach drei Tagen. Nun wächst die Furcht vor einer neuen Kleinen Eiszeit. Die von interessierter Seite geschürte hysterische Angst vor einer Klimaverbesserung, Verzeihung: globalen Erwärmung dürfte schon bald als Problem erscheinen, das man gerne hätte.

Inzwischen tauchten auf den Fotos der Sonnen-Sonde SOHO zwar einige kleine Flecken auf. Doch diese erwiesen sich aufgrund der Polarität ihres Magnetfeldes eindeutig als Reste des auslaufenden 23. Zyklus. Die Freunde der Sonne wurden auf den Monat März vetröstet. Doch nichts tat sich. Nun erhoffen die Beobachter der NASA den Start des 24. Zyklus in der zweiten Jahreshälfte, vielleicht aber auch erst im nächsten Jahr. Dann wäre der 23. Zyklus der längste seit dem Jahre 1800. Das klingt nicht sehr beruhigend. (8. April 2008)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Kürzlich hat der Britische Wetterdienst (UK/CRU/UEA) die „Global-Temperatur 2007“ publiziert.

2007 kommt seit 1998 nur auf Platz 8, bei fallender Tendenz. Wie peinlich für die Klimagogen, hatten sie doch noch vor wenigen Wochen einen „neuen Rekord“ mit 14.54° (1998: 14.52°) hinaustrompetet. Stattdessen nun weiterhin fallende Tendenz, und zwar recht deutlich. Damit gibt es seit 1998 keinen weiteren Temperaturanstieg mehr – im Gegenteil. (Danke an Dipl. Met. Klaus-Eckart Puls für die Mitteilung)

Januar 2008 war nach Satelliten-Messungen der zweitkälteste Januar in den letzten 15 Jahren.

Der Winter 2007/2008 gilt schon jetzt auf der Nordhalbkugel als der kälteste Winter seit Menschengedenken. Nur die Deutschen haben davon nicht viel mitbekommen.

100 Jahre Erwärmung in einem Jahr rückgängig gemacht

Inzwischen zeigen Zusammenstellungen von unzweifelhaften Messdaten aus der ganzen Welt, dass der in hundert Jahren erreichte Gesamtbetrag der Klimaverbesserung (ein Anstieg des globalen Temperaturmittelwerts von etwa 0,7 °C) in einem einzigen Jahr verloren gegangen ist. Das meldet der Blog DailyTech.com. Dort findet sich auch eine beeindruckende Temperaturkurve für die letzten Jahre.

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Schwerwiegende Fehler im IPCC Report 2007

Quelle: IPPCC, 2007: Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Solomon, S., D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M.Tignor and H.L. Miller (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA.

Hier der Link zum AR 4

von Ernst-Georg Beck, Dipl. Biol. 1/2008

Statement:

Der 4. Klimabericht des IPCC (Weltklimarat) 2007 der UNO enthält in wesentlichen Teilen falsche Informationen. Deshalb sind alle daraus abgeleiteten politischen Konsequenzen haltlos und ohne wissenschaftliche Basis. Alle Verweise und Diskussionen über mögliche Konsequenzen in Publikationen der Medien, Schulen und Universitäten beruhen auf Pseudowissenschaft. Politische und wirtschaftliche Aktivitäten gemäß der irrigen Behauptungen des IPCC müssen sofort beendet werden. Eine unabhängige, wissenschaftliche Debatte muß zur Aufklärung stattfinden.

1. Falsche Temperaturdaten:

a)Die Temperaturkurven S. 25 und 29 (pdf) seit 1960 beruhen hauptsächlich auf dem Wärmeinseleffekt, da besonders für die ansteigenden Temperaturen seit 1975 wenige in Städten liegende Stationen verwendet werden. Tatsächlich steigen die Temperaturen nicht wie gezeigt an, sie fallen weltweit laut Satellitenmessung:

Nachweis: Ross McKitrick

Satellitendaten: MSU

b) Die gezeigten Kurven S. 29 (PDF, S. 121 IPCC) enden alle 2001. Warum im Bericht 2007, wo doch der letzte IPCC Bericht 2007 erschien?

Weil die mittlere Erdtemperatur seit 1998 nicht mehr steigt, sondern fällt! Treibhauseffekt?

Nachweis: Hier der Lieferant der IPCC-Temperaturdaten

CRU (England), Jones et al. (rechts die Temperaturen anklicken)

2. Falsche CO2 / Methan-Daten:

Die Kurven des CO2 und Methans sind teilweise falsch bzw. irreführend dargestellt.

CO2 war in den letzten 200 Jahren stark schwankend mit Konzentrationen wie heute um 1825, 1857 und 1942. Methan stagniert seit langem und fällt seit 2007, also kann es nicht als zusätzliches Treibhausgas wirken.

Nachweis: CO2

Methan: NOAA (2006)

3. Weniger Hurrikane:

Behauptung S. 15 „Tropical storm and hurricane frequencies vary considerably from year to year, but evidence suggests substantial increases in intensity and duration since the 1970s……. Specifically, the number of category 4 and 5 hurricanes increased by about 75% since 1970.“

Das ist nur ein Teil der Wahrheit bzw. falsch: Die Anzahl der Hurrikane mit maximaler Stärke war in den 30er Jahren des 20. Jahrhunderts am stärksten.

Nachweis: NOAA (2007)

4. Kein Meeresspiegelanstieg:

Die Kurve S. 19 ist irreführend und entspricht dem Tunnelblick des IPCC alles auszublenden, was nicht in die Hypothese passt. Derzeit steigen keine Meersspiegel!

Nachweis: Prof. N.A. Mörner

5. Kein Konsens:

Der gesamte IPCC-Bericht ist im wesentlichen Teil, der den menschengemachten Klimawandel betrifft genau von 5 Personen begutachtet worden. Die Behauptung, er sei im Konsens von 2500 Wissenschaftlern entstanden ist falsch.

Nachweis: John McLean.

Inzwischen ist übrigens die bittere und im Detail belegte Abrechnung des IPCC Expert-Reviewers Dr. Vincent Gray aus dem Internet herunterladbar. Dr. Gray fordert nach allem, was er erleben musste, nichts weniger als die sofortige Auflösung dieses Gremiums. Denn die Theorie der vom Menschen gemachten globalen Erwärmung sei von Anfang an ein krankhaft religiös begründeter Schwindel gewesen. (akt. 12. Juli 2008)

****************************************************************************************************

Werden wissenschaftliche Standards überflüssig ?

Das neue Jahr begann in den deutschen Medien mit neuen Zumutungen für den gesunden Menschenverstand. Erst berichteten mehrere Online-Magazine und Radiosender, das vergangene Jahr habe in Deutschland einen neuen Durchschnittstemperatur-Rekord gebracht. Doch kurz darauf musste die Meldung mit dem Hinweis auf einen Rechenfehler des Deutschen Wetterdienstes korrigiert werden. Nun heißt es, ein neuer Rekord sei knapp verfehlt worden. Dabei sollte ohnehin klar sein, dass die Durchschnittstemperatur unseres Landes, das nur ein Pünktchen auf dem Globus darstellt, kaum Aussagekraft besitzt. Weltweit hat sich 2007 die seit etwa einem Jahrzehnt beobachtbare Stagnation der bodennahen Durchschnittstemperatur fortgesetzt. Da der Ausstoß von Kohlenstoffdioxid (CO2) zur gleichen Zeit wegen des Wirtschaftsbooms in „Schwellenländern“ wie China, Indien und Brasilien und zum Teil auch in alten Industrieländern kräftig angestiegen ist, bedarf die Behauptung, anthropogenes CO2 sei die Hauptursache der globalen Erwärmung, inzwischen schon einer gehörigen Portion Schuzpe. Doch die herrschende nihilistische „Elite“ fühlt sich offenbar so fest im Sattel, dass sie keinen Grund für eine Korrektur ihrer kostspieligen und selbstmörderischen „Klimaschutzpolitik“ sieht. Man kann sicher sein, dass sich in unseren Medien immer jemand findet, der Wetterereignisse aller Art und vielleicht sogar eine deutliche Abkühlung der Erde als Bestätigung der offziellen Lehrmeinung bzw. als Erfolg der „Klimapolitik“ zu interpretieren weiß.

So wurde der Bielefelder Wissenschaftsphilosoph Martin Carrier wegen seiner unverholenen Rechtfertigung politischer Manipulation der Klimaforschung mit dem begehrten Leibnizpreis der Deutschen Forschungsgemeinschaft (DFG) ausgezeichnet. In einem am 2. Januar 2008 vom Deutschlandfunk ausgestrahlten Interview verriet Carrier, wie sich die Politik mithilfe serviler Eierköpfe ihre vermeintliche Legitimation beschafft. Hier ein Auszug aus dem von Christian Schütte geführten Interview:

„Schütte: Der Klimawandel wird kommen, und er ist zum Großteil durch Menschen verursacht. So hat es der Weltklimarat im vergangenen Jahr dargelegt, ein wissenschaftlicher Bericht. Dennoch sagen Sie, dass an der Entstehung im Grunde genommen auch die Politik beteiligt gewesen sei. Inwiefern?

Carrier: Wir haben hier ein Beispiel für einen positiven Einfluss der Politik auf die Wissenschaft, eben dass das Einwirken der Politik im Weltklimarat, im IPCC, wo die Politik die Wissenschaftler gedrängt hat, die verschiedenen Spezialmodelle zu Ozeanatmosphäre und so weiter zu einem aussagekräftigen Gesamtbild zu verbinden. Die Wissenschaftler selbst hatten ja hier mit Zurückhaltung ihre eigenen Spezialitäten gepflegt und den Blick über den Gartenzaun gerade nicht gewagt. Und der Grund ist klar: Der Eindruck herrschte, dass man nicht hinreichend verlässlich die verschiedenen Teilansätze miteinander verknüpfen könnte. Andererseits ist ja die Politik auf eine Gesamtsaussage angewiesen, da man sonst keine Maßnahmen einleiten oder begründen kann.

Schütte: Das heißt, die Ergebnisse und Empfehlungen sind politisch beeinflusst?

Carrier: Ja, in dem Sinne, wie gesagt, dass sich sozusagen der Druck der Politik als heilsam erwiesen hat insofern, als eine Frage von praktischer Relevanz von außen gestellt worden ist, die die Wissenschaft dann nach Kräften zu lösen versucht hat und in diesem Fall auch erfolgreich zu lösen versucht hat. Und das ist eben eine Frage, die sich so aus der disziplinären Entwicklung der Wissenschaft von selbst nicht gestellt hätte.

Schütte: Wie groß ist denn die Gefahr, dass wissenschaftliche Standards vernachlässigt würden durch den Druck der Politik?

Carrier: Natürlich besteht im Einzelfall auch jetzt immer noch wieder die Gefahr der Überforderung, wenn Fragen gestellt werden, die gewissermaßen von außen kommen, aus der Praxis kommen und sich nicht in der Wissenschaft selbst so ergeben hätten. Aber wir haben eben ganz häufig auch die Fälle, dass hier ein Anstoß, ein Anreiz ausreicht, damit die Wissenschaft dann doch belastbare Resultate erreicht.“

Mein Kommentar: Carrier hat sicher recht, wenn er darauf hinweist, dass die Wissenschaft keine letzte Gewissheit erlangen kann über das, was geht. Doch kann sie m. E. sehr wohl erkennen, was alles nicht geht. Darüber geben uns beispielsweise die Gesetze der Thermodynamik Aufschluss. Carrier aber schließt aus den Grenzen wissenschaftlicher Erkenntnisfähigkeit offenbar, man könne sich politisch darauf einigen, was möglich ist. Wissenschaftliche Standards spielen danach keine Rolle mehr. Entscheidend ist, dass etwas herauskommt, das der Politik in den Kram passt. Sollten sich die von der Politik manipulierten Aussagen des „Weltklima-Rates“ IPCC als Irrtum herausstellen, wäre das in den Augen Carriers nicht weiter schlimm. Denn das von der EU zur obersten Richtschnur der Politik erhobene „Vorsorgeprinzip“ ist so definiert, dass man damit schlicht alles rechtfertigen kann. So wird es möglich, selbst völlig unnütze Milliarden-Investitionen, die lediglich der parasitären Bereicherung der Mitglieder des Ökologisch-Industriellen Komplexes dienen, als Dienst für das „Gemeinwohl“ auszugeben. (Edgar Gärtner, 10. Januar 2008)

„Klimapolitik“ nicht wissenschaftlich begründbar

In der WELT vom 25. September 2007 stellen Prof. Hans Mathias Kepplinger und seine Assistentin Senja Post die Ergebnisse einer online-Umfrage unter sämtlichen 239 deutschen Klimaforschern vor, die ich am 10. September in meinem unten wiedergegebenen Kommentar in der gleichen Zeitung schon kurz erwähnt hatte. Zu den wichtigsten Ergebnissen dieser Umfrage zählt der Befund, dass nur eine Minderheit von 10 bis 20 Prozent der angesprochenen Forscher die empirischen und theoretischen Voraussetzungen für die Berechnung des Klimas heute schon für gegeben hält. Die große Mehrheit der Klimaforscher ist sich also ziemlich unsicher über die Zusammenhänge und die zukünftige Entwicklung des Klimas. „Diese Befunde werfen die grundlegende Frage auf, ob die weitreichenden politischen Maßnahmen zum Schutz des Klimas mit Verweisen auf die Klimaforschung gerechtfertigt werden können“, folgern Kepplinger und Post.

Senja Posts Buch „Klimakatastrophe oder Katastrophenklima?“ ist inzwischen erschienen.

Erwärmung der Arktis überwiegend natürlich

SPIEGELonline hat nun im Bericht über Untersuchungen russischer Forscher zugegeben, dass die auffällig rasche Schmelze von Teilen des arktischen Packeises im letzten Sommer zum großen Teil auf eine natürliche Veränderung von Luftströmungen zurückgeht. Während in einem Teil der Arktis die Temperatur gegen den von „Klimamodellen“ prognostizierten Trend zurückgeht, sind andere Teile der Arktis dem Einfluss warmer südlicher Luftströmungen ausgesetzt. Auf diese Entwicklung hat der inzwischen emeritierte französische Klimatologe Marcel Leroux (Lyon) in seinem im Jahre 2005 im renommierten Springer-Verlag (Heidelberg) erschienen Buch „Global Warming. Myth or Reality?“ hingewiesen. Da Leroux in diesem Buch Ansichten über Ursache und Ablauf des Wettergeschehens vertritt, die der derzeitigen Schulmeteorologie teilweise widersprechen, wurde das Buch von der Fachwelt bislang weitgehend totgeschwiegen. Die Leser meiner in der „Chemischen Rundschau“, im „Novo-Magazin“ und „eigentümlich frei“ erschienenen Artikel, meiner Homepage sowie meines Buches „Öko-Nihilismus“ konnten sich allerdings ausgiebig über die etwas ketzerischen Ansichten des französischen Wissenschaftlers informieren. Was heute in SPIEGELonline steht, weist darauf hin, dass Leroux mit seinen Ansichten wohl nicht ganz falsch liegt. Lesen Sie bitte hier unten einen meiner letzten Beiträge über Leroux und seine Klimahypothese, der im vergangenen September in der WELT erschien.

(3. Januar 2008)

Es wird kalt, nicht heiß

von Edgar Gärtner, Hydrobiologe

Warum versuchen in Europa „Experten“, den Menschen einzureden, nicht die Abkühlung, sondern die Erwärmung der Erde stelle die größere Bedrohung dar? Es muss doch einen Grund haben, dass sie bekannte Zusammenhänge buchstäblich auf den Kopf stellen.

Besuch bei Marcel Leroux, einem in Südfrankreich nicht weit von der Grabstätte Picassos lebenden emeritierten Professor für Klimatologie, der in seinen Büchern eine andere Auffassung über die Ursachen des Klimawandels vertritt als die von der Politik nominierten Experten im zwischenstaatlichen Klimarat IPCC. Der noch frisch und drahtig wirkende Skipper bretonischer Herkunft erklärt mir am Computerbildschirm anhand zahlreicher Satellitenfotos, warum in diesem Jahr in Deutschland so früh der erste Schnee gefallen ist. Er zeigt mir die von Grönland nach Süden ziehende gewaltige Kaltluftmasse mit hohem Druck, die ein charakteristisches Wolkenband vor sich herschiebt, das sich an seiner Nordostseite zu einem Tiefdruckwirbel verdichtet. In Südfrankreich macht sich dieser Kaltlufteinbruch durch einen heftigen Mistralwind bemerkbar.

Neben den Wolkenbildern findet man im Internet hochauflösende Druck-, Niederschlags- und Windkarten, vertikale Temperatur- und Windprofile beinahe für jeden Ort und viele andere Angaben, die laufend aktualisiert werden. Man kann dabei sogar die Daten konkurrierender Anbieter vergleichen, um sich sein Bild über das Wettergeschehen zu machen.

So sieht man deutlich, dass die in Form stehender Wellen durch den Trichter des Rhône-Tals gepresste Kaltluft nur bis etwa 1500 Meter Meereshöhe reicht und dass ihr größter Teil von den Alpen und den Pyrenäen nach Westen auf den Atlantik abgedrängt wird. Setzt sich ein solches Kälte-Hoch jedoch einmal irgendwo auf dem Kontinent fest (wie in diesem Sommer in Südost-Europa), kann es auch zur Ursache einer Hitzewelle werden, weil die Luft dann rasch von der Sonne aufgeheizt wird.

Leroux hat nachgewiesen, dass solche Kaltlufteinbrüche seit den 70er-Jahren in immer kürzeren Abständen aufeinanderfolgen. In Südfrankreich lässt sich das einfach überprüfen: Man braucht nur die Entwicklung der Häufigkeit von Mistralwinden in den vergangenen 30 Jahren zu vergleichen. Dann hat man einen Anhaltspunkt für die Richtung des Klimawandels. Leroux schließt aus seinen langjährigen Beobachtungen, dass wir Zeugen eines allmählichen Abkühlungsprozesses sind, der zu einer kleinen Eiszeit führen kann. Das sei vor allem eine schlechte Nachricht für Afrika.

Der Geograf, der als Sohn eines Marineoffiziers in Tunesien geboren wurde und den größten Teil seines wissenschaftlichen Werdegangs in Afrika absolviert hat, kennt die Klimageschichte des Schwarzen Kontinents wie kein Zweiter. Er zeigt mir anhand anderer Satellitenaufnahmen, dass der Einfluss der in Westeuropa einbrechenden Kaltluft bis weit nach Westafrika reicht. Dort verstärkt sie trockene Passatwinde und trägt damit zum Vorrücken der Wüste bei. Es ist seit Längerem bekannt, dass die Sahara ihre größte Ausdehnung auf dem Höhepunkt der letzten Eiszeit erreichte. Warmzeiten hingegen brachten dem Schwarzen Kontinent immer reichlich Niederschläge und damit relativen Wohlstand.

Warum wissen das in Europa so wenige? Warum versuchen dort „Experten“, den Menschen einzureden, nicht die Abkühlung, sondern die Erwärmung der Erde stelle die größere Bedrohung dar? Es muss doch einen Grund haben, dass sie bekannte Zusammenhänge buchstäblich auf den Kopf stellen. Leroux sieht ihn darin, dass die Politik sich mit einer lautstarken Minderheit computergläubiger Forscher zusammengetan hat, die von historischer Geografie und Meteorologie wenig Ahnung haben.

Der Mainzer Kommunikationsforscher Hans Mathias Kepplinger bestätigt das. Er hat in einer Umfrage herausgefunden, dass nur etwa ein Drittel der deutschen Klimaforscher glaubt, dass der Fortgang der Erwärmung überwiegend negative Konsequenzen hätte. Doch von den anderen zwei Dritteln hört und sieht man bislang nicht viel in den Medien. Es mehren sich aber die Anzeichen für ein Ende der Schweigespirale. Nicht zufällig werden neuerdings Bücher und Sendungen über den „Klimaschwindel“ zu Bestsellern.

(Kommentar erschienen am 10. September 2007 in DIE WELT, Berlin)

———————————————————————————————————————–

Klima: Crux mit grönländischen Knochen

Gemeinhin gilt die seit 1958 am Mauna Loa, einen aktiven Vulkan auf Hawaii, mithilfe der von Charles Keeling perfektionierten Infrarot-Spektroskopie aufgezeichnete gezackte Kurve eines kontinuierlichen, leicht exponentiell anmutenden Anstiegs der CO2-Konzentration der Atmosphäre als wichtigstes „Beweisstück“ für die Annahme, die massive Verbrennung fossiler Energieträger seit der industriellen Revolution des 19. Jahrhunderts trage die Hauptschuld an dem seit etwa 150 Jahren feststellbaren leichten Anstieg der Durchschnittstemperatur über den Landmassen der Erde. Der Freiburger Biochemiker und Gymnasiallehrer Ernst-Georg Beck hat seine freie Zeit genutzt, um an Hand älterer Fachveröffentlichungen über präzise Messungen des CO2-Gehaltes der Luft mithilfe der klassischen Pettenkofer-Methode zu überprüfen, ob sich die inzwischen schon legendäre Mauna-Loa-Kurve von ihrem aktuellen Wert (ca. 380 ppm CO2) tatsächlich nach rückwärts extrapolieren lässt bis zum Wert von etwa 280 ppm CO2, der in den meisten „Klima-Modellen“, die den schlagzeilenträchtigen Berichten des UN-Klimarats IPCC zugrunde liegen, als „vorindustrielles Niveau“ angenommen wird.

Becks Fleißarbeit der Auswertung von etwa 90.000 verwertbaren, weil methodisch einwandfreien historischen Messungen förderte eine Überraschung zutage: Zu Beginn der 40er Jahre des vergangenen Jahrhunderts war die CO2-Konzentration mit 420 ppm in ländlichen Gebieten Deutschlands (gemessen von einer der am besten ausgerüsteten Wetterstationen bei Giessen in Mittelhessen) schon einmal deutlich höher als heute. Auch in den Jahrzehnten davor hat der CO2-Gehalt offenbar stark geschwankt. Deutliche Einflüsse gingen z.B. um 1820 vom Ausbruch des Vulkans Tambora in Indonesien aus. Beck fragt sich nun, ob das Ignorieren dieser älteren Messungen, deren Präzision größtenteils nichts zu wünschen übrig lasse, nicht einem Betrug durch Charles Keeling gleichkommt. Jedenfalls könne der UN-Klimarat IPCC nicht so tun, als habe es vor 1958 keine exakten CO2-Messungen gegeben. Beck hat die Auswertung seiner Literatur-Recherche in diesem Jahr unter dem Titel „180 Years accurate CO2-Gasanalysis of Air by Chemical Methods“ im englischen Fachmagazin ENERGY & ENVIRONMENT (Volume 18, No. 2/2007) veröffentlicht.

Im Mai 2007 hat Beck eine deutsche Kurzfassung seiner Arbeit unter dem gewagten Titel „Der CO2-Betrug, der größte Skandal der Wissenschaftsgesichte der Neuzeit?“ im Internet veröffentlicht. Seither ist Becks Arbeit Gegenstand heftigster Polemik. Inzwischen gibt es allein unter der Internet-Adresse, auf der Becks Artikel erschien, an die 500 mehr oder weniger kritische Stellungsnahmen.

Die von Beck aufgrund älterer chemischer Messungen in Europa rekonstruierte Kurve der historischen Entwicklung der atmosphärischen CO2-Konzentration unterscheidet sich in auffälliger Weise von der vom IPCC veröffentlichten Kurve, die vor 1958 in der Hauptsache auf der Analyse der Lufteinschlüsse von Eisbohrkernen beruht. Diese Analysen spiegeln allerdings nur in den oberen Eisschichten die absoluten CO2-Konzentrationen wider. Schon in wenigen Metern Tiefe liegt die eingeschlossene Luft wegen des wachsenden Drucks nicht mehr in Form von Bläschen vor, sondern fest gebunden in Clathraten, deren Analyse bestenfalls gerade noch Aufschluss über die relativen Konzentrationen ihrer Bestandteile gibt, aber kaum noch etwas über die früher vorhandene reale CO2-Konzentration in der Luft aussagt. Insofern sind die in wissenschaftlichen Veröffentlichungen dokumentierten historischen CO2-Bestimmungen von großem Interesse.

Die Korrektheit der von Beck gesammelten und ausgewerteten historischen CO2-Messungen steht wohl außer Frage. Immerhin zählen zu deren Autoren Persönlichkeiten wie der Nobelpreisträger Otto Warburg und der durch das Linde-Lufttrennverfahren bekannt gewordene Paul Schuftan, deren Messtechniken über allen Zweifel erhaben scheinen. Doch bleibt die Frage, ob die korrekt gemessenen Konzentrationen auch als repräsentativ für die jeweilige globale Durchschnittskonzentration gelten können. So wies Urs Neu vom Pro Clim – Forum for Climate and Global Change der Swiss Academy of Sciences, Bern, im Internet darauf hin, dass Beck Messungen aufführt, die beinahe zur gleichen Zeit vorgenommen wurden, aber zu weit voneinander abweichenden Ergebnissen gelangten. Das sei ein Hinweis auf die fehlende Representativität der von Beck zitierten Messwerte, meint Neu. Außerdem seien Beck bei der Auswertung der unterschiedlichen Messreihen Fehler in der Kalibrierung und Skalierung unterlaufen, die an Manipulation grenzten.

Ähnlich argumentiert Prof. Stefan Rahmstorf vom Potsdam Institut für Klimafolgenforschung (PIK) auf der Internet-Seite „RealClimate“. Rahmstorf knöpft sich hauptsächlich Becks Darstellung der aus Proxydaten (fossile Baumringe, Stalagmiten usw) rekonstruierten Temperaturkurve der vergangenen 1000 Jahre vor, die schon einmal 1990 im 1. IPCC-Bericht gezeigt wurde. Danach war es in der mittelalterlichen Warmzeit, als auf Grönland Weizen angebaut wurde und Kühe grasten, deutlich wärmer und in der darauf folgenden „Kleinen Eiszeit“ erheblich kühler als heute. Rahmstorf streitet ab, dass es im Hochmittelalter tatsächlich wärmer war als heute und verteidigt die erstmals im IPCC-Bericht von 2001 gezeigte „Hockey-Schläger“-Temperatur-Rekonstruktion von Michael Mann et al. Diese Kurve hat in etwas modifizierter Weise auch Eingang in den neuesten IPCC-Bericht gefunden. Danach ist die heutige Durchschnittstemperatur der Erde deutlich höher als jemals zuvor in den letzten 1000 Jahren, was in den Massenmedien als Zeichen einer drohenden „Klimakatastrophe“ gedeutet wird.

Immerhin haben die Kanadier Steve McIntyre und Ross McKitrick Manns „Hockey-Schläger-Kurve“ schon vor zwei Jahren in den „Geophysical Research Letters“, dem Organ der US Geophysical Society, einer fundierten Methodenkritik unterzogen und als statistisches Artefakt entlarvt. Und wie will Stefan Rahmstorf mit der vom IPCC akzeptierten Temperaturkurve erklären, dass bis ins 12. Jahrhundert, durch zahlreiche Knochenfunde belegt, auf Grönland tatsächlich Viehzucht betrieben wurde? Es scheint, dass das letzte Wort in Sachen CO2 und Klima noch nicht gesprochen ist.

Edgar Gärtner

(erschienen in: Chemische Rundschau Nr. 9/2007, VS-Medien, CH-Solothurn)

Rahmstorf entlarvt sich selbst

Bürgerfreundliche Abfallverwertung statt Müllkartell

Bürgerfreundliche Abfallverwertung statt Müllkartell

Von Edgar Gärtner

Dem Bundeskartellamt ist das Monopol der Duales System Deutschland AG (DSD) und der mit ihm über Leistungsverträge verflochtenen Mitgliedsfirmen des Bundesverbandes der Deutschen Entsorgungswirtschaft (BDE) seit längerem ein Dorn im Auge. Nach der Auswertung einer Ende 2001 angeordneten Durchsuchung der Geschäftsräume von DSD und BDE sowie einiger Spitzenverbände des Handels hat das Bundeskartellamt nun gegen das DSD und Entsorgungsunternehmen wie RWE Umwelt (Ex-Trienekens) ein zweites Verfahren wegen „Verstoß gegen das kartellrechtliche Boykottverbot“ eingeleitet.

Nach Aussage von Kartellamtspräsident Ulf Böge hat die großangelegte Durchsuchungsaktion den Verdacht erhärtet, dass die genannten Verbände die für die Entsorgung zuständigen Gebietskörperschaften dazu aufgerufen haben, die Mainzer Firma Landbell zu boykottieren. Landbell versucht seit drei Jahren, ein konkurrierendes System zum Grünen Punkt des DSD aufzubauen. DSD-Chef Wolfram Brück habe die Entsorgungsunternehmen schriftlich aufgefordert, nicht mit Landbell zusammenzuarbeiten.

Nach Auskunft des Online-Nachrichtendienstes www.ne-na.de versuchte die vom DSD beauftragte Stuttgarter Anwaltskanzlei Gleiss, Lutz, Hootz und Hirsch den Entsorgungsverband Saar (EVS) und das saarländische Umweltministerium von einer Zusammenarbeit mit Landbell abzubringen, indem sie behauptet, diese stehe der Abstimmungserklärung mit dem DSD entgegen. Dem entsprechend beschieden die EVS-Geschäftsführer das Angebot des Landbell-Geschäftsführers Wolfgang Schertz mit folgender Absage, die an Deutlichkeit kaum zu wünschen übrig lässt: „Abgesehen davon, dass es der EVS gewohnt ist, von ihm abgeschlossene Verträge korrekt einzuhalten, besteht auch unsererseits kein wirtschaftliches Interesse daran, der DSD AG in Köln irgendeinen Vorwand zu liefern, diesen Leistungsvertrag vorzeitig zu kündigen.“

Nur Pech für das Müllkartell, dass die EU-Kommission letztes Jahr entschieden hat, dass Wettbewerber die Infrastruktur des Grünen Punktes, ähnlich wie Wettbewerber auf dem Strom- oder Telekommunikationsmarkt, mitbenutzen dürfen. Nun drohen den aktiv am Boykott von Landbell und anderen Wettbewerbern beteiligten Strafen von bis zu 500.000 Euro.

Inzwischen mehren sich auch von Seiten der Wissenschaft die Stimmen, die eine Abkehr vom Dogma der Hausmülltrennung und der damit verbundenen privilegierten Stellung des DSD sowie der von ihm auf Gedeih und Verderb abhängigen privaten Müllsammler und –verwerter fordern. So wies etwa Prof. Ernst Ulrich von Weizsäcker, der frühere Präsident des Wuppertal Instituts für Klima-Umwelt-Energie, der nun für die SPD im Bundestag sitzt, zwei Tage nach der Bundestagswahl auf einer Tagung in Wetzlar auf die blamable Ökobilanz des Grünen Punktes hin: „Den Verbrauchern sollte endlich reiner Wein eingeschenkt werden. Das DSD tut so, als sei der Grüne Punkt ein wichtiger Beitrag für den Umweltschutz. Dem ist aber nicht so. Und zudem ist das DSD viel zu teuer.“

Martin Kaimer von der Akademie für Technikfolgenabschätzung in Baden-Württemberg rechnete in Wetzlar vor: „Durch das Recycling von Leichtverpackungen wurden nach Angaben des Grünen Punktes im vergangenen Jahr 400.000 Tonnen Kohlendioxid eingespart. Das entspricht 128 Millionen Litern Heizöl. Doch diese Einsparung kostete umgerechnet über 14 Euro pro Liter. Das ist etwa das 21-fache des derzeitigen Dieselpreises!“

Kein Wunder, dass das Bundesumweltministerium (BMU) sich angesichts dieser Bilanz inzwischen mit der lange Zeit verteufelten Müllverbrennung angefreundet hat. „Als mein Dienstherr Bundesumweltminister Jürgen Trittin sein Amt antrat, gehörte er wie die meisten Grünen zu den Gegnern der Abfallverbrennung. Heute hat er mit Müllverbrennungsanlagen keine Probleme mehr, sofern diese die geltenden strengen Abluft-Grenzwerte einhalten. Denn er weiß, dass bei der Verbrennung höchstens halb so viel Treibhausgase freigesetzt werden wie bei der Deponierung von Abfällen.“ So resümiert Dr. Helmut Schnurer, Leiter der Unterabteilung Abfallwirtschaft im BMU, den Lernprozess der letzten Jahre.

Aus Kostengründen setzt das BMU dabei verstärkt auf das bislang umstrittene Trockenstabilatverfahren der hessischen Firma Herhof. Dieses Verfahren nutzt die bei der siebentägigen Verrottung von unsortiertem feuchten Hausmüll in geschlossenen Rotteboxen entstehende Wärme zu dessen Trocknung. Der trockene Abfall lässt sich in vollautomatischen Sortieranlagen leicht von Störstoffen wie Batterien, Metallteilen, Glas, Keramik, Steinen und Sand befreien. Diese können energiesparend und gewinnbringend verwertet werden. Das gilt vor allem für energieaufwändig gewonnene Nichteisen-Metalle wie Aluminium, Kupfer usw. Das übrig bleibende organische Material (Trockenstabilat) eignet sich wegen seines hohen Brennwertes als Ersatzbrennstoff in Zementwerken und Papierfabriken oder als Rohstoff für die Methanerzeugung.

In einer mit Diethard Schade an der Stuttgarter Technikfolgen-Akademie erstellten Studie hat Martin Kaimer festgestellt, dass die Normalbürger mit dem derzeitigen Mülltrennsystem mithilfe von vier oder fünf verschiedenen Tonnen überfordert sind. In den Gelben Tonnen finden sich bis zu 50 Prozent Gegenstände, die dort nicht hineingehören. Umgekehrt findet sich in den Grauen Restmülltonnen ein vergleichbarer Prozentsatz von ausgedienten Verpackungen mit dem Grünen Punkt. Um die im Hausmüll enthaltenen Wertstoffe nutzen zu können, ist meist eine aufwändige Nachsortierung nötig.

Aufgrund der Erfahrungen mit der automatischen Mülltrennung in den Trockenstabilatanlagen von Aßlar im hessischen Lahn-Dill-Kreis, Rennerod im Westerwald und Dresden schlägt Kaimer deshalb vor, in Zukunft (wie vor dem Aufbau des DSD) nur noch Papier, Karton, Glasflaschen und Textilien sowie größere Kunststoffbehälter, deren werkstoffliche Verwertung sich rechnet, getrennt zu sammeln. Alles andere (auch die stinkenden Bioabfälle) soll mit möglichst hohem Nutzungsgrad verbrannt werden. Helmut Schnurer vom BMU hat dafür sogar eine Förderung nach dem Erneuerbare-Energie-Gesetz (EEG) in Aussicht gestellt.

(erschienen 2002 in: Chemische Rundschau)

Abfallpolitik in Europa

Die Europäische Union revidiert ihre Abfallrahmenrichtlinie. Rechtsunsicherheiten sollten ausgeräumt und die Abfallmengen von der Produktionssteigerung entkoppelt werden. Großen Streit gab es über die Vorzüge der Abfallverbrennung, die Art der Kunststoffverwertung und die Rolle der Kommunen im Verhältnis zur Privatwirtschaft. Der Trend geht in Richtung kommunale Planwirtschaft.

EU-Abfall-Rahmenrichtlinie

Europa auf dem Wege in die Recycling-Gesellschaft?

Die Europäische Union revidiert ihre Abfallrahmenrichtlinie. Rechtsunsicherheiten sollen ausgeräumt und die Abfallmengen von der Produktionssteigerung entkoppelt werden. Großen Streit gab es über die Rolle der Abfallverbrennung und der Kommunen im Verhältnis zur Privatwirtschaft. Im Juni 2008 einigten Parlamentarier und Bürokraten auf einen Kompromiss.

Am 17. Juni 2008 hat das Europa-Parlament (EP) in Strassburg in zweiter Lesung der Kompromissfassung einer Revision der EU-Abfall-Rahmenrichtlinie zugestimmt, der zwar den Interessen der Industrie entgegenkommt, gleichzeitig aber auch Bestrebungen einer Rekommunalisierung der Abfallwirtschaft fördert. Wäre es hingegen nach dem Willen der übergroßen Mehrheit des Umweltausschusses des EP gegangen, bekäme die europäische Abfallwirtschaft schon bald große Ähnlichkeit mit dem Sero-System der untergegangenen DDR. (Für die, die damit nichts anzufangen wissen: Mithilfe des Sero-Systems gewann die sozialistische Wirtschaft, um knappe Devisen zu sparen, mit wirtschaftlich unvertretbar hohem Aufwand Sekundärrohstoffe.) Der liberale Europa-Abgeordnete Holger Krahmer (Leipzig), umweltpolitischer Sprecher der FDP im EP, hat als durchgängiges Motiv der am 8. April 2008 vorgelegten Stellungnahme des Umweltausschusses zum Ratsentwurf („Gemeinsamer Standpunkt“) der neuen Richtlinie die „Verliebtheit in die Planwirtschaft“ ausgemacht. Das sagte der Ex-Marxist auf einem Symposium der tecpol GmbH für ökoeffiziente Polymerverwertung und der BKV Plattform für Kunststoff und Verwertung in Frankfurt.

Alle Vorschläge des Ausschusses, so Krahmer, laufen auf mehr Bürokratie hinaus. Die Abfalldefinition sei keineswegs klarer geworden. Werde sie beibehalten, mache die Abgrenzung zwischen Produkten und Abfällen mühsame Abstimmungsverfahren notwendig, die obendrein in verschiedenen Mitgliedsländern der EU zu unterschiedlichen Ergebnissen führen dürften. Die Abfallverbrennung werde von den Parlamentariern nur in sehr eingeschränktem Maße als sinnvolle Verwertung anerkannt. Zudem werde die grenzüberschreitende Privatisierung der Abfallwirtschaft erschwert und der Rekommunalisierung Vorschub geleistet, ohne dem unerwünschten „Mülltourismus“ die Grundlage zu entziehen.

Als die EU-Kommission im Dezember 2005 die Revision alten der Abfallrahmenrichtlinie von 1975 auf den Weg brachte, wurde sie im Wesentlichen von zwei Motiven geleitet:

• Die gewünschte Entkopplung der Abfallmengen von der steigenden Arbeitsproduktivität sei nicht beobachtbar. Es bedürfe bindender nationaler Recyclingziele, um zu greifbaren Ergebnissen zu gelangen. Ziel der EU müsse die Überwindung der Wegwerf-Mentalität in einer „Recycling-Gesellschaft“ sein.

• Die Rechtsunsicherheiten bei der Abgrenzung zwischen Produkt und Abfall sowie zwischen der Verwertung und der Beseitigung von Abfällen sollen ausgeräumt werden.

Ähnlich wie REACh unterlag auch die Revision der Abfallrichtlinie, die in Brüssel unter dem Kürzel WFD (Waste Framework Directive) zirkuliert, dem für Außenstehende kaum verständlichen Mitentscheidungsverfahren, bei dem es zu einem kompliziert erscheinenden Hin und Her zwischen Kommission, Parlament und Rat kommt. In einem „Trilog“ in der Endphase der Auseinandersetzung versuchen die Gremien dann zu vermeiden, dass das Gesetzesvorhaben in einem finalen „Showdown“ untergeht. Bis September 2006 waren zum Kommissionsvorschlag von 2005 über 600 Änderungsanträge eingegangen. Nach seiner 1. Lesung im Europa-Parlament Ende Februar 2007 zeichnete sich ein Einvernehmen zwischen Parlament und Rat über folgende Ziele ab:

• Stabilisierung des gesamten Abfallaufkommens der EU (derzeit jährlich 1,8 Milliarden Tonnen) bis 2012,

• verbindliche Recyclingziele bis 2020 von 50 Prozent für Siedlungsabfälle und 70 Prozent für Bauschutt.

Dabei muss man wissen, dass in einigen EU-Mitgliedsstaaten heute noch 90 Prozent der Siedlungsabfälle auf Deponien gehen, in anderen aber nur noch 10 Prozent.

Unterschiedliche Ansichten gab es hinsichtlich der Hierarchie der Abfallbehandlung. Als oberstes Ziel der Abfallpolitik sah schon die Kommission in ihrem Vorschlag die Abfallvermeidung. Während aber die Kommission die fünfstufige Hierarchie von Vermeidung, Wiederverwendung, Recycling, sonstige Verwertung und Beseitigung nur im Sinne einer Leitlinie verstand, forderte die Mehrheit des EP eine dirigistische Regelung und sah dabei obendrein die Abfallverbrennung überwiegend nicht als sinnvolle Verwertung, sondern als minderwertige Beseitigung von Abfällen an. Nur die Verbrennung in hoch energieeffizienten Anlagen mit einem Stützfeuerungsanteil von weniger als 39 Prozent Primärenergie sollte als Verwertung zugelassen werden. Diese höchst umstrittene Einschränkung wurde im April 2008 vom Umweltausschuss des EP mit einer knappen Mehrheit von 29 zu 24 Stimmen bestätigt. Die Mehrheit der Ausschussmitglieder erklärte die Deponierung und die Verbrennung von Abfällen für gleichermaßen unerwünscht. Damit fielen die Europa-Parlamentarier hinter den im deutschen Kreislaufwirtschaftsgesetz von 1994 und in der deutschen Praxis der Genehmigung von Abfallverbrennungsanlagen erreichten Erkenntnisstand zurück. Es steht in Deutschland heute selbst bei den Grünen außer Zweifel, dass mit modernen Filtern ausgerüstete Kehrricht-Verbrennungsanlagen effiziente Senken für Dioxine, Quecksilber, Cadmium und andere Schadstoffe darstellen.

Industrieverbände, allen voran PlasticsEurope, die Vereinigung der europäischen Kunststoffhersteller, forderten demgegenüber eine flexible, d.h. stoff- und produktbezogene Hierarchie, die Lebenszyklusanalysen Rechnung trägt. Diese Analysen kamen im Falle der Verwertung ausgedienter Kunststoffverpackungen übereinstimmend zum Schluss, dass ein Anteil des werkstofflichen Recyclings in der Größenordnung von 15 bis 25 Prozent optimal ist. Eine höhere Wiederverwertungsquote bringe nicht nur rasch steigende Kosten mit sich, sondern führe gegenüber der Verbrennung oder der rohstofflichen Verwertung von Plastikabfällen in der Stahlindustrie auch zu sinkender Öko-Effizienz. PlasticsEurope erinnert daran, dass Kunststoffabfälle sozusagen „eingefrorenes Öl“ darstellen und aufgrund ihres hohen Heizwertes andere Brennstoffe ökologisch sinnvoll ersetzen können. Die Kunststofferzeuger befürworten daher eine weite Recyclingdefinition, die auch die rohstoffliche Verwertung von Kunststoffresten als Reduktionsmittel in Hochöfen einschließt, sowie die Anerkennung der energetischen Nutzung von Plastikabfällen als Verwertung.

Eine solche weite Definition des Recycling war auch im ursprünglichen Richtlinien-Vorschlag der Kommission enthalten. Es hieß dort, Recycling ist „die Verwertung von Abfall in Produkte, Werkstoffe oder Rohstoffe, entweder für den ursprünglichen Zweck oder für andere Zwecke. Es schließt eine energetische Verwertung nicht mit ein.“ Diese Definition ging in den Ende 2007 veröffentlichten „Gemeinsamen Standpunkt“ des Rates ein. Doch der Umweltausschuss des EP schloss sich einem im März 2008 vorgelegten Änderungsantrag an, der die Anerkennung des Einsatzes von Kunststoffabfällen als Reduktionsmittel als rohstoffliches Recycling ausschließt. PlasticsEurope machte sich selbstverständlich für die weite Recycling-Definition der EU-Kommission stark. Der Verband hat dabei vor allem die Verwertung von etwa 400.000 Tonnen geshredderten Kunststoffverpackungen mit dem „Grünen Punkt“ aus der Sammlung des Dualen Systems Deutschland (DSD) und der Kunststoff-Fraktion von geshredderten Altautos in Hochöfen der österreichischen Voestalpine Stahl, in Schmelzöfen der belgischen Umicore und weitere Projekte in Salzgitter im Auge. Insgesamt, so Dr. Ingo Sartorius von PlasticsEurope, müssten für über 600.000 Tonnen Kunststoffabfälle neue Verwertungsmöglichkeiten gefunden werden, hätte sich die enge Recycling-Definition durchgesetzt.

Sowohl die deutsche Industrie als auch die Berliner Regierung machten sich für die Verwertungsdefinition der Kommission wie auch des gemeinsamen Standpunktes des Rates stark. Danach gelten als Abfallverwertung Verfahren, „in deren Ergebnis die Abfälle einem sinnvollen Zweck zugeführt werden, so dass andere Ressourcen, die für diesen Zweck eingesetzt worden wären, innerhalb oder außerhalb der Anlage ersetzt werden…“ Nur eine solche Definition erlaube eine Verbindung zwischen Materialwirtschaft und Energiegewinnung im Sinne der Ressourcen- und Energieeffizienz. Deutschland drängte deshalb darauf, die Revision der WFD noch vor Ablauf der slowenischen EU-Präsidentschaft durch die 2. Lesung des EP-Plenums und die 2. Lesung des Rates zu bringen.

Den Durchbruch brachte ein „Trilog“ am 2. Juni 2008. Es kam dort zwischen der Kommission, dem Rat und dem Parlament zu einem Kompromiss, dessen Kern der Verzicht der von der EP-Mehrheit im Februar 2007 in der 1. Lesung geforderten verbindlichen nationalen Abfallvermeidungszielen darstellt. Danach sollte die Abfallproduktion bis zum Jahre 2012 auf dem Niveau von 2009 eingefroren werden. Stattdessen bekommen die nationalen Regierungen nun eine Frist von fünf Jahren nach Inkrafttreten der Richtlinie, um Abfallvermeidungsprogramme auf den Weg zu bringen. Dafür mussten die Kommission und die in dieser Frage hinter ihr stehende Privatwirtschaft Einschränkungen der Freizügigkeit auf dem europäischen Binnenmarkt akzeptieren. Die Behandlung gemischter Haushaltsabfälle soll Bestandteil der „kommunalen Daseinsvorsorge“ bleiben. Dr. Rainer Cosson sprach als kommissarischer Hauptgeschäftsführer des Bundesverbandes der Deutschen Entsorgungswirtschaft (BDE) von einem „Rückfall in die Kleinstaaterei.“ Immerhin sollen getrennt gesammelte Verpackungsabfälle, nach Aussage von EU-Umweltkommissar Stavros Dimas, weiterhin grenzüberschreitend verwertet werden können.

So stehen nun die Chancen für die Durchsetzung der weiten Recycling- und Verwertungsdefinitionen auf nationaler Ebene gut. Die neue WFD wird Anfang 2009 in Kraft treten und müsste bis Ende 2010 in nationales Recht umgesetzt werden. Wäre es im Juni 2008 nicht zu einer Einigung gekommen, hätte ein Vermittlungsverfahren mit ungewissem Ausgang in die Wege geleitet werden müssen. Angesichts der bevorstehenden Europawahlen wollte kaum jemand dieses Risiko eingehen.

Edgar Gärtner

(erschienen in: CR-Chemische Rundschau Nr. 8 vom 14. August 2008, VS-Medien AG, CH-Solothurn)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

EU-Abfallstudie

Chancen für das PVC-Recycling

Die Kunststoffindustrie gehört zu den dynamischsten Industriezweigen Europas. Nach dem 17. Bericht über Produktion, Verbrauch und Verwertung von Kunststoffen, den die europäischen Hersteller, Verarbeiter und Wiederverwerter von Kunststoffen vor kurzem unter dem Titel „Compelling Facts about Plastics 2006“ vorgelegt haben, wuchs die Gesamtnachfrage nach Kunststoffen in Europa (einschließlich der Schweiz und Norwegens) im Jahre 2006 mit vier Prozent doppelt so schnell wie das Bruttoinlandsprodukt (BIP) und erreichte eine Gesamtmenge von beinahe 50 Millionen Tonnen. Etwa die Hälfte davon wurde nach dem Gebrauch werkstofflich, rohstofflich oder energetisch wiederverwertet. Dabei gab es große Unterschiede zwischen den Ländern. Während in sieben von ihnen die Wiederverwertungsrate bereits über 80 Prozent lag, haben andere noch einen beträchtlichen Nachholbedarf. In der Hälfte der EU-Mitgliedsländen liegen die Verwertungsraten noch unter 30 Prozent.

Fast zur gleichen Zeit erschien auch eine vom Joint Research Center der EU-Kommission Institute for Prospective Technological Studies (JRC/IPTS) beim GAIKER Centro Tecnológico in Sevilla/Spanien in Auftrag gegebene Studie über die ökologischen Perspektiven der Verwertung von Altkunststoffen bis zum Jahre 2015 unter dem Titel „Assessment of the Environmental Advantages and Drawbacks of Existing and Emerging Polymers Recovery Processes“ (Autoren: Clara Delgado, Leire Barruetabeña, Oscar Salas). Diese Studie, die mit älteren Zahlen arbeitet, untersucht, wie die Vorgaben der EU-Verpackungsverordnung von 1994, der Altauto-Verordnung von 2000 und der Elektro- bzw. Elektronikschrott-Verordnung von 2002 sowie der EU-Direktive über eine Integrierte Produktpolitik (IPPC) von 2005 bei verschiedenen Kunststoffarten umgesetzt werden können. Dabei gehen die Autoren auch auf die Wiederverwertung von PVC-Abfällen ein, obwohl PVC mengenmäßig im Vergleich zu leichtem und schwerem PE zu den weniger bedeutenden Kunststoffströmen gehört. Aus mehreren Gründen steht die PVC-Verwertung vor besonderen Problemen.

Zum einen ist die Verwendung von PVC als kurzlebiges Verpackungsmaterial nur noch von geringer Bedeutung, während hier der Einsatz konkurrierender Kunststoffe wie PE, PET und PP zum Teil explosionsartig zugenommen hat. Dementsprechend findet sich im Hausmüll im Schnitt nur noch etwa ein Prozent PVC. Gleichzeitig hat der Einsatz von PVC als langlebiger Werkstoff am Bau (vor allem in Form von Rohren, Fensterprofilen, Fußbodenbelägen und Dachbahnen) an Bedeutung gewonnen, wobei enorme Spannbreiten in der Lebensdauer, aber auch Unterschiede zwischen vergleichbaren EU-Ländern ins Auge springen. Es gibt PVC-Abwasserrohre, die seit der Vorkriegszeit, d.h. seit 80 Jahren im Gebrauch sind oder, falls sie nicht mehr benutzt werden, unter der Erde bleiben und in dieser Form kein Abfallproblem darstellen. Auch ausgebaute Fenster bzw. deren PVC-Rahmen werden nur zum Teil zu Abfall, weil es insbesondere in den ärmeren ost- und südeuropäischen Ländern einen Markt für Gebrauchtfenster gibt. Ein wichtiger Stoffstrom vom Bau, die Kabelverwertung, die wegen des starken Anstiegs der Kupferpreise in den letzten Jahren rasch an Bedeutung gewonnen hat, wird bislang in Kunststoffstatistiken nicht erfasst, weil sich die Kabelzerleger in erster Linie als Altmetall- und nicht als Kunststoffverwerter sehen. Deshalb sind im Bausektor insgesamt nur grob überschlägige Berechnungen der PVC-Verwertung möglich. Die JRC/IPTS-Studie stellt lediglich fest, dass die Verwertungsrate von Alt-PVC (die die Autoren ohne Berücksichtigung der Kabel europaweit auf 10 Prozent schätzen) hier stark von freiwilligen Recycling-Initiativen der PVC-Verarbeiter abhängt. Diese Initiativen sind seit Anfang der 90iger Jahre zunächst in den Niederlanden und Deutschland für Rohre, Bodenbeläge Fenster und Dachbahnen aufgebaut worden. Seit 2005 fördert die PVC-Branche die Anlieferung von PVC-Abfällen durch finanzielle Anreize. Ein Beispiel dafür ist das vor allem in Großbritannien, den Niederlanden und in Frankreich eingeführte Recovinyl-System.

Zum andern hängt die Entwicklung des Einsatzes von Kunststoffen im Bausektor stark von Mode- bzw. Image-Trends ab. Während PVC-Fensterprofile in Deutschland inzwischen einen Marktanteil von über 50 Prozent erobert haben, ist ihr Einsatz im Nachbarland Frankreich rückläufig. Welcher Trend sich durchsetzen wird, ist nicht ausgemacht. Um die Vorteile von PVC als haltbarer sowie ressourcen- und energieeffizienter Werkstoff herauszustellen, haben über 20.000 im Nachhaltigkeits-Programm „Vinyl 2010“ zusammengeschlossene europäische PVC-Hersteller und –Verarbeiter sowie Lieferanten von Additiven im März 2000 eine freiwillige Selbstverpflichtung gegenüber der EU-Kommission abgegeben. Dazu gehört neben dem Verzicht auf die Verwendung bedenklicher Cadmium-Stabilisatoren ab 2001 und dem Versprechen, bleihaltige Stabilisatoren bis 2015 schrittweise durch harmlosere Additive zu ersetzen, auch die Zusage, bis zum Jahre 2010 zusätzlich mindestens 200.000 Tonnen Nach-Gebrauchs-PVC-Abfälle, die noch keiner Regulierung unterliegen, sinnvoll zu verwerten.

Dabei steht das werkstoffliche Recycling im Vordergrund. Dieses schneidet nach dem in der JRC/IPTS-Studie enthaltenen Ranking der Kunststoff-Verwertungswege auch am besten ab. Die Autoren der Studie erwarten, dass im Jahre 2015 insgesamt etwa 24 Millionen Tonnen ausgediente Kunststoffe (davon fast 16 Millionen Tonnen Verpackungsabfälle) in den Siedlungsabfall gelangen. Den Löwenanteil machen dabei (mit 38 bzw. 17 Prozent) LDPE und HDPE aus. Es folgen 15 Prozent PET, 13 Prozent PP und 10 Prozent PS. PVC-Reste gehören mit einem Anteil von 4 Prozent zu den weniger bedeutenden Bestandteilen des Siedlungsabfalls. Größer wäre der PVC-Anteil mit 12 Prozent (gegenüber gut 36 Prozent PP und 22 Prozent PUR in geshredderten Altautos. Die Autoren der Studie schätzen, dass bis 2015 68 bis 83 Prozent der untersuchten PVC-Abfälle eingesammelt werden können. Am bedeutendsten bleibt der PVC-Anteil mit 56 Prozent (gegenüber 63 Prozent im Jahre 2005) in der Kunststofffraktion des Bauschutts. Schätzungsweise 1,12 Mio. Tonnen (gegenüber 660.000 Tonnen im Jahre 2005) würden davon verwertet. Auch wenn die Gesamtverwertungsquote im Szenario einer angenommenen Bevorzugung des werkstofflichen Recycling mit 46 Prozent vermutlich deutlich niedriger ausfallen wird als bei den anderen durchgerechneten Szenarien mit einem höheren Verbrennungsanteil, bringt dieses Szenario die größte Umweltentlastung.

Nach dem Fortschrittsbericht 2007 von „Vinyl 2010“ hat sich die zusätzlich recycelte Menge von Nach-Gebrauchs-PVC-Abfällen von Jahr zu Jahr mehr als verdoppelt: von 18.077 Tonnen im Jahre 2004 auf 38.793 Tonnen 2005 und 82.812 Tonnen 2006. Über sieben Millionen Euro schoss „Vinyl 2010“ im letzten Berichtsjahr verschiedenen Recycling-Projekten mit einem Gesamtvolumen von etwa 40.000 Tonnen Alt-PVC zu.

Für Deutschland hat die CONSULTIC Marketing & Industrieberatung GmbH in Alzenau für das Jahr 2005 folgende Zahlen ermittelt: Von 360.000 Tonnen Nach-Gebrauchs-PVC-Abfall insgesamt wurden 270.000 Tonnen (75 Prozent) verwertet. Davon 210.000 Tonnen (58 Prozent) überwiegend in Abfallverbrennungsanlagen energetisch und 60.000 Tonnen (17 Prozent) stofflich. 54.000 Tonnen (15 Prozent) davon wurden werkstofflich recycelt, der Rest rohstofflich. Der bedeutendste Teil dieses Abfallstroms (24.000 Tonnen) stammt nach der Analyse von CONSULTIC aus der Kabelzerlegung. 18.000 Tonen stammten aus anderen Quellen wie Verpackungen und 12.000 Tonnen gingen auf freiwillige Recycling-Initiativen der PVC-Verarbeiter zurück.

Nach Auskunft des führenden Kabelverwerters Cablo in Fehrbellin bei Berlin, der zu 100 Prozent Europas größter Kupferhütte Norddeutsche Affinerie gehört, liegt die aus Kabelschrott stammende wiederverwertete PVC-Menge in Deutschland, vorsichtig geschätzt, mit 60.000 Jahrestonnen deutlich über der von CONSULTIC angenommenen Menge. Hinzu komme eine unbekannte PVC-Menge aus Altkabeln, die nach China verschifft und dort in Handarbeit mit Taschenmessern, sauber nach Farben getrennt, von den Kupferdrähten abgelöst wird. „Dieses vorbildliche werkstoffliche Recycling ist bei uns leider unbezahlbar“, klagt Michael Landau von Cablo. Es ist nicht ausgeschlossen, dass auch in anderen EU-Ländern mehr PVC aus Kabelabfällen wiederverwertet als bisher bekannt. Das wirft das die Frage auf, ob es nicht für die Kunststoffbranche sinnvoll wäre, bereits funktionierende Wege der PVC-Verwertung besser zu erfassen und statistisch richtig einzuordnen.

Edgar Gärtner (veröffentlicht in: SwissPlastics, VS-Medien, CH-Solothurn, Nr. 4/2008)

Bio-Kunststoffe: Zwischen Faszination und Verwirrung

Von Edgar Gärtner

In einem Editorial der New York Times stand in diesem Frühjahr zu lesen: „Amerikaner schmeißen jedes Jahr 100 Milliarden Plastiktüten weg, Berge von Plastik, die 1000 Jahre halten können…“ Im gleichen Atemzug lobt die große linksliberale Zeitung San Francisco als erste US-Großstadt, die angefangen hat, die Ausgabe von Einkaufstüten aus biologisch nicht abbaubaren Kunststoffen in Gemüseläden und Apotheken zu verbieten. Da die Nation neuerdings nach Möglichkeiten des Energiesparens Ausschau halte, sollten Bundesstaaten und lokale Behörden darüber hinaus beginnen, die Verbraucher zum Einsatz wieder verwendbarer Tragetaschen anzuhalten.

In diesem kleinen Artikel finden sich gleich mehrere der Irrtümer, die in Sachen Bioplastik und Energiesparen herumgeistern. So ist die biologische Abbaubarkeit nicht unbedingt ein Hinweis auf eine biologische Herkunft der Rohstoffe. Nur ein Teil der in der freien Natur biologisch abbaubaren oder in industriemäßigen Rotteanlagen kompostierbaren Kunststoffe ist aus nachwachsenden Rohstoffen gemacht. Bio-Kunststoffe können auch aus herkömmlichen, ölbasierten Polymeren wie Polyester bestehen, deren Molekülketten chemisch so abgewandelt werden, dass sie für Mikroorganismen wie Pilze und Bakterien verwertbar werden. Die häufigste Anwendungsform ist eine Mischung dieser Polymere fossilen Ursprungs mit abbaubaren Komponenten biologischen Ursprungs wie zum Beispiel Kartoffel-Stärke (so genannte „Blends“).

Die Kompostierbarkeit von Verpackungen bzw. von Kunststoffen wird in Europa durch die Norm EN 13432 bzw. DIN EN 14995 definiert. Nicht alle biologisch abbaubaren Stoffe sind auch kompostierbar. Umgekehrt sind nicht alle kompostierbaren Stoffe unter allen Umständen biologisch abbaubar. In großtechnischen Kompostierungsanlagen läuft die Rotte unter streng kontrollierten Bedingungen wie zum Beispiel einer bestimmten Feuchte und einer Mindesttemperatur von 60 Grad Celsius ab. Wo solche Bedingungen in der freien Natur nicht gegeben sind, kann die Zersetzung kompostierbarer Kunststoffe Jahre beanspruchen. Auch so genannte „Grünabfälle“, wie Holz und andere Gartenabfälle zersetzen sich sehr langsam, wenn sie nicht den für den Abbau geeigneten Bedingungen eines Komposters unterliegen.

Kompostierbare Plastiktüten sind also nicht geeignet, dem so genannten Littering-Problem, dem achtlosen Wegwerfen von Verpackungen aller Art in die Landschaft beizukommen. Sie können sogar zum Glauben verleiten, die Natur werde mit diesen weggeworfenen kompostierbaren Tüten schon alleine fertig, und damit das Littering-Problem noch verschärfen.

Der Anteil aller Biokunststoffe am gesamten Kunststoffmarkt war im Jahre 2005 noch sehr gering. Er betrug in Europa gerade einmal 50.000 Tonnen von einem Gesamtverbrauch von fast 50 Millionen Tonnen Kunststoff, d. h. etwa ein Prozent. Einige EU-Länder versuchen, den Anteil der Biokunststoffe durch staatliche Eingriffe in den Markt zu steigern. Oft geht es dabei aber nur vordergründig um die Belange des Umweltschutzes oder der Ressourcenschonung. Denn wie das Beispiel des Littering kompostierbarer Plastikbeutel zeigt, sind Biokunststoffe nicht grundsätzlich umweltfreundlicher als herkömmliche Polymere.

Deshalb geriet der Versuch der französischen Regierung, per Dekret die Ausgabe nicht biologisch abbaubarer Kunststoff-Tragetaschen an den Kassen von Supermärkten zu verbieten, unter den Verdacht, in Wirklichkeit auf die Förderung französischer Agrarinteressen und auf die Abschottung französischer Märkte abzuzielen. Der Entwurf des französischen Dekrets bezieht sich lediglich auf einen bestimmten Typ von Plastiktüten, deren Gesamtmenge von jährlich 85.000 Tonnen gerade einmal 0,3 Prozent der französischen Haushaltsabfälle ausmacht. Würde zu deren Produktion jedoch Kartoffelstärke eingesetzt, könnte der Absatz von Stärkekartoffeln in Frankreich um 50 Prozent gesteigert werden. Das zeigt, dass die französische Regierung mit ihrem Dekretentwurf nicht Abfallprobleme, sondern die Agrarförderung im Auge hatte.

PlasticsEurope, die Vertretung der europäischen Kunststoffhersteller, hat im Oktober 2006 und noch einmal im Mai 2007 in einem Schreiben an die EU-Generaldirektion Unternehmen und Industrie formell gegen den französischen Vorstoß Beschwerde eingelegt. Selbst die französische Umwelt- und Energieeffizienzbehörde ADEME warnte in der Auswertung einer 2004 für die Supermarktkette „Carrefour“ erstellten vergleichenden Produkt-Lebensweg-Analyse davor, den Einsatz biologisch abbaubarer Kunststoffe für Tragetaschen als per se umweltschonend hinzustellen. Die energetische Verwertung, d.h. die kontrollierte Verbrennung von Kunststoffabfällen in Abfallverbrennungsanlagen mit moderner Filtertechnik schneidet in Lebenszyklusanalysen oft besser ab als die Kompostierung. In Deutschland hat dies eine umfassende Ökobilanz des BIfA, Bayerisches Institut für Angewandte Umweltforschung in Augsburg, über die Verwertungsmöglichkeiten kompostierbarer Verpackungschips bestätigt. Die Untersuchung wurde nach den anerkannten Regeln gemäß der Norm ISO 14040 ff. durchgeführt und bereits im Jahr 2000 fertig gestellt.

Somit ist es nicht sinnvoll, Werkstoffen eine bestimmte Rohstoffbasis oder einen konkreten Entsorgungsweg vorzuschreiben. Kriterien für die Auswahl der Rohstoffe können nur die Anforderungen sein, die verschiedene Märkte an Kunststoff-Artikel stellen. Bei den Verpackungen, dem größten Absatzmarkt der Kunststoffindustrie, sind das auf Seiten der Verbraucher die Nachfrage nach preiswerten, sicheren und bequemen, d. h. leichten, wieder verschließbaren und praktisch portionierbaren Verpackungen. Auf Seiten des Handels stehen mehr deren Lager- und Logistikfähigkeit sowie Diebstahlsicherung im Vordergrund. Bei den Abfüllern wiederum geht es eher um Eigenschaften wie Maschinengängigkeit und Normengerechtigkeit. Der Staat schließlich interessiert sich für die Konformität der Verpackungen mit dem Lebensmittel-, Eich- und Abfallrecht.

Weil Verpackungen aus synthetischen Kunststoffen diesen Kriterien oft am besten entsprechen, konnten sie ihren Marktanteil in den vergangenen Jahrzehnten in einem harten Wettbewerb zu Lasten von Verpackungen aus klassischen Werkstoffen wie Papier, Karton oder Holz stark ausweiten. Auch Produkte aus nachwachsenden Rohstoffen müssen sich diesem harten Wettbewerb stellen, um synthetische Kunststoffe zu verdrängen. Industrie- oder klimapolitisch motivierte Strategien zur Ausweitung des Marktanteils nachwachsender Rohstoffe sollten eher darauf abzielen, unterschiedlichen Verbrauchergruppen Produkte mit neuen Eigenschaften anzubieten oder einen Zusatznutzen zu vermitteln. Es gibt etliche Beispiele, die zeigen, dass sich Produkte aus bioabbaubaren Kunststoffen und/oder nachwachsenden Rohstoffen auf dem Markt gegenüber Standard-Kunststoffen aufgrund besserer Gebrauchseigenschaften wie z.B. der Abbaubarkeit bei bestimmten Medizinprodukten, der gesteuerten Wasserdampfdurchlässigkeit bei Verpackungen für frische Lebensmittel oder durch gutes Kosten-Leistungs-Verhältnis bei Naturfaserverbunden im Fahrzeugbau, sowie bei bioabbaubaren Mulchfolien in der Landwirtschaft durchsetzen. Besonderer Marktanreize bedarf es hierfür nicht. Vielmehr schaffen gleiche Wettbewerbsbedingungen die Voraussetzung für innovative Produktentwicklungen.

Nach einer Studie der Universität Utrecht und der Fraunhofer Gesellschaft aus dem Jahre 2004 könnte theoretisch etwa ein Drittel des europäischen Kunststoffbedarfs (über 15 Millionen Tonnen) durch Materialien aus Biomasse ersetzt werden. Dafür würden etwa 5 Millionen Hektar Land oder 2 bis 3 Prozent der Gesamt-Anbaufläche benötigt. Das wäre ohne weiteres machbar. Allerdings könnte es zu Konflikten um die Landnutzung kommen, sollte die Europäische Union ihre Pläne umsetzen, bis zum Jahre 2020 zwanzig Prozent der Treibstoffe durch Biosprit zu ersetzen. Denn dafür bräuchte man – je nach der angewandten Technologie – 30 bis 60 Millionen Hektar Land, d.h. bis zu einem Drittel der verfügbaren landwirtschaftlichen Nutzfläche. Dabei käme es zu einem Verdrängungswettbewerb. Eine breite Diskussion um die konkurrierende Nutzung der Agrarfläche für die Herstellung von Lebensmitteln, von Viehfutter oder von Rohstoffen steht aber noch aus.

Die Nutzung von Biomasse ist dennoch eine Chance, die der Industrie zur Verfügung stehende Rohstoffbasis zu verbreitern und gleichzeitig neue Geschäftsfelder zu erschließen. Denn prinzipiell kann jede Kohlenstoffquelle als Rohstoff für die Kunststoffproduktion eingesetzt werden. Wie sinnvoll aber die Ausweitung des Einsatzes nachwachsender Rohstoffe für die Herstellung von Werkstoffen mit neuen nützlichen Eigenschaften auch sein mag, für die Verminderung unserer Abhängigkeit von begrenzten Rohöl-Vorräten ist sie nicht geeignet. Denn auf die Kunststoffproduktion entfallen nur etwa 4 Prozent des gesamten europäischen Öl- und Gasverbrauchs. Bei ihrem Einsatz als Leichtbauteile, Dämmstoffe usw. ermöglichen es Kunststoffe jedoch, ein Vielfaches dieser Ölmenge beim Produktgebrauch einzusparen. Und nach dem Gebrauch steht uns die in ihnen gebundene Ölmenge nach wie vor zur energetischen Verwertung zur Verfügung. Die werkstoffliche Wiederverwertung von Kunststoffen ist demgegenüber nicht immer von Vorteil.

(erschienen in: SwissPlastics 8/2007)

Streit um die Bewertung von Rückständen der Abfallverbrennung

Edgar Gärtner und Andreas Oberholz*)

Das Wirtschaftswunder der Nachkriegszeit des 20. Jahrhunderts führte zu einer bedrohlichen Anhäufung von Rückständen von Produktion und Konsum. Allein in der alten (westdeutschen) Bundesrepublik entstanden schätzungsweise 50.000 Kippdeponien, von denen niemand genau wusste, was sie unter einer dünnen Bodenabdeckung mit Ziergrün alles verbargen. Nicht selten kam es in den Kippen zwischen verschiedenen Bestandteilen der abgelagerten Zivilisationsrückstände zu unkontrollierten chemischen Reaktionen und in deren Folge zum Austritt brennbarer Gase und/oder giftiger Abwässer. So erklärte die Bundesregierung im Jahre 1972, ein Jahr nach der Verabschiedung des ersten umfassenden Umweltprogramms, mit dem Gesetz über die Beseitigung von Abfällen die Abfallentsorgung zur öffentlichen Aufgabe.

Die mit diesem Gesetz eingeführte völlige Trennung zwischen öffentlicher Abfallbeseitigung und Marktwirtschaft ließ sich in der Praxis aber nicht lange aufrecht erhalten. 1986 wurde das Gesetz von 1972 novelliert – und zwar mit dem Ziel, statt nach dem Motto „Vergraben und Vergessen“ zu verfahren, eine Abfallwirtschaft aufzubauen, die dem Grundsatz des Vorrangs der Vermeidung und Verwertung vor der Beseitigung von Abfällen folgt. Weitere zwölf Jahre später wurde dann mithilfe des heute noch gültigen Kreislaufwirtschafts- und Abfallgesetzes (KrW-/AbfG) vom 27. September 1994 versucht, die Abfallwirtschaft konsequent auf das Ziel auszurichten, Stoffkreisläufe zu schließen. Gleichzeitig wurde dadurch, entsprechend der Abfallrahmenrichtlinie der EU, die Abfallwirtschaft gegenüber dem europäischen Binnenmarkt geöffnet.

Die ebenfalls 1994 erlassene Technische Anleitung Siedlungsabfall (TASi) verbietet die Deponierung unbehandelter Abfälle seit Juni 2005. Dadurch wurde die Abfallverbrennung zum Standardverfahren der Beseitigung von Hausmüll mit den Nebenzwecken der energetischen Nutzung der Verbrennungswärme und der stofflichen Verwertung der dabei anfallenden Rückstände. Mechanisch-biologische Anlagen (MBA), die in Deutschland eine Zeit lang, wegen der Verteufelung von Hausmüllverbrennungsanlagen (HMVA) als „Dioxinschleudern“, hoch im Kurs standen, wurden dadurch zur Nischenlösung herabgestuft. Die erste rot-grüne Bundesregierung setzte sich das ehrgeizige Ziel, bis zum Jahre 2020 eine vollständige stoffliche und energetische Verwertung aller Siedlungsabfälle zu erreichen. Alle Hausmülldeponien sollen bis dahin geschlossen werden.

Deponien für mineralische Abfälle wird es aber weiterhin geben. Die jährlich in Deutschland anfallenden 220 Millionen Tonnen Baureststoffe und andere mineralische Abfälle stellen den mit Abstand bedeutendsten Abfallstrom dar. Infolge der Umsetzung der TASi wird dieser Strom weiter anschwellen. Schon im Jahre 2002 fielen in den damals betriebenen 60 deutschen HMVA insgesamt 3,14 Millionen Tonnen Rohschlacke an. Nach der Entschrottung blieben davon 2,9 Millionen Tonnen übrig. Diese wurden zu etwa 70 Prozent als Verfüllmaterial oder im Straßen- und Dammbau verwendet. Der Rest ging in den Bergversatz oder auf Deponien.

Der Vorrang der Verwertung vor der Beseitigung von Abfällen bringt es mit sich, dass Stoffe unter bestimmten Voraussetzungen umdeklariert, d.h. wieder aus ihrer Eigenschaft als Abfall zur Beseitigung entlassen werden müssen, um auf dem freien Markt als verwertbare Reststoffe gehandelt werden zu können. Das ist bei HMVA-Rückständen aber problematisch, da es sich dabei sozusagen um Abfall vom Abfall handelt: Ein chemisch zunächst instabiles Vielstoff-Gemisch wechselnder Zusammensetzung, das Böden und Grundwasser bedenklich mit giftigen Schwermetallen und anderen Schadstoffen belasten könnte, würde es ohne Vorbehandlung im Damm- oder Straßenbau eingesetzt.

Rein theoretisch wäre es heute zwar möglich, die Abfallverbrennung so zu gestalten, dass alle Wertstoffe (vor allem Metalle, Gips, Calciumsalze und Salzsäure) als Produkte vermarktet werden und am Ende neben Filterasche nur völlig steriles und chemisch inertes Glas als Rückstand übrig bliebe. Die Verglasung von Abfällen, wie sie heute in Japan üblich ist, kostet aber zusätzliche Energie und widerspräche somit dem im Gesetz festgeschriebenen Ziel der energetischen Verwertung.

Entscheiden sich kommunale oder private HVA-Betreiber jedoch für den Weg der thermischen Abfallbehandlung, der den gesetzlichen Anforderungen entspricht, handeln sie sich aber neue Zielkonflikte ein. Nach § 1 des KrW-/AbfG gilt es, die Förderung der Kreislaufwirtschaft zur Schonung der natürlichen Ressourcen mit der Sicherung der umweltverträglichen Beseitigung von Abfällen zu verbinden. Gerade bei den mineralischen Abfällen geht aber das eine allzu oft nur auf Kosten des anderen. Alte Hasen des Umweltschutzes erinnern sich noch an den Kieselrot-Skandal, der daher rührte, dass Schlacke (Kieselrot) der Marsberger Kupfer-Hütte (Kieselrot) Jahrzehnte lang in großem Maßstab als Graswuchs hemmende Deckschicht von Sportplätzen verwendet wurde – bis Chemiker nachweisen konnten, dass darin Dioxine enthalten waren.

Andererseits gäbe es überhaupt keine Verwertungsmöglichkeit für die den gesetzlichen Regeln entsprechenden Verbrennungsrückstände, wenn der Vorsorgegrundsatz als Forderung nach der Null-Emission potentiell gefährlicher Stoffe ausgelegt würde. Deshalb erhielt die Länderarbeitsgemeinschaft Abfall (LAGA) schon zu Beginn der 90er Jahre von der Umweltministerkonferenz den Auftrag, einheitliche Kriterien für eine ökologisch vertretbare Verwertung solcher Abfälle (überwiegend Bauschutt) zu erarbeiten. So entstand die LAGA-Mitteilung 20 („Anforderungen an die stoffliche Verwertung von mineralischen Abfällen – Technische Regeln“) von 1997. Sie wurde bis 2004 von den meisten Fachleuten als Grundlage für eine bundesweite Harmonisierung des Verwaltungsvollzugs anerkannt, auch wenn einzelne Bundesländer (insbesondere solche ohne eigene Abfallverbrennungskapazitäten) die Verwertung HMVA-Schlacke weiterhin nicht zuließen. Sie verfügten auch gar nicht über geeignetes Genehmigungs- und Aufsichtspersonal.

In der Praxis bereiten übrigens an sich harmlose Bestandteile der Schlacke wie vor allem Sulfate oder Aluminium erheblich mehr Probleme als Schwermetalle oder andere giftige Stoffe. Wird Schlacke mit einem hohen Gehalt an Anhydrit (CaSO4) zu früh als Bau- oder Füllmaterial eingesetzt, kommt es zu Schäden durch Aufblähungen (Sulfattreiben) infolge der Umwandlung des Anhydrits in Gips und Ettringit (Ca6Al2[(OH)/SO4]3. Um das zu verhindern, muss die Schlacke nach der LAGA M 20 vor ihrem Einsatz mehrere Tage zur Entwässerung vorgelagert und nach der Aufbereitung mindestens drei Monate lang zwischengelagert werden. In dieser Zeit wandelt sich Portlandit (Ca(OH)2) unter Zutritt von CO2 aus der Luft größtenteils in Calcit (CaCO3) um. Dabei werden Schwermetalle zum Teil in das Gitter der Calcitkristalle eingebunden. Deshalb zeigen dann Eluat-Tests überwiegend niedrigere Schwermetallwerte an. Auf der Basis dieser Tests wird entschieden, ob das Material überhaupt im Straßenbau verwendet werden darf oder ob es deponiert werden muss.

Deponierungsgegner wie etwa Günter Dehoust vom Darmstädter Öko-Institut bezweifeln jedoch die prognostische Aussagefähigkeit gängiger Eluat-Tests wie des S4-Elutionsverfahrens (DIN 385414-S4). Etliche Untersuchungen zeigten, dass die Carbonate nach und nach aus der verbauten Schlacke ausgewaschen werden und eingeschlossene Schwermetalle bei pH-Werten unter 5 wieder in Lösung gehen. „Es ist davon auszugehen, dass längerfristig nahezu alle in einem Damm oder einer Deponie enthaltenen Schadstoffe ausgetragen werden“, betont Dehoust und verweist auf Langzeituntersuchungen, die vom Schweizer Bundesamt für Umwelt, Wald und Landwirtschaft (BUWAL) schon vor über 15 Jahren abgeschlossen wurden.

Das deutsche Bundesbodenschutzgesetz (BBodSchG) von 1998 führte deshalb viel strengere Vorsorgewerte ein als die LAGA M 20. Da es nicht gelang, diese Technische Richtlinie rasch und mit vertretbarem Aufwand an das BBodSchG anzupassen, löste sich die LAGA AG „Mineralische Abfälle“ im März 2004 auf, um den Weg frei zu machen für die Erarbeitung einer bundeseinheitlichen ordnungsrechtlichen Regelung. Im November 2004 empfahl die Umweltministerkonferenz, die bis dahin erarbeitete Technische Richtlinie Boden in den Vollzug zu übernehmen. Doch die Wirtschaftsministerkonferenz legte einen Monat später Widerspruch dagegen ein. HMVA-Betreiber mit einem starken Verwertungsinteresse fuhren jedoch z. T. fort, sich mit Zustimmung der jeweils zuständigen Behörde provisorisch an den Richtwerten der LAGA M 20 zu orientieren. Im April 2005 entschied das Bundesverwaltungsgericht im Rechtsstreit um die Verfüllung einer Tongrube jedoch, dass die alte LAGA M 20 nicht der im § 7 des BBodSchG verankerten Vorsorgepflicht genügt.

Aufgrund der unterschiedlichen Sichtweisen der jeweiligen für den Grundwasserschutz oder für die Abfallbehandlung zuständigen Länderbehörden kam es in der LAGA zu Konflikten, die sich so weit zuspitzten, dass verschiedene Behördenvertreter überhaupt nicht mehr miteinander redeten. Es bedurfte der persönlichen Initiative Hansjürgen Rheins, des damals am Ende seiner Amtszeit stehenden Leiters der Abteilung Abfallwirtschaft der Hamburger Behörde für Stadtentwicklung und Umwelt, um die in der LAGA entstandene Blockadesituation aufzubrechen. Es gelang ihm schließlich, im Zusammenarbeit mit Partnern aus der Privatwirtschaft die zerstrittenen Behördenvertreter wieder an einen Tisch zu bringen.

Die entstandene Rechtsunsicherheit, die die Existenz einer ganzen Branche in frage stellt, musste in der Tat schleunigst ausgeräumt werden. Wegen ihres starken Eigeninteresses als Besitzerin zweier in Hamburg betriebener Hausmüllverbrennungsanlagen wagte die Vattenfall Europe Waste to Energy GmbH das Experiment, zwischen Januar 2005 und März 2006 unter der Schirmherrschaft der Freien und Hansestadt Hamburg eine Serie von Klausurtagungen zu sponsern. Moderiert von der Ahrensburger Konfliktberatung Jakubowski, diskutierten Fachleute aus Wirtschaft, Wissenschaft, Umweltverwaltung und Politik mit unterschiedlichen Interessen und Blickwinkeln im Schloss Tremsbüttel (Schleswig-Holstein) über mögliche Wege, aus der Blockadesituation heraus zu kommen. Noch vor dem Abschluss des Tremsbütteler Dialogs organisierte das daran ebenfalls beteiligte Bundesumweltministerium (BMU) im Februar 2006 einen eigenen Workshop mit über 200 Teilnehmern aus Wirtschaft, Wissenschaft und Verwaltung zum gleichen Thema.

Die Teilnehmer beider Veranstaltungen sprachen sich mit großer Mehrheit für eine bundeseinheitliche Regelung (teilweise auf der Basis aktualisierter Eckpunkte der LAGA M 20) aus und sahen darin sogar eine Form von Deregulierung. Betroffene Unternehmer wie Thomas Buhck, der Geschäftsführer der norddeutschen Buhck-Gruppe, hatten ihnen klar gemacht, dass ihnen die bundesweite Einheitlichkeit von Grenzwerten wichtiger ist als deren Höhe. „Wenn Sie heute einen mineralischen Reststoff wie zum Beispiel HMVA-Schlacke verkaufen, erzielen Sie damit vielleicht 2 bis 3 € je Tonne am Markt. Wenn Sie den gleichen Reststoff in eine Verfüllung bringen, dann bezahlen Sie dafür 5 bis 10 €. Und wenn Sie ihn in eine Deponie bringen, dann sind Sie 20 bis 25 € je Tonne ärmer. Wir müssen also zwischen volkswirtschaftlichen und möglichen ökologischen Schäden abwägen“, erklärte Buhck.

Dr. Heiner Zwahr, der damalige Geschäftsführer der Hamburger MVR Müllverwertung Rugenberger Damm GmbH & Co. KG, bestätigte, dass HMVA-Schlacke in Hamburg durchaus einen positiven Marktwert hat. Abnehmer sei neben dem Hafenbau, wo das Material als ungebundene Tragschicht verwendet wird, zum Teil auch der Straßenbau. Es gebe aber einen starken Wettbewerb mit Naturstoffen (z.B. mit Granit aus Schottland, der günstig mit Schiffen geliefert werden kann) und auch mit anderen Recyclingprodukten. Eine Verdrängung herkömmlicher Rohstoffe bei höherwertigen Anwendungen wie die Beton- und Asphaltherstellung sei erwünscht, aber nicht immer machbar. Bei der Betonherstellung störe der Aluminiumgehalt der Schlacke, der bei Wasserzutritt zur Bildung von Aluminaten und Wasserstoff führen kann. Bei der Verwendung von HMVA-Schlacke in der Asphaltherstellung hingegen könnten zwar ohne übermäßigen Aufwand die Vorsorgewerte der BBodSchV eingehalten werden. Doch führe die starke Porosität der Schlacke zu einem überhöhten Bitumenverbrauch. Das mache diesen interessanten Anwendungsbereich wirtschaftlich fraglich.

Günter Dehoust hält ein höherwertiges Recycling mineralischer Abfälle ohnehin nur in Ausnahmefällen für möglich. Dennoch sei es sinnvoll, die Verwertung von HMVA-Schlacken zu fördern, um die Position der HMVA im Konkurrenzkampf mit Zementwerken zu stärken. Dort werden zur Zeit etwa 16 Prozent der Siedlungsabfälle mitverbrannt. Die Abfallbehandlung in HMVA sei demgegenüber ökologisch vorteilhaft, weil sie die Möglichkeit bietet, gefährliche Schadstoffe durch Bergversatz bzw. Untertage-Deponierung von Filterasche und hoch belasteten Schlacke-Fraktionen ganz aus dem Wirtschaftskreislauf zu schleusen. Deshalb sei eine Bundesverordnung mit einheitlichen Grenzwerten notwendig und sinnvoll.

Nach Aussage des Leiters des BMU-Referats „Produktionsabfälle“, Ministerialrat Rüdiger Wagner, stellt sich das BMU dieser Aufgabe. Nach Abstimmungsgesprächen im Herbst 2006 werde 2007 das förmliche Rechtssetzungsverfahren eingeleitet. Es werde voraussichtlich zwei Verordnungen geben: Eine für bodenähnliche Verwendungen (Verfüllungen) von mineralischen Abfällen im Rahmen der BBodSchV und eine für die technische Verwendung von mineralischen Reststoffen im Straßen- und Landschaftsbau nach § 7 KrW/AbfG. Diskussionsbedarf gebe es noch bei der Definition der Schnittstellen sowie über den Wert des S4-Elutionsverfahrens und dessen eventuell notwendige Ergänzung durch aussagekräftigere Säulenversuche.

Das Landesumweltamt (LUA) von Nordrhein-Westfalen, das wegen des traditionell hohen Aufkommens von mineralischen Abfällen aus dem Bergbau, der Stahlindustrie und aus Kraftwerken über die größten Erfahrungen mit der Analyse der darin enthaltenen Schadstoffe verfügt, führt im Auftrag des Umweltbundesamtes (UBA) das Forschungsvorhaben „Sickerwasserprognose“ im Rahmen eines vom Bundesministerium für Bildung und Forschung (BMBF) koordinierten Verbundes durch. Auf der Basis der Ergebnisse dieser Forschungen wird das LUA dem BMU demnächst Grenzwerte für verschiedene Schadstoffe vorschlagen. Erst dann, so Dr. Axel Kopp vom BMU, werden Verordnungsentwürfe in Angriff genommen.

Diese Entwicklung zeigt, dass sich die Initiative des inzwischen pensionierten Hans-Jürgen Rhein und der Konfliktberatung Jakubowski in jeder Hinsicht gelohnt hat. Sie hat die sprachlosen Vertreter verschiedener Länder- und Bundesbehörden aus ihren Bunkern herausgelockt und dem Bundesumweltministerium Rückenwind für seinen Versuch einer bundesweiten Vereinheitlichung der gesetzlichen Vorgaben für die sinnvolle Verwertung mineralischer Reststoffe gegeben. Somit scheint der Weg frei für die Regulierung des mit Abstand größten Abfallstroms nach den gleichen Prinzipien, die seit Beginn der 90er Jahre in Form der Verpackungsverordnung erstmals an einem der kleineren Abfallströme erprobt wurden. Somit würde in Deutschland mit den beiden ausstehenden Verordnungen der Schlussstein einer ökologisch begründeten Abfallpolitik gesetzt.

*) Fachjournalisten