The Market, a Civilizing Achievement

The market – our greatest civilizing achievement

by Edgar Gärtner*)

Europe’s writing fraternity loves making fun of creationism; that religious belief cloaked in scientific terminology and dubbed ‘intelligent design’- currently so aggressively promoted throughout America’s Bible Belt. Yet, across Europe, many commentators are helping promote a world view which has a great deal in common with that much derided theory. What’s at issue is Europe’s abject rejection of unfettered free trade and unchecked market globalization. They decry free trade in the name of social justice, precautionary measures and sustainable development. Their argument implies that our market economy is primitive – morally inferior to allegedly ‘superior’ systems based on constructivism. In today’s Europe, the Precautionary Principle has clearly assumed that very same place held by Divine Providence in the theology-centred pre-Darwinian world order.

The commentators’ propaganda is hitting its mark. More than 50 percent of Germans are against the market economy. Almost three quarters of the French are even convinced that their country would be better off were they all to become civil servants of the state. Yet, instead of rising to new challenges, people are increasingly seeking refuge in the disempowering embrace of the authoritarian state. Only such things as farmers’ markets and craft fairs inspired by romantic rustic notions are currently doing well across Europe, as are manipulated political playing fields, viz the wrangling over greenhouse gas emission rights. Even in the US there is growing support for protectionist efforts.

This begs the question whether, and to what extent, the free market is compatible with human nature. Likewise, to what extent can humankind afford to do without the market – to lay aside competition as the key tool for the management of food supplies, raw materials, financial and scientific resources. In the US, researchers such as Leda Cosmides and John Tooby (University of California, Santa Barbara), founders of the school of Evolutionary Psychology, are investigating this very question. Their starting point: If the slogan “One world” has any sort of relevance, then we should broadly treat psychology, sociology or economics as branches of biology.

Researchers in evolutionary psychology are also investigating whether, and under what circumstances, collectives make more intelligent decisions than lone individuals. We have long been aware that large-scale collectives do not necessarily make better decisions. Gustave Le Bon developed the theory of crowd psychology more than a century ago. As modern research into the psychology of mobs confirms, a mob has less brain power than the most dim-witted rabble straggler. Instead of getting support from the collective effort, individuals within a group become intellectually bogged down in this amorphous mass of humanity.

The creation of hierarchical societies is one of the historical prerequisites of smart collective decision-making. The family is such a society’s smallest unit and is integrated into a clan which, research tells us, has served for generations as the means of exchange and as a mechanism to convey experience. For around one and a half million years, humankind subsisted as hunter-gatherers in bands with no more than 150 members; these were bound together by a pronounced sense of “us” – a palpable group egoism. A corresponding enmity towards competing clans reinforced this bonding mechanism. Our brains have developed specialist adaptations for this clan-based way of life, each designed to help solve the problems that these small bands of humans confronted on a daily basis.

Humankind first began living in larger groups a mere 10,000 years ago; this transition came hot on the heels of the Neolithic revolution which brought agriculture and livestock-raising. New technology now enabled modest food and clothing surpluses, thus the first towns sprang up, their inhabitants no longer obliged to eke out an existence through hunting or foraging. Some 10,000 years are insufficient, the human brain is still struggling to adapt to this new ecological niche and seismic shift in living, even if neurologists and paleontologists can demonstrate that the human brain has evolved more rapidly than previously considered. For example, in the past 10,000 years, it has in fact developed new skills such as perfecting our speech capacity. However, one thing still holds true: we are called upon to function in the modern world using stone-age brains.

The human brain was simply not designed to solve problems collectively, especially those that concern more than 150 individuals. Much has been written in recent years about ‘150’ – that magic number that tips the scales, as highlighted by “The Tipping Point” that bestseller authored by celebrated American journalist Malcolm Gladwell (New York 2000). The Anabaptist sect the Hutterites’ have a well-known rule of thumb: collectives that grow larger than 150 members are better off splitting into two or more relatively independent communities. This guideline has also been adopted by several internationally-renowned big businesses! It’s not by chance that the average person’s address book entries seldom top that magic number. It is quite a feat for any one individual to personally know and keep track of more people than that at any one time.

To date, humankind has only developed two means to address problem-solving for collectives topping 150 members: the market and bureaucracy. The market attempts to balance the wants and needs of many with the knowledge of how to satisfy those needs and thus ensure the survival of bigger collectives; it predates and is clearly more effective than bureaucracy. Archeological excavations tell us that Cro-Magnon man practiced the division of labour and engaged in long-distance trade – such advantages enabled our ancestors to survive the last Ice Age. The Neanderthals who inhabited Europe at the same time were more robust physically than their Cro-Magnon counterparts. However, Neanderthals died out as they most likely never made the mental leap between personal direct exchange within the clan and impersonal exchange in the broader marketplace.

The human brain is poorly equipped to deal with markets, witness our hard-wired instincts such as promoting the interests of the clan and our obsession with hierarchy and jealousy. Hunter-gatherers think in terms of a zero sum game; they cannot grasp that the exchange of goods and services adds value and that this creates economic growth. This mental block engenders a deep-seated aversion towards strangers and long-distance trade.

The first, and most important, cultural achievement in human history centred on conquering this aversion. By overcoming our reticence towards long-distance trade and impersonal exchange Homo first became sapiens. Friedrich August von Hayek, awarded the Nobel Prize in 1974, set this out clearly: Early man, by contrast to his forefathers who limited themselves to direct exchange within the clan, had to learn to co-exist in two very different worlds: one, the ‘warm’ microcosm held together by family bands and, two, the ‘cold’ macrocosm, an impersonal world governed by the abstract marketplace rules. We’d be politically incorrect, yet also entirely justified, in describing those people who fail to achieve this very same conceptual leap as pre-human.

We don’t know if it was sheer necessity that drove our prehistoric ancestors to embrace long-distance trade or whether their myths helped them to overcome that fear of the unknown implicit in engaging in anonymous trade over extended distances. We can assume that prehistoric people could only place their faith in the impersonal market through the aid of religious symbols, cults and beliefs. The cave paintings they left behind would lead us to suppose this. Certain conceptual adaptations would have served them which are proving better suited to modern-day life than those touched on thus far. These include the concept of property ownership, the power of empathy, engendered courtesy of so-called mirror neurons; similarly, altruism, and the willingness to trade with strangers for mutual advantage.

The human brain has a strong predisposition towards bureaucratic thinking which outweighs its ability to trade in big impersonal markets. Envy, veiled as the push for equality, constantly sparks new misgivings vis-à-vis the market supply/demand equation. Although humanity most likely owes its survival to free trade and the division of labour, we have all too often given in to the temptation to build up big bureaucratic organizations and to blindly place our trust in these. Thereby laying aside alternative means, such as addressing our needs through adapting existing power structures.

Bureaucracy remains a necessary evil; it cannot ever be entirely eradicated. Even the boldest, most radical classical-liberal, libertarian utopias founded solely on the marketplace and private property rights fail to achieve this. As, even these would need banks and insurance agencies and private protection, if not a fully-fledged army to handle security. Insurance firms and armies are clearly quintessential bureaucratic structures. Also, essential prerequisites for an effective market economy such as bookkeeping and statistics are unthinkable without bureaucratic management structures. Bureaucracy is our fate.

However, we need to steer clear of glorifying bureaucratic solutions or even building them up as religious icons. The assertion that bureaucratic solutions are the sole path to peace and prosperity is a dangerous falsehood. The Stone Age instinct to strengthen one’s power base tends to kick in at every envy-laced big bureaucratic organization. One glance at our bureaucratic neighbour France bears this out.

In order to create a ‘balanced’ relationship between bureaucracy and the market economy – that is, to ensure that envy and self-interest does not stifle all new invention – politics needs to grasp the concept of becoming first and foremost a framework for regulatory policy. Thereby, curbing bureaucracy’s expansionist goals and thus ensuring sufficient scope to develop new ideas through trial and error. However, this becomes impossible wherever politics itself has been shot through by the spirit of bureaucracy.

For example, I see the soon-to-be-adopted EU chemicals legislation REACH (Registration, Evaluation, Authorisation and Restriction of Chemicals) as the monster child of bureaucratic arrogance. When I first read the ‘White Paper’ on chemicals safety some five years ago, the Old Testament story of the Tower of Babel immediately sprang to mind. In order to comply with this new White Paper, manufacturers, processors and users of chemicals would be required to conduct tests on more than 40 million laboratory animals and compile around 100 million Chemical Safety Reports (CSR); each of up to 200 pages. Who was supposed to be reading, comprehending and acting on all this? In the meantime, the REACH proposal has been dramatically improved after seasoned industry professionals raised numerous objections to the legislation. This ambitious body of regulations cannot be put into practice without ample scope for market-based investigative processes for knowledge and risk management.

These well-meaning, but ultimately scarcely practical, attempts at regulation (such as REACH), hint at the underlying principles of ‘intelligent design’: they assert that one can know what will eventually be borne out in proof from the outset. Yet, both market supply and demand as well as bureaucratic attempts to solve problems, often provide results that have all too little in common with the outcome anyone was seeking. Yet as a rule, the market normally brings positive surprises, whereas the results of bureaucratic approaches all too often disappoint.

Market developments follow the pattern of natural evolution. However, it seems unlikely that when faced with problems of resource, risk and knowledge management we can come up with market-orientated solutions, given that our brain is still largely geared to a hunter-gatherer lifestyle. Yet, black markets spontaneously emerge either through pressure or need, but ostensibly no sustainable market economy ever appears to. Functional markets require, irrespective of how paradoxical this may sound to some, the conscious, planned support of competition-friendly, cultural and legislative framework conditions.

Populist politicians have an easy ride in a world that has lost touch with transparency; they count on our Stone Age instincts to kick in. For instance, when these politicians warn us of a so-called imminent climate catastrophe, they are tapping into our primeval fear that the sky could fall in on our heads. With their so-called ‘climate policy’ – pure ‘intelligent design’ – these politicians have managed to appease angry taxpayers. This policy attempts to alter chaotic processes affecting the entire planet by manipulating one small input factor – CO2 emissions, supposedly thereby steering climate trends in the desired direction. Thus, it was only a question of time before conservative US Evangelists adopted these climate change superstitions, climbing on the global warming bandwagon. Perhaps we should leave them to it and not act as if climate change policy were synonymous with the European Enlightenment ideals.

Putting in place a sustainable market-based order is a cultural imperative which will require active implementation. It clashes however with our primitive human instincts. Yet these moves need not take the form of a crusade against bureaucracy. Much would be gained were it to be made clear to the bureaucrats that they are here to serve the market, and not the other way round. The onus is on us to say: ‘if you reject the market then you are obviously unsophisticated’. Family upbringing and schooling have a central role to play here: Both must spark in young people the courage to tolerate uncertainties and to trust in the discovery processes of globalised markets. I see this as the most important prerequisite of an expanded and less transparent European Union, with the end goal being a new rational assessment of the risks associated with the use of certain chemicals and new technologies.

*) Edgar Gärtner trained as a hydrobiologist. He is a science writer on chemicals and energy. From 2005 to 2007 he has headed up the Environment Forum for the Centre for the New Europe (CNE), a classical liberal think tank based in Brussels.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Ill defined precaution is paving the way to nihilism. I was demonstrating this at the last year’s European Freedom Summit in Berlin.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Diplomatie statt Kreuzzug im Rio-Prozess

Gespräch mit den französischen Wissenschaftsforscher Bruno Latour über das Vorsorgeprinzip

Gärtner: Monsieur Latour, nach quasi offizieller Lesart wurde vor nunmehr zehn Jahren auf der Rio-Konferenz in Form von Rio-Deklaration, Klima-Rahmenkonvention und Agenda 21 ein „planetarer Konsens“ über die rationelle, wissenschaftlich begründete Bewirtschaftung der Ressourcen der Erde und über die Orientierung von Politik und Wirtschaft am „Vorsichtsprinzip“ erzielt. Danach soll ein Mangel an wissenschaftlicher Gewissheit nicht als Rechtfertigung für das Aufschieben kostenträchtiger Maßnahmen zur Abwehr drohender Gefahren für Gesundheit und Umwelt herhalten können. Mit dem Kyoto-Protokoll über die Reduktion des Ausstoßes sogenannter Treibhausgase und den auf den internationalen Klimakonferenzen von Den Haag, Bonn und Marrakesch erzielten Regelungen über den Handel mit Emissionsrechten soll diese Forderung eingelöst werden. Liegt diesem Ansatz einer Neubestimmung des Verhältnisses von Wissenschaft und Politik nicht ein Missverständnis zugrunde?

Latour: Ich denke, dass in den von Ihnen erwähnten Klimakonferenzen schon etwas von dem von mir angeregten „Parlament der Dinge“ vorweggenommen worden ist. Es gab dort eine politische Repräsentation nichtmenschlicher Wesen. Die Verhandlungen zwischen Staatsmännern, Diplomaten und Experten drehten sich nicht mehr um zwischenmenschliche Probleme wie den jetzt im Nahen Osten wieder aufflammenden archaischen Hass. Sie beschäftigten sich mit etwas, das als globale Bedrohung gilt, mit einem Risiko, das alle Menschen betrifft. Und diese Gefahr geht nicht von anderen Menschen aus, sondern von einer Assoziation zwischen Menschlichem und Außermenschlichem. Das verändert die Ausgangslage der Politik. Wie Sie vielleicht wissen, halte ich es mit Carl Schmitt, der das Wesen politischer Souveränität im Monopol der Bestimmung des Feindbildes sah. Das Feindbild der politischen Ökologie unterscheidet sich von den Feindbildern der Modernisten nur dadurch, dass es an die Stelle von Menschen mit bestimmten, als bedrohlich empfundenen religiösen und politischen Überzeugungen Assoziationen beziehungsweise Kollektive von menschlichen und nichtmenschlichen Wesen setzt, die öffentlicher Regelung bedürfen. Deshalb glaube ich, dass die zitierten internationalen Foren richtungsweisend sind.

Gärtner: Sie wären also einverstanden mit dem, was der bislang erfolglose US-Präsidentschaftskandidat Al Gore kurz vor dem Rio-Gipfel in seinem Bestseller „Earth in Balance“ dargelegt hat. Da dem Westen durch den Zusammenbruch des sozialistischen Ostens das Feindbild abhanden gekommen sei, forderte Gore dort, die seines Erachtens drohende globale Klimakatastrophe zum neuen Feindbild zu erklären. Denn ohne ein solches sei es nicht möglich, den Zusammenhalt der freien Welt zu wahren.

Latour: Nach dem 11. September besteht dafür offenbar keine Notwendigkeit mehr. Der Westen hat im Terrorismus wieder einen klassischen Feind gefunden. Wir sind zur alten politischen Konstellation des Kampfes Mensch gegen Mensch zurückgekehrt. Die Sorgen um die Zukunft unseres Planeten, die alle Menschen teilen könnten, treten in den Hintergrund, was sich auch im Bedeutungsverlust grüner Parteien niederschlägt. Übermenschliche Wesen, Götter spielen nun wieder eine größere Rolle als die Beziehungen zwischen den Menschen und der irdischen Atmosphäre.

Gärtner: Um zum Rio- beziehungsweise Kyoto-Prozess zurückzukehren: Wäre es nicht besser gewesen, mithilfe sauberer Laborexperimente zu klären, was die heute auf der Anklagebank sitzenden atmosphärischen Spurengase wie Kohlendioxid tatsächlich zu tun in der Lage sind, bevor man lediglich auf Computersimulationen fußende politische Klimaschutz-Programme beschließt, die einen Markt für den Handel mit Emissionsrechten öffnen, dessen Volumen auf bis zu 350 Milliarden Dollar geschätzt wird? Ich möchte damit nicht anzweifeln, dass auch scheinbar wertfreie naturwissenschaftliche Begriffe wie etwa der Atom- oder der Gen-Begriff in Wirklichkeit interessengeleitete Konstrukte sind. Es geht mir vielmehr um den harten Kern wissenschaftlicher Experimente, der willkürlichen Interpretationen widersteht. Finden Sie es nicht bedenklich, dass sich die Klimapolitik auf Annahmen stützt, die sich experimentell nicht verifizieren lassen?

Latour: Nein, denn die Klimapolitik selbst ist das längerfristig angelegte Experiment im Maßstab eins zu eins, dessen Ergebnisse wissenschaftlich ausgewertet werden müssen. Ich sehe keinen grundlegenden Unterschied zwischen der Klimaforschung, die mithilfe von Satelliten und großen Computern die ganze Erde in ein Laboratorium verwandelt, und herkömmlichen Experimenten in kleinerem Labormaßstab. Ich halte die bei Ihnen anklingende Unterscheidung zwischen wahren und falschen Wissenschaften für unfruchtbar, denn als wahre Wissenschaft erscheint immer die Disziplin, die man selbst betreibt, und als falsche die in der Nachbarschaft forschende. Jedes Fach definiert sich durch eine eigene Liste von Prioritäten. Ich halte für die Beurteilung einer Naturwissenschaft nicht das experimentelle und theoretische Niveau für ausschlaggebend, sondern die Art der Repräsentation des Nichtmenschlichen, mit dem die Menschen leben müssen. Im Übrigen sind die Probleme des Übergangs vom Labormaßstab ins Freiland oder zur großen Industrie nicht geringer als die Probleme der Interpretation von Computersimulationen.

Gärtner: Sie kennen doch sicher die Arbeiten des deutschen Wissenschaftssoziologen Peter Weingart über die Ablösung der zunächst fast einhelligen Erwartung einer neuen Eiszeit durch die vage Hypothese einer drohenden Überhitzung der Erde und deren Verwandlung in einen politischen Issue ersten Ranges. Weingart und seine Mitarbeiterinnen haben gezeigt, dass die Klimaforschung in Form aufwändiger „big science“ ohne das Schüren von Ängsten durch profilierungssüchtige Berufspolitiker und sensationshungrige Massenmedien nicht das geworden wäre, was sie heute ist.

Latour: Ich finde daran nichts Ungewöhnliches. Alle Naturwissenschaften erhielten ihre entscheidenden Anstöße von außen. Alle Wissenschaften verbünden sich auf die eine oder andere Weise mit oft zwielichtigen politischen, militärischen und wirtschaftlichen Interessen. Die Geschichte der Klimaforschung unterscheidet sich da meines Erachtens kaum von der Atomphysik oder vom Siegeszug der von Louis Pasteur und Robert Koch begründeten Mikrobiologie, die ich besser kenne, weil ich selbst darüber geforscht habe. Man kann Wissenschaften nicht nach dem Grad ihrer Verunreinigung beurteilen, weil sie von vornherein Hybridwesen sind.

Gärtner: D’accord. Aber sehen Sie nicht im Falle der Klimaforschung besondere Schwierigkeiten der interdisziplinären Zusammenarbeit? Um zu verdeutlichen, was ich meine: Die Atmosphärenphysiker beschäftigen sich beinahe ausschließlich mit Strahlung, während die Chemiker nur Kollissionen zwischen Molekülen sehen. Beide kommen zu ganz unterschiedlichen Einschätzungen des Gefährdungspotentials von Treibhausgasen. Die Geologen und die Astronomen wiederum beschäftigen sich längerfristigen Trends und richten ihr Augenmerk auf den Einfluss der Sonnenzyklen. Durchgesetzt hat sich in der Öffentlichkeit die Sichtweise der Physiker und mathematischen Modellierer. Die Einwände von Chemikern, Astronomen und Geologen kommen kaum zum Tragen.

Latour: Dann müssen die sich halt besser Gehör verschaffen. Ich sehe da eine ganz normale politische Situation. Dass sich die Wissenschaftler untereinander nicht einig sind über Dinge und Prozesse, die wir nicht mit bloßem Auge beobachten können und in die wir selbst einbezogen sind, überrascht nicht. Überraschend wäre es vielmehr, wenn sie zu einem Konsens gelangten. Deshalb brauchen wir ja so etwas wie ein „Parlament der Dinge“ in dem nicht nur politische, sondern auch wissenschaftliche Kontroversen ausgetragen werden. Die Hoffnung, solche Kontroversen durch ein einstimmiges Votum der Wissenschaft beenden zu können, halte ich für völlig unbegründet. Ich halte für anormal, was ich als „modernistische Situation“ bezeichnet habe, als sich Entscheidungsträger auf eindeutige Beweise der Wissenschaft berufen zu können glaubten.

Gärtner: Genau diesen Eindruck versucht aber doch die Klimapolitik zu vermitteln, wenn sie sich auf einen angeblichen Konsens zwischen Tausenden von Wissenschaftlern im International Panel on Climate Change (IPCC) beruft. Unter anderem aus diesem Grund stehe ich dem Rio-Prozess so skeptisch gegenüber. Denn die Rio-Deklaration und die Klima-Rahmenkonvention sind meines Erachtens zutiefst durchdrungen von der von Ihnen kritisierten modernistischen Sichtweise und von technokratischem Machbarkeitswahn. Sie erwecken den Eindruck, die Ressourcen der Erde planmäßig verwalten und die Entwicklung der Menschheit entsprechend einer einzigen Logik steuern zu können.

Latour: Skepsis gehört zu den Tugenden der Journalisten. Es gehört zu Ihren Aufgaben, möglichst viele unterschiedliche Stimmen zu Wort kommen zu lassen. Und die Wissenschaftspolitik sollte mit den ihr zur Verfügung stehenden Finanzmitteln versuchen, verschiedene Forschungsansätze in Wettbewerb treten zu lassen, um zu verhindern, dass sich die ganze Welt auf einen Weg begibt, der sich am Ende als Sackgasse erweisen kann. Noch einmal: Ich halte es für abwegig zu erwarten, die Wissenschaft könne jemals mit einer Stimme sprechen. Aufgabe der wissenschaftlichen Disziplinen ist es, die Zahl potentieller Wesen zu vervielfältigen, mit denen wir zusammenleben müssen. Wir befinden uns, was das Klima anbelangt, in einem Realexperiment. Sollte es sich in den kommenden Jahrzehnten herausstellen, dass Schwankungen der Sonnenaktivität größeren Einfluss auf die Entwicklung des Weltklimas haben als das CO2, heißt das nicht einfach, dass wir uns geirrt haben, als wir auf die CO2-Reduktion setzten. Wir müssen lediglich die Zahl der Wesen aufstocken, mit denen wir unsere gemeinsame Welt aufbauen. Wir können dann den Schwankungen der Sonneneinstrahlung größeres Gewicht beimessen und die Bedeutung des Kohlendioxids entsprechend herunterstufen. Die Wissenschaftspolitik muss nur darüber wachen, dass nicht eine einzige Schule von Forschern alles beherrscht.

Gärtner: Kommen wir zum Vorsichts- oder Vorsorgeprinzip: Die oft zitierte Formel der Rio-Deklaration hat ja inzwischen in der Europäischen Union Gesetzeskraft erlangt. Sie haben aber gelegentlich schon selbst darauf hingewiesen, dass dieses Prinzip alles andere als eindeutig ist und Entscheidungen nicht unbedingt leichter macht. Ihr Freund und Kollege, der Philosoph Jean-Pierre Dupuy, hat sich kürzlich sogar öffentlich gefragt, ob das Vorsichtsprinzip nicht eine Anmaßung darstellt.

Latour: Ich glaube, im Vorsichtsprinzip drückt sich eine tiefgreifende Veränderung im Verhältnis zwischen Wissen und Handeln aus. Ich halte es für eine bedeutende mentale und juristische Innovation, weil es zwei Dinge zusammenbringt, die bislang getrennt waren: die Unsicherheit und das menschliche Handeln. Vor der Codifizierung des Vorsichtsprinzips bestand bei uns die Tendenz, politisches und wirtschaftliches Handeln von sicherem Wissen abhängig zu machen. Gab es wissenschaftliche Gewissheit, wurde man aktiv, fehlte diese, wartete man ab. Nun gilt in Europa das Prinzip, bei begründetem Verdacht auch dann zu handeln, wenn noch keine gesicherte wissenschaftliche Erkenntnisse vorliegen. Die eingeleiteten revidierbaren Maßnahmen gelten dann als Realexperiment, dessen Verlauf wissenschaftlich begleitet werden muss. Über dieses Vorgehen streiten sich die Mitglieder der EU zur Zeit mit der US-Regierung nicht nur in der Frage des Klimawandels, sondern auch in der Agrarpolitik.

In Europa gelten die rasch eingeleiteten Maßnahmen als kollektives Experiment, das dazu dient, die Gewissheit zu erlangen, die zunächst fehlte. Deshalb halte ich das Vorsorgeprinzip nicht für eine Anmaßung. Es handelt sich meines Erachtens vielmehr um die kollektive Anwendung uralter von den Individuen im Alltag eher unbewusst befolgter Regeln der Vorsicht: Man ist sich verschiedener Gefahren und Unsicherheiten bewusst, trifft aber dennoch Entscheidungen, weil man weiß, dass Zaudern gar nichts bringt. Zum Beispiel, wenn man sich entschließt, Kinder in die Welt zu setzen, Bäume zu pflanzen oder zur Bank zu gehen. Diese im Alttag bewährte Regel wurde bei wissenschaftlich begründeten oder verbrämten technokratischen Entscheidungen leider außer Kraft gesetzt.

In Frankreich konnten wir am Beispiel AIDS-verseuchter Blutkonserven, die Tausende von Todesopfern forderten, studieren, wohin die technokratische Politik des Abwartens von Gewissheit führen kann. Daraus haben wir gelernt, das Gemeinwesen schon bei Verdacht zu alarmieren, rechtzeitig Maßnahmen einzuleiten und Forschungsprogramme aufzulegen, die in der Praxis nur zum Teil revidierbar sind. Ich halte es für abwegig, mithilfe des Vorsorgeprinzips auch Abwarten, Nichtstun begründen zu wollen.

Frage: Sie wissen sicher, dass das Vorsichtsprinzip seit langem Bestandteil des ungeschriebenen Codes guter kaufmännischer Praxis ist. Auch die in den Rio-Dokumenten erwähnten „No Regret“-Maßnahmen, die der Sicherheit dienen, sich aber auch ohne diesen Zweck rechnen können, wie etwa das Energiesparen, das auch ohne Angst vor einem Klimakollaps sinnvoll sein kann, sind für Kaufleute nichts Neues. Vielleicht ist diese Sichtweise lediglich in der zentralistischen französischen Technobürokratie ausgeblendet worden. Deshalb frage ich mich, warum man heute in Europa so viel Aufhebens von einem Prinzip macht, das gar nicht neu ist. Versteckt sich hinter der Betonung des Vorsorge-Grundsatzes durch Inhaber der politischen Macht nicht klassischer Machiavellismus?

Latour: Man kann den Politikern nicht vorwerfen, machiavellistisch zu denken und zu handeln. Das gehört zu ihrem Job.

Frage: Gibt es aber nicht Fälle, in denen das Vorsorgeprinzip Abwarten statt blinden Aktionismus nahelegt, weil das ökonomisch auf jeden Fall billiger käme? Ich denke da an die Begründung der Ablehnung des Kyoto-Protokolls durch die Bush-Regierung. In seinem im Jahre 2002 vorgelegten „Clear Skies“-Programm hat sich der US-Präsident ehrgeizige Reduktionsziele für die Schadstoffe Schwefeldioxid, Stickoxide und Quecksilber gesteckt, aber absolute Reduktionsvorgaben für Kohlendioxid abgelehnt. Seine Begründung: Der gesunde Menschenverstand verbiete es, CO2 wie die zuvor genannten Schadstoffe zu behandeln, weil es ungiftig ist, viel enger mit dem erwünschten Wirtschaftswachstum zusammenhängt und nicht durch Filter oder Katalysatoren neutralisierbar ist. Wenn ich es richtig verstanden habe, haben Sie doch selbst in Ihrem 1999 erschienen Buch „Pandora’s Hope“ nahegelegt, den gesunden Menschenverstand zu rehabilitieren. Sollte in der Politik nicht auch der Alltagsverstand, der „bon sens“ von Laien berücksichtigt werden?

Latour: Der Alltagsverstand kann zur Beurteilung der Klimaentwicklung und anderer nicht über die fünf Sinne erfahrbarer Prozesse nichts beitragen. Wenn Sie das glauben, tappen sie in die Falle des Anti-Intellektualismus.

Frage: Müssen Laien erst Lehrbücher der Klimatologie studieren, bevor sie an die Wahlurne gehen oder an dem von Ihnen angeregten „Parlament der Dinge“ teilnehmen können? Wer vertritt die vermutlich relativ zahlreichen Menschen, die die Erwärmung der Erde gar nicht als Bedrohung empfinden? Unterscheidet sich der Kenntnisstand von Experten und Laien angesichts der von Ihnen betonten Ungewissheit überhaupt grundlegend? Irrt der gesunde Menschenverstand, wenn er bei der so schwer durchschaubaren Klimaentwicklung davon ausgeht, dass das Klima der Zukunft, wie das Wetter von heute und morgen, ohnehin kommt, wie es kommt und wir uns dem entsprechend leichter oder wärmer anziehen müssen?

Latour: Wollen Sie mich in eine poujadistische Kampagne hineinziehen? Ich denke, die Menschen in Bangladesh werden Ihnen da nicht folgen. Ich bleibe bei meiner Ansicht, dass die Klimapolitik ein vielversprechender Weg ist, um die Welt nach und nach zu einem gemeinsamen Haus zu machen. Es geht darum, die Menschen in einen Alarmzustand zu versetzen, damit sie sich um Bedrohungen kümmern, die sie mit bloßem Auge nicht wahrnehmen und mit dem Alltagsverstand nicht beurteilen können. Es geht darum, die politische Arena neuen Problemen und deren Repräsentanten zu öffnen. Angesichts der Tragweite der potentiellen globalen Bedrohung können wir nicht abwarten, bis wir wissen, welche Gegenmaßnahmen gerechtfertigt sind.

Wir können, glaube ich, die heutige Situation mit der Zeit der Kalten Krieges vergleichen. Damals wurden unvergleichlich größere Summen ausgegeben, um der meines Erachtens ebenso hypothetischen Bedrohung durch einen sowjetischen Atomschlag zu begegnen. Damals hat der Westen schon das Vorsorgeprinzip, wie wir es heute in der Klimapolitik verstehen, angewandt.

Gärtner: Der amerikanische Politikwissenschaftler Aaron Wildavsky ist in einem 1995 posthum erschienen Buch genau dieser Frage nachgegangen. Wildavsky wies nach, dass die der Klimapolitik zugrunde liegende Denkfigur ein Kind des Kalten Krieges ist. Damals ging es für den Westen ums Ganze. Kostenüberlegungen wurden zweitrangig. Wildavsky betonte allerdings, dass die sowjetische Bedrohung, wie wir nach der Öffnung der Archive wissen, durchaus real war, während vom Klimawandel keine vergleichbare Bedrohung von Freiheit und Wohlstand ausgehe. In diesem Falle dürfe die Frage der Wirtschaftlichkeit von vorbeugenden Maßnahmen nicht unter den Tisch fallen.

Vielleicht ist es aber nicht ganz fair von mir, wenn ich Sie jetzt auf die Klimapolitik festzunageln versuche. Sie haben sich, glaube ich, intensiver mit dem sogenannten Rinderwahnsinn (BSE) beschäftigt. Auch dieser gilt ja als Paradebeispiel für die Anwendung des Vorsorgeprinzips.

Latour: Bei der Behandlung der BSE-Krise durch die Instanzen der EU hat das Vorsorgeprinzip als Argument in der Tat eine große Rolle gespielt. Offensichtlich haben viele Politiker und Beamte aus dem französischen Blut-Skandal gelernt und Gegenmaßnahmen eingeleitet, ohne endgültige Beweise für das Ausmaß der Gefahr abzuwarten. Inzwischen gibt es sogar die Tendenz, ins andere Extrem zu verfallen und exzessive Vorsichtsmaßnahmen zu ergreifen. Wir beobachten eine Ausbreitung der experimentellen Kultur vom Labor in die Öffentlichkeit. Dadurch verändert sich übrigens gerade bei uns in Frankreich das Verhältnis der Bürger zum Staat. Dieser erscheint nicht mehr als neutraler Garant wissenschaftlicher Wahrheit.

Gärtner: Auch hier muss ich Sie wieder provozieren: Es hätte doch vermutlich keinen großen Zeitverlust bedeutet, hätten die zuständigen Stellen der EU und ihrer Mitgliedsstaaten erst einmal versucht, experimentell zu klären, ob Prionen im Tiermehl oder in Steaks überhaupt infektiös sind, bevor sie die Verbrennung ganzer Rinderherden anordneten. Da ich als Bauernsohn weiß, dass die BSE-Symptome keineswegs neu sind, hege ich den Verdacht, dass die EU-Bürger auf Betreiben bestimmter Lobbies hinters Licht geführt wurden und dass die Sonntagsreden über die Vorsorge-Philosophie nur dazu dienten, das zu bemänteln.

Latour: Vom Vorsitzenden der bei uns zuständigen Kommission weiß ich, dass es in der Tat nicht den geringsten Beweis für die Infektiosität von Prionen gibt. Aber Ihr Einwand deutet an, dass Sie vermutlich noch dem alten Denkschema anhängen und zur modernistischen Übereinkunft zurückkehren wollen. Sie verdächtigen Wissenschaftler und Behörden, manipuliert zu sein. Ich sehe hingegen in der Situation der Ungewissheit keinen anderen Weg, als den generellen Alarmzustand auszurufen und ein kollektives Experiment anzustellen. Zuvor mit Autorität ausgestattete Experten werden dabei zu Forschern, die viele Fragen haben, aber kaum Antworten. Das Verhältnis zwischen Wissenschaft und Gesellschaft verändert sich grundlegend. Das führt gerade in Frankreich mit seiner etatistischen Tradition zu unangenehmen Begleiterscheinungen. Der Staat und die von ihm bestellten Experten wandeln sich in den Augen der Öffentlichkeit von Garanten der Sicherheit zu Repräsentanten der Ungewissheit. Immer häufiger versuchen Bürger, in Strafprozessen gegen Behörden und Experten, im Namen des Vorsorgeprinzips, die verlorene Sicherheit als eine Art Gewohnheitsrecht einzuklagen. Ich halte das aber für ein Übergangsproblem.

Gärtner: Ich bleibe bei der Annahme, dass in der BSE-Krise nicht alles mit rechten Dingen zugegangen ist. Denn bei uns in Deutschland stehen wir nicht nur vor dem Problem einer allgemeinen Verunsicherung der Bevölkerung. Denn die Regierung hat den Bürgern gleichzeitig nahegelegt, sich in einer trügerischen Sicherheit zu wiegen, indem sie sogenannte Agrarfabriken verteufelt und den Verzehr von Öko-Produkten empfohlen hat. Nun finden wir Kühe, die ihr Leben lang nur Gras gefressen haben und trotzdem an BSE erkrankt sind. Wem sollen die Leute jetzt überhaupt noch glauben? Gebietet das Vorsorgeprinzip, so wie Sie es verstehen, nicht eine gewisse Chancengleichheit für gegenteilige Argumente, um die experimentelle Suche nach Problemlösungen nicht auf falsche Fährten zu führen?

Latour: Ich hoffe, Sie erwarten die Antwort nicht von einer Überwissenschaft oder von einem erleuchteten Genie. Wir müssen davon ausgehen, dass wir im Dunkeln tappen. Wir können nur versuchen, Institutionen zu erfinden, die uns einige provisorische, vom Kollektiv geteilte Gewissheiten vermitteln können.

Gärtner: Ich stimme Ihnen in vielem zu. Aber es fällt mir schwer, mir vorzustellen, wie der Aufbau der „einen Welt“ mithilfe Ihres Parlaments der Dinge bewerkstelligt werden soll. Das erinnert mich zu sehr an Habermas und seine rationalen Diskurse. Die Erfahrung lehrt aber, dass in solchen Diskussionen meistens alles zerredet wird und dass es um einen vorhandenen Konsens schon geschehen ist, sobald darüber öffentlich debattiert wird…

Latour: Sie wissen, dass ich die „eine Welt“ im Unterschied zu naiven Ökologisten und Rationalisten nicht naturalistisch als vorgegeben ansehe, sondern im Sinne Kants als „regulative Idee“ verstehe. Sie muss erst konstruiert werden. Ich bezweifle, ob man dafür einen Konsens braucht. Wir müssen lediglich verhindern, dass Uneinigkeit und Konflikt zur Delegitimierung führen. Ich setze mich da deutlicher von der Diskurstheorie von Habermas ab, als Sie vielleicht denken. Bei Habermas weiß man nie, wer eigentlich die Feinde sind. Ich halte mich demgegenüber, wie eingangs erwähnt, eher an Carl Schmitt. Worauf es in der Politik ankommt, ist meines Erachtens nicht der Konsens, sondern die Legitimierung der Feindbildbestimmung. Wenn man wie jetzt im Kampf gegen den Terrorismus nur das Irrationale, Archaische als Feinde ausmacht, hat man noch kein legitimes Feinbild, weil man die Feinde außerhalb der gemeinsamen Welt stellt, sie gewissermaßen zu Untermenschen macht. Davor hat Carl Schmitt 1932 ausdrücklich gewarnt. Der Feind muss so bestimmt werden, dass er auch zum Alliierten taugt.

Gärtner: Dann befinden wir uns aber eher auf dem Parkett der Diplomatie. Darüber steht ja auch einiges in Ihrem neuesten Buch…

Der Suhrkamp-Verlag hat mich nicht gefragt, als er meinem zuletzt ins Deutsche übersetzten Buch den Titel „Das Parlament der Dinge“ gab. Beim Begriff „Parlament“ denke ich nicht in erster Linie an Diskussionen. Parlamente dienen üblicherweise nicht dazu, andere durch Argumente zu überzeugen oder umzustimmen. Das geschieht nur in sehr seltenen Fällen auf der Grundlage einer durch Traditionen bedingten Übereinstimmung von Sichtweisen. In Parlamenten wird wenig diskutiert. Es geht kaum darum, einander zu verstehen. Es überwiegt die Inszenierung der legitimen Konfrontation von Vertretern verschiedener Interessen. Daneben gibt es diplomatische Arrangements. Wirklichen Konsens kann es nur über Verfahren geben, nicht über Ergebnisse. Wir sind viel zu viele auf der Welt, um uns darauf einigen zu können, wie diese aussehen sollte. Von daher habe ich auch keine Probleme mit der Konferenz von Kyoto. Denn ich denke, dass dort die wichtigsten legitimen Interessen vertreten waren und die Verfahrensregeln eingehalten wurden.

Gärtner: Im stimme Ihnen zu, wenn Sie den Akzent mehr auf Diplomatie als auf Verstehen und Konsens legen. Als Biologe ist mir bewusst, dass die menschliche Kommunikation zu zwei Dritteln auf Körpersprache beruht. Hätten wir nur Worte, könnten wir wahrscheinlich einander kaum verstehen. Worin sehen Sie das Wesen der Diplomatie?

Latour: Diplomatie bedeutet, dass es bei einem Treffen keinen Schiedsrichter gibt. Es ist kein Dritter da, der darüber wacht, ob rationale Verhandlungsbedingungen eingehalten werden, und der die eine oder andere Partei des Irrationalismus zeiht, wenn die Verhandlungen scheitern. In der Diplomatie ist vielmehr die Aufrechterhaltung der Zweideutigkeit Bedingung für die Einstellung von Feindseeligkeiten. Mehr ist in der Welt, so wie sie nun mal ist, auch kaum zu erwarten. Die rationale Diskussion ist demgegenüber ein unerreichbares Ideal. Die Möglichkeiten echter Verständigung sind vernachlässigbar gering.

Gärtner: Damit deuten Sie an, was vom eingangs zitierten „planetaren Konsens“ zu halten ist…

Latour: Von einem planetaren Konsens könnte man allenfalls reden, wenn es eine Weltregierung gäbe. Davon sind wir aber wohl seit dem 11. September und der damit zusammenhängenden Verschiebung der politischen Prioritätenskala viel weiter entfernt als im Jahre 1992, in dem ich rückblickend einen Moment diplomatischer Gnade sehe, der so bald nicht wiederkehren wird. Seit dem 11. September stehen in den internationalen Auseinandersetzungen nicht mehr unterschiedliche Naturbegriffe im Vordergrund, sondern gegensätzliche Glaubenssysteme, verschiedene Götter. Die Möglichkeiten, darüber einen Konsens zu erzielen, sind extrem gering. Von der „einen Welt“ sind wir meines Erachtens weiter entfernt als je zuvor.

Der 11. September kann aber auch eine Gelegenheit sein, über bislang von schwarzen, roten und grünen Modernisten auf der Baustelle der „einen Welt“ vergessene oder vernachlässigte Dinge nachzudenken, für deren Einbindung in eine gemeinsame Welt wir einen hohen Preis zahlen müssen, weil sie gefährliche Leidenschaften erzeugen können. Die Einbeziehung vor- oder antimoderner Gottes- und Naturbilder ist weder durch einen Kreuzzug der Modernen gegen alles Finstere und Archaische noch durch die Suche nach einem Konsens über die Bewahrung der armen, ausgebeuteten Natur erreichbar. Ich halte beides für gleichermaßen naiv. In einer Welt, in der Verstehen unwahrscheinlich ist, haben wir nur den Weg der Diplomatie, um Blutvergießen zu verhindern. In der Diplomatie gelten Zweideutigkeiten und Missverständnisse als unvermeidlich. Was dagegen vermieden werden kann und muss, ist die Entmenschlichung des Gegners.

Kommentar:

Latour ist kein Revolutionär

Bruno Latour, geboren 1947, ist Philosoph und Ethnologe. Er forscht und lehrt als Wissenschaftssoziologe an der altehrwürdigen Pariser Elitehochschule École des mines und als Gastprofessor an der London School of Economics. Er ist Mitbegründer einer neuen Disziplin, der Wissenschaftsforschung. Diese gilt als ketzerisch, weil sie den krummen Pfaden der Entstehung naturwissenschaftlicher Theorien nachgeht und dabei mit vielen Legenden und Illusionen aufräumt.

Anfang der 90er Jahre landete Latour mit seinem Essay „Wir sind nie modern gewesen“ (auf deutsch 1995 im Akademie Verlag und 1998 als Fischer-Taschenbuch erschienen) in der Heimat von Descartes eine Provokation, indem er erklärte, die von der europäischen Aufklärung gepflegte Trennung zwischen Objekt und Subjekt, Natur und Gesellschaft, Tatsachen und Werten sei unhaltbar. Latour zeigte, dass sich die Beziehungen zwischen Menschen und Dingen in der Pariser Metro oder in staatlichen Großforschungseinrichtungen mit dem gleichen methodischen Rüstzeug der Ethnologie analysieren lassen wie das Leben der Indianer oder Südsee-Insulaner. Da es unmöglich sei, Menschen und Dinge zu trennen, existierten die Forschungsgegenstände nicht ohne die Forscher und umgekehrt. Vor Louis Pasteur und Robert Koch habe es also keine Mikroben und Fermente gegeben.

Wenn sie Frieden schaffen wolle, könne sich die Politik nicht auf die „modernistische Übereinkunft“ einer unabhängig von menschlichen Interessen existierende Natur berufen, schließt Latour daraus. Über „Natur“ könne man nur im Plural reden. Nur über ein „Parlament der Dinge“ mit zwei Kammern (ein „Oberhaus“, das darüber entscheidet, welche Anliegen einbezogen werden, und ein „Unterhaus“ für das Ordnen der einbezogenen Mischwesen) sei der Aufbau eines gemeinsamen Hauses (Oikos) möglich. Damit beschäftigt sich im Detail Latours letztes, auf deutsch Ende 2001 bei Suhrkamp unter dem Titel „Das Parlament der Dinge“ erschienenes Buch.

Obwohl in Bruno Latours Büchern eine Menge politischer Sprengstoff steckt, hat der Meister wiederholt darauf hingewiesen, er sei alles andere als ein Revolutionär. Er ließ durchblicken, im Grunde gehe es ihm nur darum, die gängige Praxis des politischen Krisenmanagements in der EU theoretisch abzusegnen und die Grünen vor sich selbst zu retten (so die Überschrift von 12 Thesen, die Latour im Vorfeld der letzten Wahlen zur französischen Nationalversammlung in „Le Monde“ veröffentlichte). Aus Latours Erkenntnis, dass echte Verständigung zwischen Individuen, Mächten und Kulturen wenig wahrscheinlich ist, kann aber auch gefolgert werden, dass Friedensmärsche und Diplomatie nicht hinreichen, um Frieden zu schaffen. Es kann Situationen geben, in denen Krieg der beste Weg zum Frieden ist.

Edgar Gärtner

Ist CO2 wirklich ein Problem?

Es ist nicht möglich, experimentell und statistisch nachzuweisen, dass der Anstieg des CO2-Gehaltes der Luft die Hauptursache der im 20. Jahrhundert registrierten leichten Erhöhung der globalen Durschnittstemperatur ist. Anfang der 40er Jahre wurden in Deutschland schon einmal höhere CO2-Konzentrationen gemessen als heute. Zwei Naturwissenschaftler demonstrieren, dass das keine Ausreißer waren.

Ist CO2 wirklich ein Problem? von Edgar L. Gärtner

Der CO2-Gehalt der Luft war auch früher keineswegs konstant

Nach dem APEC-Wirtschaftsforum in Singapur rechnet kaum noch jemand mit der Verabschiedung eines Kyoto-Nachfolge-Abkommens auf dem UN-Klima-Gipfel in Kopenhagen. Die EU-Regierungen, die sich in Sachen „Klimaschutz“ weit aus dem Fenster gelehnt haben, fürchten eine Blamage und mobilisieren nun ihr letztes Aufgebot, um noch ihr Gesicht wahren zu können. So hat Angela Merkel angekündigt, nun doch nach Kopenhagen fahren zu wollen – komme, was wolle. Aber das absehbare Scheitern der Mammut-Konferenz gilt beileibe nicht überall als schlechte Nachricht. Es gibt Wissenschaftler, die die Ansicht des von der UN eingesetzten „Weltklimarates“ IPCC, die Menschheit müsse einen weiteren Anstieg der Konzentration des Spurengases Kohlenstoffdioxid in der Luft um beinahe jeden Preis stoppen, nicht teilen.

Der IPCC stützt seine Warnung vor einer Überhitzung unseres Planeten auf kontinuierliche photoakkustische CO2-Messungen auf dem Hawaii-Vulkan Mauna Loa seit 1958. Dieser Standort wurde gewählt, weil man annahm, dort die von Großstädten und Industrien unbeeinflusste CO2-Hintergrund-Konzentration messen zu können. Allerdings erwies sich auch dieser Archipel nicht als unproblematisch, weil man dort die Ausgasungen des Vulkans aus den Roh-Messwerten herausrechnen musste. Die so erhaltenen CO2-Werte folgen einer stetig ansteigenden Zickzack-Kurve, die dem Wechsel zwischen Sommer und Winter auf der Nordhalbkugel folgt. Al Gore begründet mit dieser Kurve auf seiner rund um den Globus in vielen Schulen verwendeten PowerPoint-DVD die Forderung nach einer drastischen Einschränkung technischer CO2-Emissionen mithilfe des Emissionshandels.

Wie sah diese Kurve aber vor 1958 aus? Der IPCC behauptet, man könne sie vom aktuell erreichten Höchstwert von 388 ppm (parts per million)nach hinten bis ins 19. Jahrhundert verlängern bis zu einem vorindustriellen “Normalwert” von etwa 280 ppm. Dabei geht das Gremium stillschweigend davon aus, dass es vor 1958 nur wenige präzise und repräsentative Messungen des CO2-Gehaltes der Luft gab. In Wirklichkeit gab es schon hundert Jahre vor der Entwicklung elektronischer Messgeräte durchaus präzise chemische Methoden für die Bestimmung des CO2-Gehaltes der Luft. Im Jahre 2007 hat der Freiburger Biologielehrer Ernst Georg Beck unter dem Titel „180 Years accurate CO2-Gasanalysis of Air by Chemical Methods“ im engelischen Magazin “ENERGY & ENVIRONMENT” (Volume 18, No. 2/2007) Zigtausende von älteren CO2-Bestimmungen ausgewertet und gezeigt, dass um 1940 in Mittelhessen (Gießen) höhere CO2-Konzentrationen gemessen wurden als heute.

Sofort kam von etablierten Klimaforschern der Einwand, diese lokalen Messwerte seien wohl nicht repräsentativ für den globalen Trend. Deshalb hat Beck kürzlich auf dem Kongress „Klima 2009“ zusammen mit seinem Luxemburger Kollegen Francis Massen eine Formel vorgestellt, mit deren Hilfe sich aus lokalen CO2-Messwerten die Hintergrundkonzentration zuverlässig errechnen lässt, indem die jeweils vorherrschenden Windgeschwindigkeiten berücksichtigt werden. Die beiden bekamen für ihre Präsentation übrigens den Best Paper Award. Es ist nun klar, dass die älteren CO2-Messungen, sofern die methodisch korrekt gewonnen wurden, keineswegs verworfen werden können. Da diese große Schwankungen anzeigen, ist die von der großen Politik zum Dogma erhobene Vermutung, der steigende CO2-Gehalt der Luft sei hauptverantwortlich für den im vergangenen Jahrhundert gemessenen leichten Anstieg der bodennahen Durchschnitttemperatur über den Landmassen Erde nicht mehr haltbar. (17. November 2009)

Internet:

Der asiatisch-pazifische Anti-Klima-Gipfel

Die Angst vor einem Scheitern des Klimagipfels wächst

Die Klimakanzlerin fährt nach Kopenhagen

Beck & Massen: Berechnung der CO2-Hintergrundkonzentration auf der Grundlage lokaler bodennaher Messungen

========================================================================================

Es gibt keine Alternative zur Anpassung an den Klimawandel

Von Edgar L. Gärtner

Geologen halten das Zwei-Grad-Limit für die Erderwärmung für baren Unsinn

Unsere Enkel und Urenkel, so es denn noch welche geben sollte, werden sicher einmal ungläubig den Kopf schütteln, wenn sie in Geschichtsbüchern lesen, für welche Scheinprobleme und ungelegten Eier ihre Vorfahren mitten in einer der schwersten Wirtschaftskrisen viele Milliarden Papier-Euros oder Dollars locker gemacht haben. Besonders belustigt wären sie wohl, wenn sie erführen, dass eine Weltkonferenz einmal allen Ernstes beschlossen hat, den Anstieg der bodennahen Durchschnittstemperatur über den Kontinenten auf genau zwei Grad Celsius zu begrenzen, indem sie ihr Leben einschränken. Doch gerade dieses Zwei-Grad-Ziel galt bislang in der großen Politik und in der politisch korrekten Privatwirtschaft als felsenfestes Dogma, von dem verschiedenste kostenträchtige Einzelmaßnahmen für den „Klimaschutz“ abgeleitet wurden. Nun haben es drei führende deutsche Geowissenschaftler in einem am 28. Oktober 2009 im Wissenschaftsteil der FAZ erschienen Interview erstmals gewagt, dieses Dogma öffentlich anzuzweifeln.

Es handelt sich um Karin Lochte, die Chefin des Alfred-Wegener-Instituts für Meeresforschung (AWI) in Bremerhaven, Volker Mosbrugger, Direktor des Senckenberg-Forschungsinstituts und Museums in Frankfurt am Main, und Reinhard Hüttl, Direktor des Deutschen Geoforschungszentrums (GFZ) in Potsdam. Als Geologen beziehungsweise Paläontologen wissen diese Wissenschaftler über die längerfristige Entwicklung der Klimate viel besser Bescheid als „Klimaforscher“, die nur mit Computermodellen hantieren. Keiner von den dreien zieht in Zweifel, dass die Konzentration des Atemgases Kohlenstoffdioxid (CO2) in der Luft einen beträchtlichen Einfluss auf die Entwicklung der Durchschnittstemperatur unseres Planeten hat. Sie wissen aber auch, dass es noch eine ganze Reihe weiterer Faktoren gibt, die die Klimaentwicklung beeinflussen. Eine Politik, die sich einseitig auf einen Faktor, das CO2, konzentriert, kann deshalb nicht vorgeben, die Klimaentwicklung in den Griff bekommen zu können. Die Menschen haben also keine andere Wahl, als sich dem Klimawandel, der auch ohne ihr Zutun abläuft, irgendwie anzupassen. Mosbrugger drückt das so aus: „Ich glaube, es wird wie immer in der Evolution Gewinner und Verlierer geben (…) und wer sich am besten adaptiert, ist langfristig Gewinner. Jetzt ausschließlich auf Emissionsreduktion zu setzen, ist unklug.“

Allerdings irrt Mosbrugger meines Erachtens gewaltig, wenn er davon ausgeht, die Anpassung an den Klimawandel erfordere ein globales „Erdsystemmanagement“ und damit auch so etwas wie eine Weltregierung. Denkt er ernsthaft, die Bewegung der viele Milliarden Tonnen schweren Platten der Erdkruste managen zu können? Und um wie viel schwieriger wäre erst ein Management der Klimaentwicklung, in die auch kosmische Faktoren eingreifen? Das wäre schlicht einige Nummern zu groß für uns Menschen und bedürfte geradezu göttlicher Kräfte und Fähigkeiten. In Wirklichkeit erfordert die Anpassung an den Klimawandel überhaupt keine globale Strategie. Man müsste nur den Menschen auf lokaler und regionaler Ebene die Freiheit lassen, selbst zu entscheiden, wie sie mit sehr unterschiedlichen positiven und negativen Folgen des Klimawandels umgehen wollen. Die UNO würde überflüssig. Das ist wohl der tiefere Grund für die Versteifung des „Weltklimarates“ IPCC und anderer UN-Gremien auf „Mitigation“ und die Vernachlässigung der „Adaptation“.

Internet:

FAZ: Ein Limit von zwei Grad Erderwärmung ist praktisch Unsinn

================================================================================

Die Sonne birgt noch etliche Überraschungen

Im Juli 2009 brachte die New York Times einen interessanten Überblick über den Stand der wissenschaftlichen Debatte über den Zusammenhang zwischen den Sonnenfleckenzyklen und der Entwicklung des irdischen Klimas. Führende Solarforscher geben zu, dass sie von einem Verständnis der Ursachen zyklischer Schwankungen des solaren Magnetfeldes noch weit entfernt sind. Zurzeit schließen einige Forscher nicht aus, dass die gegenwärtige unerwartet lange Ruhephase der Sonne auf der Erde zu einer Zunahme niedrig hängender Wolken und in deren Folge zu einem spürbaren Rückgang der globalen Durchschnittstemeperatur führt, die mit dem Dalton-Minimum in der ersten Hälfte des 19. Jahrhunderts vergleichbar ist. (21. Juli 2009)

=======================================================================

In einem peer-reviewed Artikel unter dem Titel „Falsification Of The Atmospheric CO2 Greenhouse Effects Within The Frame Of Physics“, in: International Journal of Modern Physics B, Vol. 23, No. 3 (30 January 2009), pp. 275-364 (World Scientific Publishing Co.) weisen die Mathematischen Physiker Gerhard Gerlich (TU Braunschweig) und Ralf D. Tscheuschner (Hamburg) nach, dass die „offizielle“ Treibhaustheorie zur Erklärung des Klimawandels „außerhalb jeglicher Wissenschaft“ liegt. (17. März 2009)

====================================================================

Politische Manipulation der Klimaforschung: Prof. Richard Lindzen vom MIT nennt Ross und Reiter

Der bekannte Atmosphärenphysiker Prof. Richard Lindzen vom Massachusetts Institute of technology (MIT) deckt in einem auf einem Vortrag beruhenden Artikel im Detail auf, wer für die politische Manipulation der Klimaforschung verantwortlich ist.

===========================================================

Inzwischen warnte auch FOCUS-online seine Leser vor einer uns möglicherweise bevorstehenden Kleinen Eiszeit. Es lässt sich nicht mehr verheimlichen, dass die Aktivität der Sonne in den letzten Jahren auf ein beunruihigendes Niveau abgesunken ist.

=============================================================

DIE WELT berichtet relativ sachlich über die Auseinandersetzungen zwischen meinem Freund Ernst Beck, Biologielehrer in Freiburg, und Prof. Stefan Rahmstorf vom Postdam Institut für Klimafolgenforschung (PIK). Während Ramstorf versucht, seine inquisitorischen Methoden gegenüber „Klimaskeptikern“ zu rechtfertigen, gibt sich Beck gelassen. Die begonnene Abkühlung der Erde werde den „Skeptikern“ gegenüber den Erwärmungshysterikern in den kommenden Jahren ohnehin recht geben.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

NASA sucht noch immer nach Sonnenflecken und verharmlost das Ausbleiben des 24. Sonnenzyklus

Nun haben amerikanische Forscher nachgewiesen, dass Abschwächungen des Sonnenzyklus zu einer Abkühlung des Atlantik und zu sinkender Niederschlagstätigkeit führt. (29. August 2008)

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Nachruf auf einen zu früh verstorbenen freien Mann, der wirklich etwas von Klima verstand von Edgar Gärtner

Heute am 13. August 2008 ist der französische Klimatologe Prof. Marcel Leroux, kaum emeritiert, in einem Marseiller Hospital von uns gegangen. Dass er nach der Entfernung einer Niere im Spätherbst des letzten Jahres auf einmal mit Metastasen zu kämpfen hatte, die in seinem Körper herumkreisten, war mir durchaus bekannt. Ich hatte darüber vor gut einer Woche noch mit seiner zweiten Frau Colette gesprochen. Doch während ich noch dabei war, einen Besuch am Krankenbett vorzubereiten, ereilte mich die Nachricht von seinem plötzlichen Ableben. Noch unter Schock, schreibe ich diese Zeilen.

Ich kannte Marcel noch gar nicht so lange. Vor gut zwei Jahren saß ich unter den Arkaden meiner Ferienresidenz in der Nähe einer anderen südfranzösischen Hafenstadt und las mit großem Interesse sein letztes großes Werk „Global Warming. Myth or Reality? The errings ways of climatology“ (Springer-Verlag, Heidelberg 2005). Dessen Autor war mir bis dahin nur durch Zeitschriften-Veröffentlichungen bekannt. Das Impressum des dicken Buches etwas eingehender studierend stellte ich fest, dass sein mutiger Autor gar nicht so weit von mir hinter der Sainte Victoire, dem Hausberg von Aix en Provence, bekannter als Lieblingsobjekt des genial schlechten Malers Paul Cezanne, lebte. Also: Nichts wie hin! Nach zwei, drei Stunden Plausch über Gott und die Welt waren wir schon Freunde. Wobei man noch wissen muss, dass es bei Marcel keinen Alkohol, sondern nur verdünnten Orangensaft gab.

Marcel war nicht der Typ des geselligen Südfranzosen, der einen nach einigen Gläsern Pastis umarmt. Vielmehr war er Bretone, eher klein von Gestalt, aber zäh und drahtig. Er stammte aus einer Familie, deren Angehörige sich über Jahrhunderte als Fischer oder Seefahrer durchgeschlagen hatten. Denn der dünne, saure Granitboden der Bretagne konnte nicht viele Mäuler füttern. Seinen Vater, der, nun bald 100 Jahre alt, noch immer lebt, hatte es als Offizier der französischen Kriegsmarine nach Tunis verschlagen. Dort wurde Marcel geboren. Neben der französischen Sprache blieb ihm auch das Arabische bis zu seinem Lebensende geläufig. Das half ihm ungemein in seinem Werdegang als Klimaforscher. Denn obwohl von Kindesbeinen an passionierter Skipper, fühlte er sich am wohlsten ganz allein unter dem Sternenzelt der Sahara. Das war für ihn, wie er mir immer wieder versicherte, der Inbegriff von Freiheit.

So war es alles andere als zufällig, dass Marcel bald in der Erforschung des Wetters und der längerfristigen Klimaentwicklung Afrikas seine Lebensaufgabe fand. Denn er musste schon während seines Studiums an der Universität Dakar im Senegal feststellen, dass es über das Klima des schwarzen Kontinents keine brauchbare Synthese gab. Für seine Habilitationsarbeit (Thèse d’Etat) reiste Marcel zehn Jahre lang kreuz und quer durch Afrika, um die in ehemaligen Kolonialverwaltungen unter mehr oder weniger dicken Staubschichten vor sich hin gammelnden alten Wetteraufzeichnungen auszuwerten. Oft bedurfte es seiner ganzen Überredungsgabe beziehungsweise Bakschisch in harter Währung, um an die historischen Daten heranzukommen. Leroux entdeckte dabei, dass das Wettergeschehen im tropischen Afrika stark von atmosphärischen Vorgängen an den Polen beeinflusst wurde. Bis dahin dachten die Wetter- und Klimaforscher, es sei eher umgekehrt. Am Ende seiner entbehrungsreichen, aber auch faszinierenden Fleißarbeit stand ein zweibändiger Atlas der Klimageschichte Afrikas, der von der World Meteorological Organisation in Genf herausgegeben und inzwischen in Form einer CD-ROM neu aufgelegt wurde.

Nach weiteren Jahren an der Universität von Dakar bekam Marcel Leroux schließlich eine ordentliche Professur an der Universität Jean Moulin in Lyon und wurde Direktor des Instituts für Klimatologie, natürliche Risiken und Umwelt. In Lyon spezialisierte sich Leroux auf die Auswertung von Satelliten-Fotos, die bei seiner Arbeit in Afrika leider noch nicht zur Verfügung standen. Er stellte dabei fest, dass als treibende Kräfte des Wettergeschehens weniger Tiefdruckgebiete in Frage kamen, wie die klassische (synoptische) Meterologie annimmt, sondern vielmehr flache Kaltluftlinsen mit hohem Druck, die in der Nähe der Pole entstehen und dann Richtung Äquator ziehen. Die dabei verdrängte wärmere Luft bildet Tiefdruckwirbel, die uns schlechtes Wetter bringen. Leroux taufte die Kaltluftlinsen und die sie begleitenden Tiefdruckwirbel „Mobile Polar High“ (MPH). Er war überzeugt davon, dass diese selbst dem ungeübten Betrachter von Satellitenfotos ins Auge springenden Gebilde unser Verständnis der Wetterabläufe revolutionieren werden.

Aus der langjährigen Beobachtung der Häufigkeit von MPH schloss er, dass die Erdatmosphäre dabei ist, sich allmählich abzukühlen. Für die hysterischen Warnungen vor einer Überhitzung unseres Planeten infolge der Verstärkung eines (nicht messbaren!) „Treibhauseffektes“ durch den Ausstoß von Kohlenstoffdioxid hatte er nur Spott übrig. Damit machte er sich in den Augen der Pariser Bürokraten und der ihnen hörigen Massenmedien zum wissenschaftlichen Außenseiter, was ihn aber nicht weiter störte. Immerhin fand er sich in guter Gesellschaft mit dem führenden französischen Geophysiker Claude Allègre, der einige Jahre lang unter dem sozialistischen Premierminister Lionel Jospin das undankbare Amt des Erziehungs- und Forschungsministers übernommen hatte. Wie sein Freund Allègre ging Leroux auf Distanz zur sozialistischen Partei, als es in den letzten Jahren immer deutlicher wurde, dass diese unheilbar vom Virus des Nihilismus infiziert war. Leroux war sich sicher, seine Theorie der Klimaentwicklung werde sich durchsetzen, sobald die Vertreter der offiziellen Lehrmeinung einmal abgetreten seien. Er konnte nicht ahnen, dass er vor seinen Widersachern begraben werden würde.

Nachtrag: Ich bin sicher, Marcel hätte sich über den in der heutigen „Times“ stehenden Bericht über die Auswertung der Wetteraufzeichnungen der Logbücher großer Kapitäne gefreut. Sie demonstrieren die Überlegenheit direkter Beobachtung über die „Play-Station-Klimatologie.“ (14. August 2008)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Climate Sensitivity Reconsidered

von Christopher Monckton of Brenchley

(Deutsche Übersetzung von Argus auf oekologismus.de

Monckton stellt die IPCC-Eingangsparameter der Klimamodelle auf den Prüfstand: Strahlungsantrieb, Klimasensitivität und Rückkopplungen. Er analysiert einen nach dem anderen die IPCC-Parameter und bewertet sie neu anhand von eigenen Erkenntnissen, die er zusammen mit vielen Wissenschaftlern zusammengestellt hat. Ein sehr gut nachvollziehbarer und sehr übersichtlicher Ansatz!

Kernergebnis seiner Neubewertung der Parameter ist: Der Klimabericht des IPCC von 2007 übertreibt den Einfluss des CO2 auf die Temperatur um 500 bis 2000 Prozent.

Bemerkenswert ist auch der moderate Ton, in dem Monckton seine einschneidenden Korrekturen in dem IPCC-Rechengang anbringt und kommentiert.

Zusammenfassung und Kernaussagen in Deutsch

Die Weltklimarat (IPCC, 2007) hat beschlossen, dass die anthropogenen CO2 Emissionen wahrscheinlich mehr als Hälfte der “Erderwärmung” der letzten 50 Jahre verursachthaben und eine weitere schnelle Erd-Erwärmung verursachen werden. Jedoch hat sich globale Durchschnittstemperatur seit 1998 nicht erhöht und dürfte seit Ende 2001 sogar gefallen sein. Die vorliegende Analyse legt nahe, dass Fehler in den Modell-Vorhersagen des IPCC, zur Temperaturentwicklung und vielen anderen klimatischen Phänomenen, aus Fehl-Einschätzungen der drei wesentlichen Faktoren entstehen, aus denen sich die Klimaesensitivität zusammensetzt:

1. Strahlungsantrieb ΔF

2. Der Sensitivitäts-Parameter κ “ohne Rückkopplungen” und

3. Der Rückkopplungsfaktor ƒ.

Wesentliche Gründe, warum die Schätzungen des IPCC überbewertet sein dürften und daher nicht verläßlich sind, werden erklärt. Noch wichtiger ist die Feststellung, dass es womöglich gar keine “Klimakrise” gibt, und dass die zurzeit so populären Anstrengungen der Regierungen, die anthropogen CO2-Emissionen zu reduzieren, sinnlos sind, kaum berechenbar sind und sogar schädlich sein können.

Lord Monckton´s neue Studie belegt:

o Der Klimabericht des IPCC von 2007 übertreibt den Einfluss des CO2 auf die Temperatur um 500-2000 %;

o Der erwartete CO2-Anstieg wird kaum mehr als 0.6 °C zur globalen Durch-schnittstemperatur bis 2100 beitragen;

o nicht eine der drei Schlüsselvariablen, aus denen sich die Klimasensitivität ermitt-let, kann direkt gemessen werden;

o die Werte des IPCC für diese Schlüsselvariablen stammen von nur 4 (vier) veröf-fentlichten Papieren, nicht von 2.500;

o die Werte des IPCC für jede der drei Variablen, und folglich für die Klimaempfind-lichkeit, sind übertrieben angesetzt;

o Die “Globale Erwärmung” stoppte vor zehn Jahren, und die Oberflächentempera-tur ist seit sieben Jahren gefallen;

o nicht eines der Computermodelle, auf denen IPCC aufbaut, sagte eine so lange und schnelle Abkühlung voraus;

o das IPCC fügte eine Tabelle in den wissenschaftlichen Rechengang ein, die die Wirkung der Eisschmelze um 1000 % überbewertet;

o es wurde bereits vor 50 Jahren festgestellt, dass eine Vorhersage des Klimas um mehr als zwei Wochen unmöglich ist;

o Mars, Jupiter, der größte Mond des Neptuns sowie Pluto erwärmten sich zeit-gleich mit der Erde;

o in den letzten 70 Jahren war die Sonne aktiver als in fast jeder anderen Zeit in den letzten 11.400 Jahren.

***************************************************************************

Dr. Vincent Gray’s Abrechnung mit dem „Weltklimarat“ IPCC

„… das IPCC ist abgrundtief korrupt. Die einzige “Reform”, die ich mir vorstellen kann, wäre seine Abschaffung.“

„Das Verschwinden des IPCC ist nicht nur wünschenswert, sondern unvermeidlich.“

Diese Sätze stammen nicht von einem Verrückten, sondern von einem erfahrenen Wissenschaftler aus Neuseeland, der als offiziell bestellter “Expert Reviewer” des Intergovernmental Panel on Climate Change (IPCC) schon an dessen ersten im Jahre 1990 erschienenen Bericht mitgewirkt hat. Die Behauptung des IPCC, die „Evidenz“ einer Klimaschädigung durch eine Änderung der atmosphärischen Konzentration von „Treibhausgasen“ erbracht zu haben, sei schlicht falsch, schreibt Gray in einer nun im Internet zugänglichen systematischen und detaillierten Abrechnung mit den manipulativen Arbeitsmethoden des von der UN-Bürokratie im Jahre 1988 eingesetzten Gremiuns. Sein inzwischen aktualisierter Bericht zeigt Schritt für Schritt, wie aufgrund einer nicht thematisierten menschenfeindlichen religiösen Einstellung zweideutige Beobachtungen und verzerrte Interpretationen wissenschaftlicher Aussagen zu einem Machwerk verwoben wurden, das eine weltweite Kampagne für die Einschränkung menschlicher Entwicklungsmöglichkeiten rechtfertigt. Die geforderte Reduktion der Emission von „Treibhausgasen“ entbehre in Wahrheit jeglicher wissenschaftlichen Grundlage (14. Juli 2008)

********************************************************************

CO2-Gläubige rätseln über schlappe Sonne

Ich gehöre zu jenen, die das Glück hatten, Dr. Theodor Landscheidt noch persönlich erleben zu können. Hinter dem pensionierten Juristen mit der Fliege verbarg sich ein versierter Astronom, der über lange Jahre mit viel Geduld und mathematischer Bravour die Bewegungen und Entwicklungen der Sonne analysiert hatte. (Hier eine Sammlung seiner Veröffentlichungen) Schon um die Mitte der 90er Jahre war sich Landtscheidt sicher, dass die Sonne ab 2007 in eine längere Schwächephase eintreten würde, die auf der Erde zu einer empfindllichen Abkühlung führen muss. Denn er hatte schon erkannt, dass die Sonnfleckenzyklen auf eine Interferenz zwischen den Bewegungen der Sonne und ihres gewichtigen Planeten Jupiter zurückgeht. Australische Astrophysiker haben diese Entdeckung nun bestätigt. Landscheidt stellte seine Entdeckung auf dem Symposium „Klimaveränderungen – Ursachen und Auswirkungen“ vor, das am 10. und 11. November 1997 (das heißt kurz vor der gedankenlosen Verabschiedung des Kyoto-Protokolls über eine Reduktion von „Treibhausgasen“) im Bonner Hotel Königshof von der Europäischen Akademie für Umweltfragen organisiert worden war. Der Tübinger Biochemiker und Photosystheseforscher Prof. Dr. Helmut Metzner, der die Europäische Akademie gegründet und das Bonner Symposium organisiert hatte, war damals zuversichtlich, das mit Kyoto verbundene Selbstmordprogramm noch verhindern zu können. Wenige Wochen nach der Verabschiedung des Kyoto-Protokolls hatte er dann eine längere Unterredung mit seinem Parteifreund Prof. Dr. Klaus Töpfer (CDU). Dieser machte Metzner offenbar klar, dass es keine Möglichkeit mehr gab, den ins Rollen gekommenen Zug der internationalen Klima-Bürokratie noch aufzuhalten. Das mit den wichtigsten Klimaforschern der Welt (nicht nur mit „Skeptikern“) besetzte Bonner Symposium war offenbar für die Katz gewesen. Prof. Metzner legte sich nach dem Gespräch mit Klaus Töpfer erschöpft schlafen und wachte nicht wieder auf.

Konkret legte Theodor Landscheidt 1997 in Bonn dar, dass der seit längerem bekannte Gleissberg-Zyklus der Sonnenaktivität von 90 Jahren im Jahre 2007 seinen nächsten Phasensprung (Nulldurchgang) haben werde. Dadurch werde auf der Erde eine Abkühlungsphase eingeleitet, die ihren Höhepunkt im Jahr 2026 erreichen werde. (Meinem in „Öko-Nihilismus“ enthaltenen Zukunftsszenario habe ich diese Prognose unausgesprochen zugrunde gelegt.)

Landtscheidts Voraussage ist punktgenau eingetroffen. Seit Dezember 2006 tut sich auf unserem Zentralgestirn, abgesehen vom üblichen Brodeln der Plasmaströme, kaum noch etwas. Der längst überfällige Beginn der 24. Sonnenfleckenzyklus lässt auf sich warten. Die wenigen Spuren von Sonnenflecken, die sich hin und wieder zeigten, entpuppten sich als Überbleibsel des 23. Zyklus. Eine so lange Abwesenheit von Sonnenflecken wurde zuletzt vor 350 Jahren auf dem Höhepunkt der so genannten kleinen Eiszeit beobachtet. Diese führte in Europa zu einer Häufung von Vereisungen, Überschwemmungen, Missernten und Hungersnöten sowie in deren Gefolge zu massiven Auswanderungswellen.

Inzwischen nimmt sogar SPIEGELonline (siehe Link in der Überschrift) Kenntnis von einer Realität, die in den „Klimamodellen“, die den Überhitzungs-Projektionen des „Weltklimarates“ IPCC zugrunde liegen, gar nicht vorkommt. Läge der IPCC mit seiner Behauptung richtig, das Verbrennungs- und Atmungs-Gas Kohlenstoffdioxid (CO2) sei die Hauptursache der in den vergangenen Jahrzehnten beobachteten leichten globalen Erwärmung, dann müssten jetzt schleunigst alle Hindernisse beseitigt werden, die dem überfälligen Bau zahlreicher neuer Kohlekraftwerke entgegenstehen. (6. Juli 2008)

Die Sonne ist zu etwa 70 Prozent für den Klimawandel auf der Erde verantwortlich

Das schätzt Dr. Bruce West, Chefwissenschaftler des US Army Research Office, in einem in der Fachzeitschrift „Physiscs today“ veröffentlichten Aufsatz. Darüber berichtete am 3. Juni 2008 das US-Online-Magazin „Wired“. In Europa wurde die Nachricht mit vielen Konjunktiven entschärft. Da der 24. Sonnenzyklus noch immer auf sich warten lässt, sollten wir uns trotz des Tropenwetters, das in diesem Juni in weiten Teilen Deutschlands herrscht, auf eine Abkühlung der Erde gefasst machen.

In einem Bericht mit dem Titel „Global Temperature Dives in May.“ schreibt der Meteorologe Anthony Watts, das seit Beginn dieses Jahres feststellbare dramatische Absinken der Durchschnittemperatur der Erde habe sich im Mai fortgesetzt. Seit Januar 2007 sei die Temperatur um etwa den Betrag (0,75 Grad Celsius) abgesunken, der in den IPCC-Berichten als „Signal der menschengemachten globalen Erwärmung“ in den letzten 100 Jahren interpretiert wurde.

Hier ist die neueste Temperaturkurve,, die an der University of Alabama in Huntsville aufgezeichnet wurde.

Kollege Wolfram.von-Juterczenka@dw-world.de teilt folgende im Mai 2008 gemessene Temperaturwerte mit:

Spitzbergen -2,0° ( 0,8° kälter als Mai 07; wärmster der letzten 18 Jahre: 2006 +1,2°, kältester 1998 -5,3°)

Tromsoe 4,4° ( 1,3° kälter als 07; wärmster 10,9° 1990)

Neumeyer

(Antarktis) -22,4° (4,3° kälter als 07; wärmster in letzen 18 Jahren: -17,5° 1992, kältester -25,4° 2004)

Südpol -59,3° (1,4° kälter als 07; wärmster -18 Jahre- : -56,2 2006, kältester -60,0 1996)

Godthab

Westgrönland: 3,4° (3,5° wärmer als 07; wärmster – 10 Jahre- 3,5° 1996, kältester -2,6° 1992)

In seinem Blog brachte Anthony Watts am 15. Juni 2008 weitere Einzelheiten der Entwicklung des Magnetismus der Sonne und ihres Einflusses auf die Erde. Der Average Geomagnetic Planetary Index (Ap), ein Maß für die solare magnetische Feldstärke, ist im Oktober 2005 auf ein extrem niedriges Niveau abgesackt und hat sich seither nicht wieder erholt. (18. Juni 2008)

Global Warming macht Pause

Die britische Tageszeitung „Telegraph“ berichtet von einer neuen Veröffentlichung deutscher Klimaforscher im Wissenschaftsmagazin „nature“. Danach gehen die Forscher davon aus, aufgrund festgestellter Veränderungen in atmosphärischen und ozeanischen Strömungsmustern werde sich die begonnene Phase eines leichten Rückgangs der globalen Durchschnittstemperatur mindestens bis 2015 fortsetzen. Ich vermute, es handelt sich hier um einen ersten Versuch, dem perplexen Publikum zu erklären, warum die Realität den Verkündungen des „Weltklimarats“ IPCC nicht folgt, ohne klipp und klar zu sagen, dass die Klimaentwicklung mit der atmosphärischen Konzentration des zum zum „Klimakiller“ erklärten Kohlenstoffdioxids (CO2) wenig bis nichts zu tun hat. Jedenfalls haben die Autoren der am IFM Geomar-Institut für Meeresforschung in Kiel erarbeiteten Studie in Gestalt ihres Sprechers Mojib Latif sofort davor gewarnt, den nach ihrer Meinung fortbestehenden längerfristigen Erwärmungstrend auf die leichte Schulter zu nehmen. Die in ihren Augen gefährliche globale Erwärmung mache nur eine Pause.

Schon im vergangenen Jahr hatte ich Skeptiker-Freunde davor gewarnt, sich nicht zu früh zu freuen. Meine lieben Journalistenkollegen würden sicher auch noch den Purzelbaum hinkriegen, die drohende Kleine Eiszeit mit dem bösen CO2 in Verbindung zu bringen. Kollege Holger Darmbeck hat nur zwei Tage gebraucht, um diese Prophezeiung in SPIEGEL-online in Erfüllung gehen zu lassen. (2. Mai 2008)

Anzeichen für ein Abflachen des CO2 Anstiegs in der Atmosphäre und eine Abkühlung des Ozeans

Buchstäblich gar nichts entwickelt sich zurzeit entsprechend der Warnungen, für die der „Weltklimarat“ IPCC im Jahre 2007 mit dem Friedensnobelpreis ausgezeichnet wurde. Nicht nur die Temperaturkurve der Erde, sondern auch die Kurven der Methan- und CO2-Konzentrationen scheinen neuerdings abzuflachen. Hinzu kommt eine weitere irritierende Meldung: Forscher des Alfred-Wegener-Instituts für Meeresforschung (AWI) in Bremerhaven haben in einer monatelangen Messkampagne festgestellt, dass sich das Tiefenwasser rund um die Antarktis eindeutig abkühlt. Sicher ist es noch zu früh, um daraus einen neuen Trend abzuleiten. Aber die Zweifel an der Begründung der Angstmache wachsen. (21. April 2008)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Extremwetterkongress im Gegenwind

Da die Wettermaschine der Erde den Propheten einer heranrückenden Klimakatastrophe nicht Gefallen tut, verrückt zu spielen, befleißigten sich Massenmedien anlässlich des Hamburger Extremwetterkongresses ungenannter Sponsoren, den Eindruck zu erwecken, es stimme etwas nicht in der Antarktis. BILD titelte am Donnerstag, dem 27. März 2008: „Neuer Umweltschock. Südpol zerfällt.“ Nähme nan das wörtlich, müsste man die Seefahrt und den Luftverkehr sofort einstellen, denn ohne Südpol gäbe es auch keinen Nordpol mehr. Was die die Redaktion der BILD-Zeitung wirklich meinte, war das Abbrechen eines größeren Brockens des Wilkins-Schelfeises. Das kommt hin und wieder vor, hängt nach Aussage kompetenter Metorologen aber keineswegs mit der Temperaturentwicklung des Antarktischen Kontinents im Ganzen zusammen. Vielmehr ragt dieser Eis-Schelf mit der Antarktischen Halbinsel weit in Gewässer, die milden Nordwestwinden ausgesetzt sind. Als den Anden benachbarte seismisch aktive Zone der Erdkruste besitzt die antarktische Halbinsel überdies etliche aktive Untereis-Vulkane, die Bewegungen des Gletscheises beschleunigen können. Doch davon erfuhren die Leser von BILD nichts. Es kam den Kollegen der BILD-Redaktion wohl eher darauf an, ihren Lesern nach einem ausnehmend eisigen Osterfest einzureden, die globale Erwärmung gehe weiter. (Siehe hierzu auch die Erklärung auf der Website des EIKE Europäischen Instituts für Klima und Energie.

Hier die Entwicklung der Mitteltemperaturen der Antaktis:

Georg v. Neumeyer (deutsche Antarktisstation):

Januar 1991 bis 2008

-3,8 -1,8 -4,2 -5,7 -4,6 -3,9 -4,5 -4,2 -3,8 -5,6 -4,8 -3,2 -5 -2,3 -2,4 -3,1 -3,5 -5,6

Februar 1991 bis 2008

-6,6 -6,8 -9,7 -7,3 -6,4 -6,1 -8,7 -6,2 -7,2 -10,8 -7,8 -8,1 -7,2 -6 -7,2 -7,3 -9,8 -8,6

Südpol

Januar 1999 bis 2008

-26,2 -31,1 -29,8 -26,7 -27,6 -27,7 -26,4 -28,3 -27,5 -30,1

Februar 1999 bis 2008

-39,7 -43,2 -39,9 -40,7 -40,8 -38,6 -39,5 -42,8 -42,4 -41,8

Casey (Antarktis – Rand)

Januar 1994 bis 2008

-0,1 -2 -1 0,0 -0,4 -1,5 -1,8 -0,3 0.5 0,0 -0,7 0,7 -0,5 0,1 -1,2

Februar 1994 bis 2008

-2,1 -4,2 -2,6 -2,4 -2,8 -3,5 -2,7 -4,6 -2,9 -2,3 -1,1 -2 -2,5 -2,1 -4,1

Hier die Entwicklung der mittleren Temperaturen des Monats März an einigen ausgewählten Wetterstationen:

Spitzbergen 1995 – 2008

-15,4 -6.6 -12,3 -13,3 -7,5 -14,9 -16,8 -18,4 -17,8 -7,5 -17,1 -12,7 -7,0 -14,7

Südpol 1999 – 2008

-54,4 -53,5 -54,6 -48,6 -54,5 -55 -51,9 -56,4 -57,7 -53,3

Godthab (Grönland) 1991 – 2008

-6,7 -8,2 -13,8 -11,8 -12,7 -8,5 -10,6 -8,1 -6,9 -8,6 -5,7 -9,4 -6,6 -9,2 -2,7 -2,8 -7,2 -8,6

(Mitteilung von Wolfram.von-Juterczenka@dw-world.de)

******************************************************************

NASA-Forscher suchen verzweifelt nach Sonnenflecken

Anfang Januar 2008 schien es so, als käme der angesagte 24. Sonnenfleckenzyklus (seit dem 18. Jahrhundert) endlich in Gang. Doch das erste zaghafte Vorzeichen neuer Sonnenflecken verschwand schon nach drei Tagen. Nun wächst die Furcht vor einer neuen Kleinen Eiszeit. Die von interessierter Seite geschürte hysterische Angst vor einer Klimaverbesserung, Verzeihung: globalen Erwärmung dürfte schon bald als Problem erscheinen, das man gerne hätte.

Inzwischen tauchten auf den Fotos der Sonnen-Sonde SOHO zwar einige kleine Flecken auf. Doch diese erwiesen sich aufgrund der Polarität ihres Magnetfeldes eindeutig als Reste des auslaufenden 23. Zyklus. Die Freunde der Sonne wurden auf den Monat März vetröstet. Doch nichts tat sich. Nun erhoffen die Beobachter der NASA den Start des 24. Zyklus in der zweiten Jahreshälfte, vielleicht aber auch erst im nächsten Jahr. Dann wäre der 23. Zyklus der längste seit dem Jahre 1800. Das klingt nicht sehr beruhigend. (8. April 2008)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Kürzlich hat der Britische Wetterdienst (UK/CRU/UEA) die „Global-Temperatur 2007“ publiziert.

2007 kommt seit 1998 nur auf Platz 8, bei fallender Tendenz. Wie peinlich für die Klimagogen, hatten sie doch noch vor wenigen Wochen einen „neuen Rekord“ mit 14.54° (1998: 14.52°) hinaustrompetet. Stattdessen nun weiterhin fallende Tendenz, und zwar recht deutlich. Damit gibt es seit 1998 keinen weiteren Temperaturanstieg mehr – im Gegenteil. (Danke an Dipl. Met. Klaus-Eckart Puls für die Mitteilung)

Januar 2008 war nach Satelliten-Messungen der zweitkälteste Januar in den letzten 15 Jahren.

Der Winter 2007/2008 gilt schon jetzt auf der Nordhalbkugel als der kälteste Winter seit Menschengedenken. Nur die Deutschen haben davon nicht viel mitbekommen.

100 Jahre Erwärmung in einem Jahr rückgängig gemacht

Inzwischen zeigen Zusammenstellungen von unzweifelhaften Messdaten aus der ganzen Welt, dass der in hundert Jahren erreichte Gesamtbetrag der Klimaverbesserung (ein Anstieg des globalen Temperaturmittelwerts von etwa 0,7 °C) in einem einzigen Jahr verloren gegangen ist. Das meldet der Blog DailyTech.com. Dort findet sich auch eine beeindruckende Temperaturkurve für die letzten Jahre.

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Schwerwiegende Fehler im IPCC Report 2007

Quelle: IPPCC, 2007: Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Solomon, S., D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M.Tignor and H.L. Miller (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA.

Hier der Link zum AR 4

von Ernst-Georg Beck, Dipl. Biol. 1/2008

Statement:

Der 4. Klimabericht des IPCC (Weltklimarat) 2007 der UNO enthält in wesentlichen Teilen falsche Informationen. Deshalb sind alle daraus abgeleiteten politischen Konsequenzen haltlos und ohne wissenschaftliche Basis. Alle Verweise und Diskussionen über mögliche Konsequenzen in Publikationen der Medien, Schulen und Universitäten beruhen auf Pseudowissenschaft. Politische und wirtschaftliche Aktivitäten gemäß der irrigen Behauptungen des IPCC müssen sofort beendet werden. Eine unabhängige, wissenschaftliche Debatte muß zur Aufklärung stattfinden.

1. Falsche Temperaturdaten:

a)Die Temperaturkurven S. 25 und 29 (pdf) seit 1960 beruhen hauptsächlich auf dem Wärmeinseleffekt, da besonders für die ansteigenden Temperaturen seit 1975 wenige in Städten liegende Stationen verwendet werden. Tatsächlich steigen die Temperaturen nicht wie gezeigt an, sie fallen weltweit laut Satellitenmessung:

Nachweis: Ross McKitrick

Satellitendaten: MSU

b) Die gezeigten Kurven S. 29 (PDF, S. 121 IPCC) enden alle 2001. Warum im Bericht 2007, wo doch der letzte IPCC Bericht 2007 erschien?

Weil die mittlere Erdtemperatur seit 1998 nicht mehr steigt, sondern fällt! Treibhauseffekt?

Nachweis: Hier der Lieferant der IPCC-Temperaturdaten

CRU (England), Jones et al. (rechts die Temperaturen anklicken)

2. Falsche CO2 / Methan-Daten:

Die Kurven des CO2 und Methans sind teilweise falsch bzw. irreführend dargestellt.

CO2 war in den letzten 200 Jahren stark schwankend mit Konzentrationen wie heute um 1825, 1857 und 1942. Methan stagniert seit langem und fällt seit 2007, also kann es nicht als zusätzliches Treibhausgas wirken.

Nachweis: CO2

Methan: NOAA (2006)

3. Weniger Hurrikane:

Behauptung S. 15 „Tropical storm and hurricane frequencies vary considerably from year to year, but evidence suggests substantial increases in intensity and duration since the 1970s……. Specifically, the number of category 4 and 5 hurricanes increased by about 75% since 1970.“

Das ist nur ein Teil der Wahrheit bzw. falsch: Die Anzahl der Hurrikane mit maximaler Stärke war in den 30er Jahren des 20. Jahrhunderts am stärksten.

Nachweis: NOAA (2007)

4. Kein Meeresspiegelanstieg:

Die Kurve S. 19 ist irreführend und entspricht dem Tunnelblick des IPCC alles auszublenden, was nicht in die Hypothese passt. Derzeit steigen keine Meersspiegel!

Nachweis: Prof. N.A. Mörner

5. Kein Konsens:

Der gesamte IPCC-Bericht ist im wesentlichen Teil, der den menschengemachten Klimawandel betrifft genau von 5 Personen begutachtet worden. Die Behauptung, er sei im Konsens von 2500 Wissenschaftlern entstanden ist falsch.

Nachweis: John McLean.

Inzwischen ist übrigens die bittere und im Detail belegte Abrechnung des IPCC Expert-Reviewers Dr. Vincent Gray aus dem Internet herunterladbar. Dr. Gray fordert nach allem, was er erleben musste, nichts weniger als die sofortige Auflösung dieses Gremiums. Denn die Theorie der vom Menschen gemachten globalen Erwärmung sei von Anfang an ein krankhaft religiös begründeter Schwindel gewesen. (akt. 12. Juli 2008)

****************************************************************************************************

Werden wissenschaftliche Standards überflüssig ?

Das neue Jahr begann in den deutschen Medien mit neuen Zumutungen für den gesunden Menschenverstand. Erst berichteten mehrere Online-Magazine und Radiosender, das vergangene Jahr habe in Deutschland einen neuen Durchschnittstemperatur-Rekord gebracht. Doch kurz darauf musste die Meldung mit dem Hinweis auf einen Rechenfehler des Deutschen Wetterdienstes korrigiert werden. Nun heißt es, ein neuer Rekord sei knapp verfehlt worden. Dabei sollte ohnehin klar sein, dass die Durchschnittstemperatur unseres Landes, das nur ein Pünktchen auf dem Globus darstellt, kaum Aussagekraft besitzt. Weltweit hat sich 2007 die seit etwa einem Jahrzehnt beobachtbare Stagnation der bodennahen Durchschnittstemperatur fortgesetzt. Da der Ausstoß von Kohlenstoffdioxid (CO2) zur gleichen Zeit wegen des Wirtschaftsbooms in „Schwellenländern“ wie China, Indien und Brasilien und zum Teil auch in alten Industrieländern kräftig angestiegen ist, bedarf die Behauptung, anthropogenes CO2 sei die Hauptursache der globalen Erwärmung, inzwischen schon einer gehörigen Portion Schuzpe. Doch die herrschende nihilistische „Elite“ fühlt sich offenbar so fest im Sattel, dass sie keinen Grund für eine Korrektur ihrer kostspieligen und selbstmörderischen „Klimaschutzpolitik“ sieht. Man kann sicher sein, dass sich in unseren Medien immer jemand findet, der Wetterereignisse aller Art und vielleicht sogar eine deutliche Abkühlung der Erde als Bestätigung der offziellen Lehrmeinung bzw. als Erfolg der „Klimapolitik“ zu interpretieren weiß.

So wurde der Bielefelder Wissenschaftsphilosoph Martin Carrier wegen seiner unverholenen Rechtfertigung politischer Manipulation der Klimaforschung mit dem begehrten Leibnizpreis der Deutschen Forschungsgemeinschaft (DFG) ausgezeichnet. In einem am 2. Januar 2008 vom Deutschlandfunk ausgestrahlten Interview verriet Carrier, wie sich die Politik mithilfe serviler Eierköpfe ihre vermeintliche Legitimation beschafft. Hier ein Auszug aus dem von Christian Schütte geführten Interview:

„Schütte: Der Klimawandel wird kommen, und er ist zum Großteil durch Menschen verursacht. So hat es der Weltklimarat im vergangenen Jahr dargelegt, ein wissenschaftlicher Bericht. Dennoch sagen Sie, dass an der Entstehung im Grunde genommen auch die Politik beteiligt gewesen sei. Inwiefern?

Carrier: Wir haben hier ein Beispiel für einen positiven Einfluss der Politik auf die Wissenschaft, eben dass das Einwirken der Politik im Weltklimarat, im IPCC, wo die Politik die Wissenschaftler gedrängt hat, die verschiedenen Spezialmodelle zu Ozeanatmosphäre und so weiter zu einem aussagekräftigen Gesamtbild zu verbinden. Die Wissenschaftler selbst hatten ja hier mit Zurückhaltung ihre eigenen Spezialitäten gepflegt und den Blick über den Gartenzaun gerade nicht gewagt. Und der Grund ist klar: Der Eindruck herrschte, dass man nicht hinreichend verlässlich die verschiedenen Teilansätze miteinander verknüpfen könnte. Andererseits ist ja die Politik auf eine Gesamtsaussage angewiesen, da man sonst keine Maßnahmen einleiten oder begründen kann.

Schütte: Das heißt, die Ergebnisse und Empfehlungen sind politisch beeinflusst?

Carrier: Ja, in dem Sinne, wie gesagt, dass sich sozusagen der Druck der Politik als heilsam erwiesen hat insofern, als eine Frage von praktischer Relevanz von außen gestellt worden ist, die die Wissenschaft dann nach Kräften zu lösen versucht hat und in diesem Fall auch erfolgreich zu lösen versucht hat. Und das ist eben eine Frage, die sich so aus der disziplinären Entwicklung der Wissenschaft von selbst nicht gestellt hätte.

Schütte: Wie groß ist denn die Gefahr, dass wissenschaftliche Standards vernachlässigt würden durch den Druck der Politik?

Carrier: Natürlich besteht im Einzelfall auch jetzt immer noch wieder die Gefahr der Überforderung, wenn Fragen gestellt werden, die gewissermaßen von außen kommen, aus der Praxis kommen und sich nicht in der Wissenschaft selbst so ergeben hätten. Aber wir haben eben ganz häufig auch die Fälle, dass hier ein Anstoß, ein Anreiz ausreicht, damit die Wissenschaft dann doch belastbare Resultate erreicht.“

Mein Kommentar: Carrier hat sicher recht, wenn er darauf hinweist, dass die Wissenschaft keine letzte Gewissheit erlangen kann über das, was geht. Doch kann sie m. E. sehr wohl erkennen, was alles nicht geht. Darüber geben uns beispielsweise die Gesetze der Thermodynamik Aufschluss. Carrier aber schließt aus den Grenzen wissenschaftlicher Erkenntnisfähigkeit offenbar, man könne sich politisch darauf einigen, was möglich ist. Wissenschaftliche Standards spielen danach keine Rolle mehr. Entscheidend ist, dass etwas herauskommt, das der Politik in den Kram passt. Sollten sich die von der Politik manipulierten Aussagen des „Weltklima-Rates“ IPCC als Irrtum herausstellen, wäre das in den Augen Carriers nicht weiter schlimm. Denn das von der EU zur obersten Richtschnur der Politik erhobene „Vorsorgeprinzip“ ist so definiert, dass man damit schlicht alles rechtfertigen kann. So wird es möglich, selbst völlig unnütze Milliarden-Investitionen, die lediglich der parasitären Bereicherung der Mitglieder des Ökologisch-Industriellen Komplexes dienen, als Dienst für das „Gemeinwohl“ auszugeben. (Edgar Gärtner, 10. Januar 2008)

„Klimapolitik“ nicht wissenschaftlich begründbar

In der WELT vom 25. September 2007 stellen Prof. Hans Mathias Kepplinger und seine Assistentin Senja Post die Ergebnisse einer online-Umfrage unter sämtlichen 239 deutschen Klimaforschern vor, die ich am 10. September in meinem unten wiedergegebenen Kommentar in der gleichen Zeitung schon kurz erwähnt hatte. Zu den wichtigsten Ergebnissen dieser Umfrage zählt der Befund, dass nur eine Minderheit von 10 bis 20 Prozent der angesprochenen Forscher die empirischen und theoretischen Voraussetzungen für die Berechnung des Klimas heute schon für gegeben hält. Die große Mehrheit der Klimaforscher ist sich also ziemlich unsicher über die Zusammenhänge und die zukünftige Entwicklung des Klimas. „Diese Befunde werfen die grundlegende Frage auf, ob die weitreichenden politischen Maßnahmen zum Schutz des Klimas mit Verweisen auf die Klimaforschung gerechtfertigt werden können“, folgern Kepplinger und Post.

Senja Posts Buch „Klimakatastrophe oder Katastrophenklima?“ ist inzwischen erschienen.

Erwärmung der Arktis überwiegend natürlich

SPIEGELonline hat nun im Bericht über Untersuchungen russischer Forscher zugegeben, dass die auffällig rasche Schmelze von Teilen des arktischen Packeises im letzten Sommer zum großen Teil auf eine natürliche Veränderung von Luftströmungen zurückgeht. Während in einem Teil der Arktis die Temperatur gegen den von „Klimamodellen“ prognostizierten Trend zurückgeht, sind andere Teile der Arktis dem Einfluss warmer südlicher Luftströmungen ausgesetzt. Auf diese Entwicklung hat der inzwischen emeritierte französische Klimatologe Marcel Leroux (Lyon) in seinem im Jahre 2005 im renommierten Springer-Verlag (Heidelberg) erschienen Buch „Global Warming. Myth or Reality?“ hingewiesen. Da Leroux in diesem Buch Ansichten über Ursache und Ablauf des Wettergeschehens vertritt, die der derzeitigen Schulmeteorologie teilweise widersprechen, wurde das Buch von der Fachwelt bislang weitgehend totgeschwiegen. Die Leser meiner in der „Chemischen Rundschau“, im „Novo-Magazin“ und „eigentümlich frei“ erschienenen Artikel, meiner Homepage sowie meines Buches „Öko-Nihilismus“ konnten sich allerdings ausgiebig über die etwas ketzerischen Ansichten des französischen Wissenschaftlers informieren. Was heute in SPIEGELonline steht, weist darauf hin, dass Leroux mit seinen Ansichten wohl nicht ganz falsch liegt. Lesen Sie bitte hier unten einen meiner letzten Beiträge über Leroux und seine Klimahypothese, der im vergangenen September in der WELT erschien.

(3. Januar 2008)

Es wird kalt, nicht heiß

von Edgar Gärtner, Hydrobiologe

Warum versuchen in Europa „Experten“, den Menschen einzureden, nicht die Abkühlung, sondern die Erwärmung der Erde stelle die größere Bedrohung dar? Es muss doch einen Grund haben, dass sie bekannte Zusammenhänge buchstäblich auf den Kopf stellen.

Besuch bei Marcel Leroux, einem in Südfrankreich nicht weit von der Grabstätte Picassos lebenden emeritierten Professor für Klimatologie, der in seinen Büchern eine andere Auffassung über die Ursachen des Klimawandels vertritt als die von der Politik nominierten Experten im zwischenstaatlichen Klimarat IPCC. Der noch frisch und drahtig wirkende Skipper bretonischer Herkunft erklärt mir am Computerbildschirm anhand zahlreicher Satellitenfotos, warum in diesem Jahr in Deutschland so früh der erste Schnee gefallen ist. Er zeigt mir die von Grönland nach Süden ziehende gewaltige Kaltluftmasse mit hohem Druck, die ein charakteristisches Wolkenband vor sich herschiebt, das sich an seiner Nordostseite zu einem Tiefdruckwirbel verdichtet. In Südfrankreich macht sich dieser Kaltlufteinbruch durch einen heftigen Mistralwind bemerkbar.

Neben den Wolkenbildern findet man im Internet hochauflösende Druck-, Niederschlags- und Windkarten, vertikale Temperatur- und Windprofile beinahe für jeden Ort und viele andere Angaben, die laufend aktualisiert werden. Man kann dabei sogar die Daten konkurrierender Anbieter vergleichen, um sich sein Bild über das Wettergeschehen zu machen.

So sieht man deutlich, dass die in Form stehender Wellen durch den Trichter des Rhône-Tals gepresste Kaltluft nur bis etwa 1500 Meter Meereshöhe reicht und dass ihr größter Teil von den Alpen und den Pyrenäen nach Westen auf den Atlantik abgedrängt wird. Setzt sich ein solches Kälte-Hoch jedoch einmal irgendwo auf dem Kontinent fest (wie in diesem Sommer in Südost-Europa), kann es auch zur Ursache einer Hitzewelle werden, weil die Luft dann rasch von der Sonne aufgeheizt wird.

Leroux hat nachgewiesen, dass solche Kaltlufteinbrüche seit den 70er-Jahren in immer kürzeren Abständen aufeinanderfolgen. In Südfrankreich lässt sich das einfach überprüfen: Man braucht nur die Entwicklung der Häufigkeit von Mistralwinden in den vergangenen 30 Jahren zu vergleichen. Dann hat man einen Anhaltspunkt für die Richtung des Klimawandels. Leroux schließt aus seinen langjährigen Beobachtungen, dass wir Zeugen eines allmählichen Abkühlungsprozesses sind, der zu einer kleinen Eiszeit führen kann. Das sei vor allem eine schlechte Nachricht für Afrika.

Der Geograf, der als Sohn eines Marineoffiziers in Tunesien geboren wurde und den größten Teil seines wissenschaftlichen Werdegangs in Afrika absolviert hat, kennt die Klimageschichte des Schwarzen Kontinents wie kein Zweiter. Er zeigt mir anhand anderer Satellitenaufnahmen, dass der Einfluss der in Westeuropa einbrechenden Kaltluft bis weit nach Westafrika reicht. Dort verstärkt sie trockene Passatwinde und trägt damit zum Vorrücken der Wüste bei. Es ist seit Längerem bekannt, dass die Sahara ihre größte Ausdehnung auf dem Höhepunkt der letzten Eiszeit erreichte. Warmzeiten hingegen brachten dem Schwarzen Kontinent immer reichlich Niederschläge und damit relativen Wohlstand.

Warum wissen das in Europa so wenige? Warum versuchen dort „Experten“, den Menschen einzureden, nicht die Abkühlung, sondern die Erwärmung der Erde stelle die größere Bedrohung dar? Es muss doch einen Grund haben, dass sie bekannte Zusammenhänge buchstäblich auf den Kopf stellen. Leroux sieht ihn darin, dass die Politik sich mit einer lautstarken Minderheit computergläubiger Forscher zusammengetan hat, die von historischer Geografie und Meteorologie wenig Ahnung haben.

Der Mainzer Kommunikationsforscher Hans Mathias Kepplinger bestätigt das. Er hat in einer Umfrage herausgefunden, dass nur etwa ein Drittel der deutschen Klimaforscher glaubt, dass der Fortgang der Erwärmung überwiegend negative Konsequenzen hätte. Doch von den anderen zwei Dritteln hört und sieht man bislang nicht viel in den Medien. Es mehren sich aber die Anzeichen für ein Ende der Schweigespirale. Nicht zufällig werden neuerdings Bücher und Sendungen über den „Klimaschwindel“ zu Bestsellern.

(Kommentar erschienen am 10. September 2007 in DIE WELT, Berlin)

———————————————————————————————————————–

Klima: Crux mit grönländischen Knochen

Gemeinhin gilt die seit 1958 am Mauna Loa, einen aktiven Vulkan auf Hawaii, mithilfe der von Charles Keeling perfektionierten Infrarot-Spektroskopie aufgezeichnete gezackte Kurve eines kontinuierlichen, leicht exponentiell anmutenden Anstiegs der CO2-Konzentration der Atmosphäre als wichtigstes „Beweisstück“ für die Annahme, die massive Verbrennung fossiler Energieträger seit der industriellen Revolution des 19. Jahrhunderts trage die Hauptschuld an dem seit etwa 150 Jahren feststellbaren leichten Anstieg der Durchschnittstemperatur über den Landmassen der Erde. Der Freiburger Biochemiker und Gymnasiallehrer Ernst-Georg Beck hat seine freie Zeit genutzt, um an Hand älterer Fachveröffentlichungen über präzise Messungen des CO2-Gehaltes der Luft mithilfe der klassischen Pettenkofer-Methode zu überprüfen, ob sich die inzwischen schon legendäre Mauna-Loa-Kurve von ihrem aktuellen Wert (ca. 380 ppm CO2) tatsächlich nach rückwärts extrapolieren lässt bis zum Wert von etwa 280 ppm CO2, der in den meisten „Klima-Modellen“, die den schlagzeilenträchtigen Berichten des UN-Klimarats IPCC zugrunde liegen, als „vorindustrielles Niveau“ angenommen wird.

Becks Fleißarbeit der Auswertung von etwa 90.000 verwertbaren, weil methodisch einwandfreien historischen Messungen förderte eine Überraschung zutage: Zu Beginn der 40er Jahre des vergangenen Jahrhunderts war die CO2-Konzentration mit 420 ppm in ländlichen Gebieten Deutschlands (gemessen von einer der am besten ausgerüsteten Wetterstationen bei Giessen in Mittelhessen) schon einmal deutlich höher als heute. Auch in den Jahrzehnten davor hat der CO2-Gehalt offenbar stark geschwankt. Deutliche Einflüsse gingen z.B. um 1820 vom Ausbruch des Vulkans Tambora in Indonesien aus. Beck fragt sich nun, ob das Ignorieren dieser älteren Messungen, deren Präzision größtenteils nichts zu wünschen übrig lasse, nicht einem Betrug durch Charles Keeling gleichkommt. Jedenfalls könne der UN-Klimarat IPCC nicht so tun, als habe es vor 1958 keine exakten CO2-Messungen gegeben. Beck hat die Auswertung seiner Literatur-Recherche in diesem Jahr unter dem Titel „180 Years accurate CO2-Gasanalysis of Air by Chemical Methods“ im englischen Fachmagazin ENERGY & ENVIRONMENT (Volume 18, No. 2/2007) veröffentlicht.

Im Mai 2007 hat Beck eine deutsche Kurzfassung seiner Arbeit unter dem gewagten Titel „Der CO2-Betrug, der größte Skandal der Wissenschaftsgesichte der Neuzeit?“ im Internet veröffentlicht. Seither ist Becks Arbeit Gegenstand heftigster Polemik. Inzwischen gibt es allein unter der Internet-Adresse, auf der Becks Artikel erschien, an die 500 mehr oder weniger kritische Stellungsnahmen.

Die von Beck aufgrund älterer chemischer Messungen in Europa rekonstruierte Kurve der historischen Entwicklung der atmosphärischen CO2-Konzentration unterscheidet sich in auffälliger Weise von der vom IPCC veröffentlichten Kurve, die vor 1958 in der Hauptsache auf der Analyse der Lufteinschlüsse von Eisbohrkernen beruht. Diese Analysen spiegeln allerdings nur in den oberen Eisschichten die absoluten CO2-Konzentrationen wider. Schon in wenigen Metern Tiefe liegt die eingeschlossene Luft wegen des wachsenden Drucks nicht mehr in Form von Bläschen vor, sondern fest gebunden in Clathraten, deren Analyse bestenfalls gerade noch Aufschluss über die relativen Konzentrationen ihrer Bestandteile gibt, aber kaum noch etwas über die früher vorhandene reale CO2-Konzentration in der Luft aussagt. Insofern sind die in wissenschaftlichen Veröffentlichungen dokumentierten historischen CO2-Bestimmungen von großem Interesse.

Die Korrektheit der von Beck gesammelten und ausgewerteten historischen CO2-Messungen steht wohl außer Frage. Immerhin zählen zu deren Autoren Persönlichkeiten wie der Nobelpreisträger Otto Warburg und der durch das Linde-Lufttrennverfahren bekannt gewordene Paul Schuftan, deren Messtechniken über allen Zweifel erhaben scheinen. Doch bleibt die Frage, ob die korrekt gemessenen Konzentrationen auch als repräsentativ für die jeweilige globale Durchschnittskonzentration gelten können. So wies Urs Neu vom Pro Clim – Forum for Climate and Global Change der Swiss Academy of Sciences, Bern, im Internet darauf hin, dass Beck Messungen aufführt, die beinahe zur gleichen Zeit vorgenommen wurden, aber zu weit voneinander abweichenden Ergebnissen gelangten. Das sei ein Hinweis auf die fehlende Representativität der von Beck zitierten Messwerte, meint Neu. Außerdem seien Beck bei der Auswertung der unterschiedlichen Messreihen Fehler in der Kalibrierung und Skalierung unterlaufen, die an Manipulation grenzten.

Ähnlich argumentiert Prof. Stefan Rahmstorf vom Potsdam Institut für Klimafolgenforschung (PIK) auf der Internet-Seite „RealClimate“. Rahmstorf knöpft sich hauptsächlich Becks Darstellung der aus Proxydaten (fossile Baumringe, Stalagmiten usw) rekonstruierten Temperaturkurve der vergangenen 1000 Jahre vor, die schon einmal 1990 im 1. IPCC-Bericht gezeigt wurde. Danach war es in der mittelalterlichen Warmzeit, als auf Grönland Weizen angebaut wurde und Kühe grasten, deutlich wärmer und in der darauf folgenden „Kleinen Eiszeit“ erheblich kühler als heute. Rahmstorf streitet ab, dass es im Hochmittelalter tatsächlich wärmer war als heute und verteidigt die erstmals im IPCC-Bericht von 2001 gezeigte „Hockey-Schläger“-Temperatur-Rekonstruktion von Michael Mann et al. Diese Kurve hat in etwas modifizierter Weise auch Eingang in den neuesten IPCC-Bericht gefunden. Danach ist die heutige Durchschnittstemperatur der Erde deutlich höher als jemals zuvor in den letzten 1000 Jahren, was in den Massenmedien als Zeichen einer drohenden „Klimakatastrophe“ gedeutet wird.

Immerhin haben die Kanadier Steve McIntyre und Ross McKitrick Manns „Hockey-Schläger-Kurve“ schon vor zwei Jahren in den „Geophysical Research Letters“, dem Organ der US Geophysical Society, einer fundierten Methodenkritik unterzogen und als statistisches Artefakt entlarvt. Und wie will Stefan Rahmstorf mit der vom IPCC akzeptierten Temperaturkurve erklären, dass bis ins 12. Jahrhundert, durch zahlreiche Knochenfunde belegt, auf Grönland tatsächlich Viehzucht betrieben wurde? Es scheint, dass das letzte Wort in Sachen CO2 und Klima noch nicht gesprochen ist.

Edgar Gärtner

(erschienen in: Chemische Rundschau Nr. 9/2007, VS-Medien, CH-Solothurn)

Rahmstorf entlarvt sich selbst

Bürgerfreundliche Abfallverwertung statt Müllkartell

Bürgerfreundliche Abfallverwertung statt Müllkartell

Von Edgar Gärtner

Dem Bundeskartellamt ist das Monopol der Duales System Deutschland AG (DSD) und der mit ihm über Leistungsverträge verflochtenen Mitgliedsfirmen des Bundesverbandes der Deutschen Entsorgungswirtschaft (BDE) seit längerem ein Dorn im Auge. Nach der Auswertung einer Ende 2001 angeordneten Durchsuchung der Geschäftsräume von DSD und BDE sowie einiger Spitzenverbände des Handels hat das Bundeskartellamt nun gegen das DSD und Entsorgungsunternehmen wie RWE Umwelt (Ex-Trienekens) ein zweites Verfahren wegen „Verstoß gegen das kartellrechtliche Boykottverbot“ eingeleitet.

Nach Aussage von Kartellamtspräsident Ulf Böge hat die großangelegte Durchsuchungsaktion den Verdacht erhärtet, dass die genannten Verbände die für die Entsorgung zuständigen Gebietskörperschaften dazu aufgerufen haben, die Mainzer Firma Landbell zu boykottieren. Landbell versucht seit drei Jahren, ein konkurrierendes System zum Grünen Punkt des DSD aufzubauen. DSD-Chef Wolfram Brück habe die Entsorgungsunternehmen schriftlich aufgefordert, nicht mit Landbell zusammenzuarbeiten.

Nach Auskunft des Online-Nachrichtendienstes www.ne-na.de versuchte die vom DSD beauftragte Stuttgarter Anwaltskanzlei Gleiss, Lutz, Hootz und Hirsch den Entsorgungsverband Saar (EVS) und das saarländische Umweltministerium von einer Zusammenarbeit mit Landbell abzubringen, indem sie behauptet, diese stehe der Abstimmungserklärung mit dem DSD entgegen. Dem entsprechend beschieden die EVS-Geschäftsführer das Angebot des Landbell-Geschäftsführers Wolfgang Schertz mit folgender Absage, die an Deutlichkeit kaum zu wünschen übrig lässt: „Abgesehen davon, dass es der EVS gewohnt ist, von ihm abgeschlossene Verträge korrekt einzuhalten, besteht auch unsererseits kein wirtschaftliches Interesse daran, der DSD AG in Köln irgendeinen Vorwand zu liefern, diesen Leistungsvertrag vorzeitig zu kündigen.“

Nur Pech für das Müllkartell, dass die EU-Kommission letztes Jahr entschieden hat, dass Wettbewerber die Infrastruktur des Grünen Punktes, ähnlich wie Wettbewerber auf dem Strom- oder Telekommunikationsmarkt, mitbenutzen dürfen. Nun drohen den aktiv am Boykott von Landbell und anderen Wettbewerbern beteiligten Strafen von bis zu 500.000 Euro.

Inzwischen mehren sich auch von Seiten der Wissenschaft die Stimmen, die eine Abkehr vom Dogma der Hausmülltrennung und der damit verbundenen privilegierten Stellung des DSD sowie der von ihm auf Gedeih und Verderb abhängigen privaten Müllsammler und –verwerter fordern. So wies etwa Prof. Ernst Ulrich von Weizsäcker, der frühere Präsident des Wuppertal Instituts für Klima-Umwelt-Energie, der nun für die SPD im Bundestag sitzt, zwei Tage nach der Bundestagswahl auf einer Tagung in Wetzlar auf die blamable Ökobilanz des Grünen Punktes hin: „Den Verbrauchern sollte endlich reiner Wein eingeschenkt werden. Das DSD tut so, als sei der Grüne Punkt ein wichtiger Beitrag für den Umweltschutz. Dem ist aber nicht so. Und zudem ist das DSD viel zu teuer.“

Martin Kaimer von der Akademie für Technikfolgenabschätzung in Baden-Württemberg rechnete in Wetzlar vor: „Durch das Recycling von Leichtverpackungen wurden nach Angaben des Grünen Punktes im vergangenen Jahr 400.000 Tonnen Kohlendioxid eingespart. Das entspricht 128 Millionen Litern Heizöl. Doch diese Einsparung kostete umgerechnet über 14 Euro pro Liter. Das ist etwa das 21-fache des derzeitigen Dieselpreises!“

Kein Wunder, dass das Bundesumweltministerium (BMU) sich angesichts dieser Bilanz inzwischen mit der lange Zeit verteufelten Müllverbrennung angefreundet hat. „Als mein Dienstherr Bundesumweltminister Jürgen Trittin sein Amt antrat, gehörte er wie die meisten Grünen zu den Gegnern der Abfallverbrennung. Heute hat er mit Müllverbrennungsanlagen keine Probleme mehr, sofern diese die geltenden strengen Abluft-Grenzwerte einhalten. Denn er weiß, dass bei der Verbrennung höchstens halb so viel Treibhausgase freigesetzt werden wie bei der Deponierung von Abfällen.“ So resümiert Dr. Helmut Schnurer, Leiter der Unterabteilung Abfallwirtschaft im BMU, den Lernprozess der letzten Jahre.

Aus Kostengründen setzt das BMU dabei verstärkt auf das bislang umstrittene Trockenstabilatverfahren der hessischen Firma Herhof. Dieses Verfahren nutzt die bei der siebentägigen Verrottung von unsortiertem feuchten Hausmüll in geschlossenen Rotteboxen entstehende Wärme zu dessen Trocknung. Der trockene Abfall lässt sich in vollautomatischen Sortieranlagen leicht von Störstoffen wie Batterien, Metallteilen, Glas, Keramik, Steinen und Sand befreien. Diese können energiesparend und gewinnbringend verwertet werden. Das gilt vor allem für energieaufwändig gewonnene Nichteisen-Metalle wie Aluminium, Kupfer usw. Das übrig bleibende organische Material (Trockenstabilat) eignet sich wegen seines hohen Brennwertes als Ersatzbrennstoff in Zementwerken und Papierfabriken oder als Rohstoff für die Methanerzeugung.

In einer mit Diethard Schade an der Stuttgarter Technikfolgen-Akademie erstellten Studie hat Martin Kaimer festgestellt, dass die Normalbürger mit dem derzeitigen Mülltrennsystem mithilfe von vier oder fünf verschiedenen Tonnen überfordert sind. In den Gelben Tonnen finden sich bis zu 50 Prozent Gegenstände, die dort nicht hineingehören. Umgekehrt findet sich in den Grauen Restmülltonnen ein vergleichbarer Prozentsatz von ausgedienten Verpackungen mit dem Grünen Punkt. Um die im Hausmüll enthaltenen Wertstoffe nutzen zu können, ist meist eine aufwändige Nachsortierung nötig.

Aufgrund der Erfahrungen mit der automatischen Mülltrennung in den Trockenstabilatanlagen von Aßlar im hessischen Lahn-Dill-Kreis, Rennerod im Westerwald und Dresden schlägt Kaimer deshalb vor, in Zukunft (wie vor dem Aufbau des DSD) nur noch Papier, Karton, Glasflaschen und Textilien sowie größere Kunststoffbehälter, deren werkstoffliche Verwertung sich rechnet, getrennt zu sammeln. Alles andere (auch die stinkenden Bioabfälle) soll mit möglichst hohem Nutzungsgrad verbrannt werden. Helmut Schnurer vom BMU hat dafür sogar eine Förderung nach dem Erneuerbare-Energie-Gesetz (EEG) in Aussicht gestellt.

(erschienen 2002 in: Chemische Rundschau)

Abfallpolitik in Europa

Die Europäische Union revidiert ihre Abfallrahmenrichtlinie. Rechtsunsicherheiten sollten ausgeräumt und die Abfallmengen von der Produktionssteigerung entkoppelt werden. Großen Streit gab es über die Vorzüge der Abfallverbrennung, die Art der Kunststoffverwertung und die Rolle der Kommunen im Verhältnis zur Privatwirtschaft. Der Trend geht in Richtung kommunale Planwirtschaft.

EU-Abfall-Rahmenrichtlinie

Europa auf dem Wege in die Recycling-Gesellschaft?

Die Europäische Union revidiert ihre Abfallrahmenrichtlinie. Rechtsunsicherheiten sollen ausgeräumt und die Abfallmengen von der Produktionssteigerung entkoppelt werden. Großen Streit gab es über die Rolle der Abfallverbrennung und der Kommunen im Verhältnis zur Privatwirtschaft. Im Juni 2008 einigten Parlamentarier und Bürokraten auf einen Kompromiss.

Am 17. Juni 2008 hat das Europa-Parlament (EP) in Strassburg in zweiter Lesung der Kompromissfassung einer Revision der EU-Abfall-Rahmenrichtlinie zugestimmt, der zwar den Interessen der Industrie entgegenkommt, gleichzeitig aber auch Bestrebungen einer Rekommunalisierung der Abfallwirtschaft fördert. Wäre es hingegen nach dem Willen der übergroßen Mehrheit des Umweltausschusses des EP gegangen, bekäme die europäische Abfallwirtschaft schon bald große Ähnlichkeit mit dem Sero-System der untergegangenen DDR. (Für die, die damit nichts anzufangen wissen: Mithilfe des Sero-Systems gewann die sozialistische Wirtschaft, um knappe Devisen zu sparen, mit wirtschaftlich unvertretbar hohem Aufwand Sekundärrohstoffe.) Der liberale Europa-Abgeordnete Holger Krahmer (Leipzig), umweltpolitischer Sprecher der FDP im EP, hat als durchgängiges Motiv der am 8. April 2008 vorgelegten Stellungnahme des Umweltausschusses zum Ratsentwurf („Gemeinsamer Standpunkt“) der neuen Richtlinie die „Verliebtheit in die Planwirtschaft“ ausgemacht. Das sagte der Ex-Marxist auf einem Symposium der tecpol GmbH für ökoeffiziente Polymerverwertung und der BKV Plattform für Kunststoff und Verwertung in Frankfurt.

Alle Vorschläge des Ausschusses, so Krahmer, laufen auf mehr Bürokratie hinaus. Die Abfalldefinition sei keineswegs klarer geworden. Werde sie beibehalten, mache die Abgrenzung zwischen Produkten und Abfällen mühsame Abstimmungsverfahren notwendig, die obendrein in verschiedenen Mitgliedsländern der EU zu unterschiedlichen Ergebnissen führen dürften. Die Abfallverbrennung werde von den Parlamentariern nur in sehr eingeschränktem Maße als sinnvolle Verwertung anerkannt. Zudem werde die grenzüberschreitende Privatisierung der Abfallwirtschaft erschwert und der Rekommunalisierung Vorschub geleistet, ohne dem unerwünschten „Mülltourismus“ die Grundlage zu entziehen.

Als die EU-Kommission im Dezember 2005 die Revision alten der Abfallrahmenrichtlinie von 1975 auf den Weg brachte, wurde sie im Wesentlichen von zwei Motiven geleitet:

• Die gewünschte Entkopplung der Abfallmengen von der steigenden Arbeitsproduktivität sei nicht beobachtbar. Es bedürfe bindender nationaler Recyclingziele, um zu greifbaren Ergebnissen zu gelangen. Ziel der EU müsse die Überwindung der Wegwerf-Mentalität in einer „Recycling-Gesellschaft“ sein.

• Die Rechtsunsicherheiten bei der Abgrenzung zwischen Produkt und Abfall sowie zwischen der Verwertung und der Beseitigung von Abfällen sollen ausgeräumt werden.

Ähnlich wie REACh unterlag auch die Revision der Abfallrichtlinie, die in Brüssel unter dem Kürzel WFD (Waste Framework Directive) zirkuliert, dem für Außenstehende kaum verständlichen Mitentscheidungsverfahren, bei dem es zu einem kompliziert erscheinenden Hin und Her zwischen Kommission, Parlament und Rat kommt. In einem „Trilog“ in der Endphase der Auseinandersetzung versuchen die Gremien dann zu vermeiden, dass das Gesetzesvorhaben in einem finalen „Showdown“ untergeht. Bis September 2006 waren zum Kommissionsvorschlag von 2005 über 600 Änderungsanträge eingegangen. Nach seiner 1. Lesung im Europa-Parlament Ende Februar 2007 zeichnete sich ein Einvernehmen zwischen Parlament und Rat über folgende Ziele ab:

• Stabilisierung des gesamten Abfallaufkommens der EU (derzeit jährlich 1,8 Milliarden Tonnen) bis 2012,

• verbindliche Recyclingziele bis 2020 von 50 Prozent für Siedlungsabfälle und 70 Prozent für Bauschutt.

Dabei muss man wissen, dass in einigen EU-Mitgliedsstaaten heute noch 90 Prozent der Siedlungsabfälle auf Deponien gehen, in anderen aber nur noch 10 Prozent.

Unterschiedliche Ansichten gab es hinsichtlich der Hierarchie der Abfallbehandlung. Als oberstes Ziel der Abfallpolitik sah schon die Kommission in ihrem Vorschlag die Abfallvermeidung. Während aber die Kommission die fünfstufige Hierarchie von Vermeidung, Wiederverwendung, Recycling, sonstige Verwertung und Beseitigung nur im Sinne einer Leitlinie verstand, forderte die Mehrheit des EP eine dirigistische Regelung und sah dabei obendrein die Abfallverbrennung überwiegend nicht als sinnvolle Verwertung, sondern als minderwertige Beseitigung von Abfällen an. Nur die Verbrennung in hoch energieeffizienten Anlagen mit einem Stützfeuerungsanteil von weniger als 39 Prozent Primärenergie sollte als Verwertung zugelassen werden. Diese höchst umstrittene Einschränkung wurde im April 2008 vom Umweltausschuss des EP mit einer knappen Mehrheit von 29 zu 24 Stimmen bestätigt. Die Mehrheit der Ausschussmitglieder erklärte die Deponierung und die Verbrennung von Abfällen für gleichermaßen unerwünscht. Damit fielen die Europa-Parlamentarier hinter den im deutschen Kreislaufwirtschaftsgesetz von 1994 und in der deutschen Praxis der Genehmigung von Abfallverbrennungsanlagen erreichten Erkenntnisstand zurück. Es steht in Deutschland heute selbst bei den Grünen außer Zweifel, dass mit modernen Filtern ausgerüstete Kehrricht-Verbrennungsanlagen effiziente Senken für Dioxine, Quecksilber, Cadmium und andere Schadstoffe darstellen.

Industrieverbände, allen voran PlasticsEurope, die Vereinigung der europäischen Kunststoffhersteller, forderten demgegenüber eine flexible, d.h. stoff- und produktbezogene Hierarchie, die Lebenszyklusanalysen Rechnung trägt. Diese Analysen kamen im Falle der Verwertung ausgedienter Kunststoffverpackungen übereinstimmend zum Schluss, dass ein Anteil des werkstofflichen Recyclings in der Größenordnung von 15 bis 25 Prozent optimal ist. Eine höhere Wiederverwertungsquote bringe nicht nur rasch steigende Kosten mit sich, sondern führe gegenüber der Verbrennung oder der rohstofflichen Verwertung von Plastikabfällen in der Stahlindustrie auch zu sinkender Öko-Effizienz. PlasticsEurope erinnert daran, dass Kunststoffabfälle sozusagen „eingefrorenes Öl“ darstellen und aufgrund ihres hohen Heizwertes andere Brennstoffe ökologisch sinnvoll ersetzen können. Die Kunststofferzeuger befürworten daher eine weite Recyclingdefinition, die auch die rohstoffliche Verwertung von Kunststoffresten als Reduktionsmittel in Hochöfen einschließt, sowie die Anerkennung der energetischen Nutzung von Plastikabfällen als Verwertung.

Eine solche weite Definition des Recycling war auch im ursprünglichen Richtlinien-Vorschlag der Kommission enthalten. Es hieß dort, Recycling ist „die Verwertung von Abfall in Produkte, Werkstoffe oder Rohstoffe, entweder für den ursprünglichen Zweck oder für andere Zwecke. Es schließt eine energetische Verwertung nicht mit ein.“ Diese Definition ging in den Ende 2007 veröffentlichten „Gemeinsamen Standpunkt“ des Rates ein. Doch der Umweltausschuss des EP schloss sich einem im März 2008 vorgelegten Änderungsantrag an, der die Anerkennung des Einsatzes von Kunststoffabfällen als Reduktionsmittel als rohstoffliches Recycling ausschließt. PlasticsEurope machte sich selbstverständlich für die weite Recycling-Definition der EU-Kommission stark. Der Verband hat dabei vor allem die Verwertung von etwa 400.000 Tonnen geshredderten Kunststoffverpackungen mit dem „Grünen Punkt“ aus der Sammlung des Dualen Systems Deutschland (DSD) und der Kunststoff-Fraktion von geshredderten Altautos in Hochöfen der österreichischen Voestalpine Stahl, in Schmelzöfen der belgischen Umicore und weitere Projekte in Salzgitter im Auge. Insgesamt, so Dr. Ingo Sartorius von PlasticsEurope, müssten für über 600.000 Tonnen Kunststoffabfälle neue Verwertungsmöglichkeiten gefunden werden, hätte sich die enge Recycling-Definition durchgesetzt.

Sowohl die deutsche Industrie als auch die Berliner Regierung machten sich für die Verwertungsdefinition der Kommission wie auch des gemeinsamen Standpunktes des Rates stark. Danach gelten als Abfallverwertung Verfahren, „in deren Ergebnis die Abfälle einem sinnvollen Zweck zugeführt werden, so dass andere Ressourcen, die für diesen Zweck eingesetzt worden wären, innerhalb oder außerhalb der Anlage ersetzt werden…“ Nur eine solche Definition erlaube eine Verbindung zwischen Materialwirtschaft und Energiegewinnung im Sinne der Ressourcen- und Energieeffizienz. Deutschland drängte deshalb darauf, die Revision der WFD noch vor Ablauf der slowenischen EU-Präsidentschaft durch die 2. Lesung des EP-Plenums und die 2. Lesung des Rates zu bringen.

Den Durchbruch brachte ein „Trilog“ am 2. Juni 2008. Es kam dort zwischen der Kommission, dem Rat und dem Parlament zu einem Kompromiss, dessen Kern der Verzicht der von der EP-Mehrheit im Februar 2007 in der 1. Lesung geforderten verbindlichen nationalen Abfallvermeidungszielen darstellt. Danach sollte die Abfallproduktion bis zum Jahre 2012 auf dem Niveau von 2009 eingefroren werden. Stattdessen bekommen die nationalen Regierungen nun eine Frist von fünf Jahren nach Inkrafttreten der Richtlinie, um Abfallvermeidungsprogramme auf den Weg zu bringen. Dafür mussten die Kommission und die in dieser Frage hinter ihr stehende Privatwirtschaft Einschränkungen der Freizügigkeit auf dem europäischen Binnenmarkt akzeptieren. Die Behandlung gemischter Haushaltsabfälle soll Bestandteil der „kommunalen Daseinsvorsorge“ bleiben. Dr. Rainer Cosson sprach als kommissarischer Hauptgeschäftsführer des Bundesverbandes der Deutschen Entsorgungswirtschaft (BDE) von einem „Rückfall in die Kleinstaaterei.“ Immerhin sollen getrennt gesammelte Verpackungsabfälle, nach Aussage von EU-Umweltkommissar Stavros Dimas, weiterhin grenzüberschreitend verwertet werden können.

So stehen nun die Chancen für die Durchsetzung der weiten Recycling- und Verwertungsdefinitionen auf nationaler Ebene gut. Die neue WFD wird Anfang 2009 in Kraft treten und müsste bis Ende 2010 in nationales Recht umgesetzt werden. Wäre es im Juni 2008 nicht zu einer Einigung gekommen, hätte ein Vermittlungsverfahren mit ungewissem Ausgang in die Wege geleitet werden müssen. Angesichts der bevorstehenden Europawahlen wollte kaum jemand dieses Risiko eingehen.

Edgar Gärtner

(erschienen in: CR-Chemische Rundschau Nr. 8 vom 14. August 2008, VS-Medien AG, CH-Solothurn)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

EU-Abfallstudie

Chancen für das PVC-Recycling

Die Kunststoffindustrie gehört zu den dynamischsten Industriezweigen Europas. Nach dem 17. Bericht über Produktion, Verbrauch und Verwertung von Kunststoffen, den die europäischen Hersteller, Verarbeiter und Wiederverwerter von Kunststoffen vor kurzem unter dem Titel „Compelling Facts about Plastics 2006“ vorgelegt haben, wuchs die Gesamtnachfrage nach Kunststoffen in Europa (einschließlich der Schweiz und Norwegens) im Jahre 2006 mit vier Prozent doppelt so schnell wie das Bruttoinlandsprodukt (BIP) und erreichte eine Gesamtmenge von beinahe 50 Millionen Tonnen. Etwa die Hälfte davon wurde nach dem Gebrauch werkstofflich, rohstofflich oder energetisch wiederverwertet. Dabei gab es große Unterschiede zwischen den Ländern. Während in sieben von ihnen die Wiederverwertungsrate bereits über 80 Prozent lag, haben andere noch einen beträchtlichen Nachholbedarf. In der Hälfte der EU-Mitgliedsländen liegen die Verwertungsraten noch unter 30 Prozent.

Fast zur gleichen Zeit erschien auch eine vom Joint Research Center der EU-Kommission Institute for Prospective Technological Studies (JRC/IPTS) beim GAIKER Centro Tecnológico in Sevilla/Spanien in Auftrag gegebene Studie über die ökologischen Perspektiven der Verwertung von Altkunststoffen bis zum Jahre 2015 unter dem Titel „Assessment of the Environmental Advantages and Drawbacks of Existing and Emerging Polymers Recovery Processes“ (Autoren: Clara Delgado, Leire Barruetabeña, Oscar Salas). Diese Studie, die mit älteren Zahlen arbeitet, untersucht, wie die Vorgaben der EU-Verpackungsverordnung von 1994, der Altauto-Verordnung von 2000 und der Elektro- bzw. Elektronikschrott-Verordnung von 2002 sowie der EU-Direktive über eine Integrierte Produktpolitik (IPPC) von 2005 bei verschiedenen Kunststoffarten umgesetzt werden können. Dabei gehen die Autoren auch auf die Wiederverwertung von PVC-Abfällen ein, obwohl PVC mengenmäßig im Vergleich zu leichtem und schwerem PE zu den weniger bedeutenden Kunststoffströmen gehört. Aus mehreren Gründen steht die PVC-Verwertung vor besonderen Problemen.

Zum einen ist die Verwendung von PVC als kurzlebiges Verpackungsmaterial nur noch von geringer Bedeutung, während hier der Einsatz konkurrierender Kunststoffe wie PE, PET und PP zum Teil explosionsartig zugenommen hat. Dementsprechend findet sich im Hausmüll im Schnitt nur noch etwa ein Prozent PVC. Gleichzeitig hat der Einsatz von PVC als langlebiger Werkstoff am Bau (vor allem in Form von Rohren, Fensterprofilen, Fußbodenbelägen und Dachbahnen) an Bedeutung gewonnen, wobei enorme Spannbreiten in der Lebensdauer, aber auch Unterschiede zwischen vergleichbaren EU-Ländern ins Auge springen. Es gibt PVC-Abwasserrohre, die seit der Vorkriegszeit, d.h. seit 80 Jahren im Gebrauch sind oder, falls sie nicht mehr benutzt werden, unter der Erde bleiben und in dieser Form kein Abfallproblem darstellen. Auch ausgebaute Fenster bzw. deren PVC-Rahmen werden nur zum Teil zu Abfall, weil es insbesondere in den ärmeren ost- und südeuropäischen Ländern einen Markt für Gebrauchtfenster gibt. Ein wichtiger Stoffstrom vom Bau, die Kabelverwertung, die wegen des starken Anstiegs der Kupferpreise in den letzten Jahren rasch an Bedeutung gewonnen hat, wird bislang in Kunststoffstatistiken nicht erfasst, weil sich die Kabelzerleger in erster Linie als Altmetall- und nicht als Kunststoffverwerter sehen. Deshalb sind im Bausektor insgesamt nur grob überschlägige Berechnungen der PVC-Verwertung möglich. Die JRC/IPTS-Studie stellt lediglich fest, dass die Verwertungsrate von Alt-PVC (die die Autoren ohne Berücksichtigung der Kabel europaweit auf 10 Prozent schätzen) hier stark von freiwilligen Recycling-Initiativen der PVC-Verarbeiter abhängt. Diese Initiativen sind seit Anfang der 90iger Jahre zunächst in den Niederlanden und Deutschland für Rohre, Bodenbeläge Fenster und Dachbahnen aufgebaut worden. Seit 2005 fördert die PVC-Branche die Anlieferung von PVC-Abfällen durch finanzielle Anreize. Ein Beispiel dafür ist das vor allem in Großbritannien, den Niederlanden und in Frankreich eingeführte Recovinyl-System.

Zum andern hängt die Entwicklung des Einsatzes von Kunststoffen im Bausektor stark von Mode- bzw. Image-Trends ab. Während PVC-Fensterprofile in Deutschland inzwischen einen Marktanteil von über 50 Prozent erobert haben, ist ihr Einsatz im Nachbarland Frankreich rückläufig. Welcher Trend sich durchsetzen wird, ist nicht ausgemacht. Um die Vorteile von PVC als haltbarer sowie ressourcen- und energieeffizienter Werkstoff herauszustellen, haben über 20.000 im Nachhaltigkeits-Programm „Vinyl 2010“ zusammengeschlossene europäische PVC-Hersteller und –Verarbeiter sowie Lieferanten von Additiven im März 2000 eine freiwillige Selbstverpflichtung gegenüber der EU-Kommission abgegeben. Dazu gehört neben dem Verzicht auf die Verwendung bedenklicher Cadmium-Stabilisatoren ab 2001 und dem Versprechen, bleihaltige Stabilisatoren bis 2015 schrittweise durch harmlosere Additive zu ersetzen, auch die Zusage, bis zum Jahre 2010 zusätzlich mindestens 200.000 Tonnen Nach-Gebrauchs-PVC-Abfälle, die noch keiner Regulierung unterliegen, sinnvoll zu verwerten.

Dabei steht das werkstoffliche Recycling im Vordergrund. Dieses schneidet nach dem in der JRC/IPTS-Studie enthaltenen Ranking der Kunststoff-Verwertungswege auch am besten ab. Die Autoren der Studie erwarten, dass im Jahre 2015 insgesamt etwa 24 Millionen Tonnen ausgediente Kunststoffe (davon fast 16 Millionen Tonnen Verpackungsabfälle) in den Siedlungsabfall gelangen. Den Löwenanteil machen dabei (mit 38 bzw. 17 Prozent) LDPE und HDPE aus. Es folgen 15 Prozent PET, 13 Prozent PP und 10 Prozent PS. PVC-Reste gehören mit einem Anteil von 4 Prozent zu den weniger bedeutenden Bestandteilen des Siedlungsabfalls. Größer wäre der PVC-Anteil mit 12 Prozent (gegenüber gut 36 Prozent PP und 22 Prozent PUR in geshredderten Altautos. Die Autoren der Studie schätzen, dass bis 2015 68 bis 83 Prozent der untersuchten PVC-Abfälle eingesammelt werden können. Am bedeutendsten bleibt der PVC-Anteil mit 56 Prozent (gegenüber 63 Prozent im Jahre 2005) in der Kunststofffraktion des Bauschutts. Schätzungsweise 1,12 Mio. Tonnen (gegenüber 660.000 Tonnen im Jahre 2005) würden davon verwertet. Auch wenn die Gesamtverwertungsquote im Szenario einer angenommenen Bevorzugung des werkstofflichen Recycling mit 46 Prozent vermutlich deutlich niedriger ausfallen wird als bei den anderen durchgerechneten Szenarien mit einem höheren Verbrennungsanteil, bringt dieses Szenario die größte Umweltentlastung.

Nach dem Fortschrittsbericht 2007 von „Vinyl 2010“ hat sich die zusätzlich recycelte Menge von Nach-Gebrauchs-PVC-Abfällen von Jahr zu Jahr mehr als verdoppelt: von 18.077 Tonnen im Jahre 2004 auf 38.793 Tonnen 2005 und 82.812 Tonnen 2006. Über sieben Millionen Euro schoss „Vinyl 2010“ im letzten Berichtsjahr verschiedenen Recycling-Projekten mit einem Gesamtvolumen von etwa 40.000 Tonnen Alt-PVC zu.

Für Deutschland hat die CONSULTIC Marketing & Industrieberatung GmbH in Alzenau für das Jahr 2005 folgende Zahlen ermittelt: Von 360.000 Tonnen Nach-Gebrauchs-PVC-Abfall insgesamt wurden 270.000 Tonnen (75 Prozent) verwertet. Davon 210.000 Tonnen (58 Prozent) überwiegend in Abfallverbrennungsanlagen energetisch und 60.000 Tonnen (17 Prozent) stofflich. 54.000 Tonnen (15 Prozent) davon wurden werkstofflich recycelt, der Rest rohstofflich. Der bedeutendste Teil dieses Abfallstroms (24.000 Tonnen) stammt nach der Analyse von CONSULTIC aus der Kabelzerlegung. 18.000 Tonen stammten aus anderen Quellen wie Verpackungen und 12.000 Tonnen gingen auf freiwillige Recycling-Initiativen der PVC-Verarbeiter zurück.

Nach Auskunft des führenden Kabelverwerters Cablo in Fehrbellin bei Berlin, der zu 100 Prozent Europas größter Kupferhütte Norddeutsche Affinerie gehört, liegt die aus Kabelschrott stammende wiederverwertete PVC-Menge in Deutschland, vorsichtig geschätzt, mit 60.000 Jahrestonnen deutlich über der von CONSULTIC angenommenen Menge. Hinzu komme eine unbekannte PVC-Menge aus Altkabeln, die nach China verschifft und dort in Handarbeit mit Taschenmessern, sauber nach Farben getrennt, von den Kupferdrähten abgelöst wird. „Dieses vorbildliche werkstoffliche Recycling ist bei uns leider unbezahlbar“, klagt Michael Landau von Cablo. Es ist nicht ausgeschlossen, dass auch in anderen EU-Ländern mehr PVC aus Kabelabfällen wiederverwertet als bisher bekannt. Das wirft das die Frage auf, ob es nicht für die Kunststoffbranche sinnvoll wäre, bereits funktionierende Wege der PVC-Verwertung besser zu erfassen und statistisch richtig einzuordnen.

Edgar Gärtner (veröffentlicht in: SwissPlastics, VS-Medien, CH-Solothurn, Nr. 4/2008)

Bio-Kunststoffe: Zwischen Faszination und Verwirrung

Von Edgar Gärtner

In einem Editorial der New York Times stand in diesem Frühjahr zu lesen: „Amerikaner schmeißen jedes Jahr 100 Milliarden Plastiktüten weg, Berge von Plastik, die 1000 Jahre halten können…“ Im gleichen Atemzug lobt die große linksliberale Zeitung San Francisco als erste US-Großstadt, die angefangen hat, die Ausgabe von Einkaufstüten aus biologisch nicht abbaubaren Kunststoffen in Gemüseläden und Apotheken zu verbieten. Da die Nation neuerdings nach Möglichkeiten des Energiesparens Ausschau halte, sollten Bundesstaaten und lokale Behörden darüber hinaus beginnen, die Verbraucher zum Einsatz wieder verwendbarer Tragetaschen anzuhalten.

In diesem kleinen Artikel finden sich gleich mehrere der Irrtümer, die in Sachen Bioplastik und Energiesparen herumgeistern. So ist die biologische Abbaubarkeit nicht unbedingt ein Hinweis auf eine biologische Herkunft der Rohstoffe. Nur ein Teil der in der freien Natur biologisch abbaubaren oder in industriemäßigen Rotteanlagen kompostierbaren Kunststoffe ist aus nachwachsenden Rohstoffen gemacht. Bio-Kunststoffe können auch aus herkömmlichen, ölbasierten Polymeren wie Polyester bestehen, deren Molekülketten chemisch so abgewandelt werden, dass sie für Mikroorganismen wie Pilze und Bakterien verwertbar werden. Die häufigste Anwendungsform ist eine Mischung dieser Polymere fossilen Ursprungs mit abbaubaren Komponenten biologischen Ursprungs wie zum Beispiel Kartoffel-Stärke (so genannte „Blends“).

Die Kompostierbarkeit von Verpackungen bzw. von Kunststoffen wird in Europa durch die Norm EN 13432 bzw. DIN EN 14995 definiert. Nicht alle biologisch abbaubaren Stoffe sind auch kompostierbar. Umgekehrt sind nicht alle kompostierbaren Stoffe unter allen Umständen biologisch abbaubar. In großtechnischen Kompostierungsanlagen läuft die Rotte unter streng kontrollierten Bedingungen wie zum Beispiel einer bestimmten Feuchte und einer Mindesttemperatur von 60 Grad Celsius ab. Wo solche Bedingungen in der freien Natur nicht gegeben sind, kann die Zersetzung kompostierbarer Kunststoffe Jahre beanspruchen. Auch so genannte „Grünabfälle“, wie Holz und andere Gartenabfälle zersetzen sich sehr langsam, wenn sie nicht den für den Abbau geeigneten Bedingungen eines Komposters unterliegen.

Kompostierbare Plastiktüten sind also nicht geeignet, dem so genannten Littering-Problem, dem achtlosen Wegwerfen von Verpackungen aller Art in die Landschaft beizukommen. Sie können sogar zum Glauben verleiten, die Natur werde mit diesen weggeworfenen kompostierbaren Tüten schon alleine fertig, und damit das Littering-Problem noch verschärfen.

Der Anteil aller Biokunststoffe am gesamten Kunststoffmarkt war im Jahre 2005 noch sehr gering. Er betrug in Europa gerade einmal 50.000 Tonnen von einem Gesamtverbrauch von fast 50 Millionen Tonnen Kunststoff, d. h. etwa ein Prozent. Einige EU-Länder versuchen, den Anteil der Biokunststoffe durch staatliche Eingriffe in den Markt zu steigern. Oft geht es dabei aber nur vordergründig um die Belange des Umweltschutzes oder der Ressourcenschonung. Denn wie das Beispiel des Littering kompostierbarer Plastikbeutel zeigt, sind Biokunststoffe nicht grundsätzlich umweltfreundlicher als herkömmliche Polymere.

Deshalb geriet der Versuch der französischen Regierung, per Dekret die Ausgabe nicht biologisch abbaubarer Kunststoff-Tragetaschen an den Kassen von Supermärkten zu verbieten, unter den Verdacht, in Wirklichkeit auf die Förderung französischer Agrarinteressen und auf die Abschottung französischer Märkte abzuzielen. Der Entwurf des französischen Dekrets bezieht sich lediglich auf einen bestimmten Typ von Plastiktüten, deren Gesamtmenge von jährlich 85.000 Tonnen gerade einmal 0,3 Prozent der französischen Haushaltsabfälle ausmacht. Würde zu deren Produktion jedoch Kartoffelstärke eingesetzt, könnte der Absatz von Stärkekartoffeln in Frankreich um 50 Prozent gesteigert werden. Das zeigt, dass die französische Regierung mit ihrem Dekretentwurf nicht Abfallprobleme, sondern die Agrarförderung im Auge hatte.

PlasticsEurope, die Vertretung der europäischen Kunststoffhersteller, hat im Oktober 2006 und noch einmal im Mai 2007 in einem Schreiben an die EU-Generaldirektion Unternehmen und Industrie formell gegen den französischen Vorstoß Beschwerde eingelegt. Selbst die französische Umwelt- und Energieeffizienzbehörde ADEME warnte in der Auswertung einer 2004 für die Supermarktkette „Carrefour“ erstellten vergleichenden Produkt-Lebensweg-Analyse davor, den Einsatz biologisch abbaubarer Kunststoffe für Tragetaschen als per se umweltschonend hinzustellen. Die energetische Verwertung, d.h. die kontrollierte Verbrennung von Kunststoffabfällen in Abfallverbrennungsanlagen mit moderner Filtertechnik schneidet in Lebenszyklusanalysen oft besser ab als die Kompostierung. In Deutschland hat dies eine umfassende Ökobilanz des BIfA, Bayerisches Institut für Angewandte Umweltforschung in Augsburg, über die Verwertungsmöglichkeiten kompostierbarer Verpackungschips bestätigt. Die Untersuchung wurde nach den anerkannten Regeln gemäß der Norm ISO 14040 ff. durchgeführt und bereits im Jahr 2000 fertig gestellt.

Somit ist es nicht sinnvoll, Werkstoffen eine bestimmte Rohstoffbasis oder einen konkreten Entsorgungsweg vorzuschreiben. Kriterien für die Auswahl der Rohstoffe können nur die Anforderungen sein, die verschiedene Märkte an Kunststoff-Artikel stellen. Bei den Verpackungen, dem größten Absatzmarkt der Kunststoffindustrie, sind das auf Seiten der Verbraucher die Nachfrage nach preiswerten, sicheren und bequemen, d. h. leichten, wieder verschließbaren und praktisch portionierbaren Verpackungen. Auf Seiten des Handels stehen mehr deren Lager- und Logistikfähigkeit sowie Diebstahlsicherung im Vordergrund. Bei den Abfüllern wiederum geht es eher um Eigenschaften wie Maschinengängigkeit und Normengerechtigkeit. Der Staat schließlich interessiert sich für die Konformität der Verpackungen mit dem Lebensmittel-, Eich- und Abfallrecht.

Weil Verpackungen aus synthetischen Kunststoffen diesen Kriterien oft am besten entsprechen, konnten sie ihren Marktanteil in den vergangenen Jahrzehnten in einem harten Wettbewerb zu Lasten von Verpackungen aus klassischen Werkstoffen wie Papier, Karton oder Holz stark ausweiten. Auch Produkte aus nachwachsenden Rohstoffen müssen sich diesem harten Wettbewerb stellen, um synthetische Kunststoffe zu verdrängen. Industrie- oder klimapolitisch motivierte Strategien zur Ausweitung des Marktanteils nachwachsender Rohstoffe sollten eher darauf abzielen, unterschiedlichen Verbrauchergruppen Produkte mit neuen Eigenschaften anzubieten oder einen Zusatznutzen zu vermitteln. Es gibt etliche Beispiele, die zeigen, dass sich Produkte aus bioabbaubaren Kunststoffen und/oder nachwachsenden Rohstoffen auf dem Markt gegenüber Standard-Kunststoffen aufgrund besserer Gebrauchseigenschaften wie z.B. der Abbaubarkeit bei bestimmten Medizinprodukten, der gesteuerten Wasserdampfdurchlässigkeit bei Verpackungen für frische Lebensmittel oder durch gutes Kosten-Leistungs-Verhältnis bei Naturfaserverbunden im Fahrzeugbau, sowie bei bioabbaubaren Mulchfolien in der Landwirtschaft durchsetzen. Besonderer Marktanreize bedarf es hierfür nicht. Vielmehr schaffen gleiche Wettbewerbsbedingungen die Voraussetzung für innovative Produktentwicklungen.

Nach einer Studie der Universität Utrecht und der Fraunhofer Gesellschaft aus dem Jahre 2004 könnte theoretisch etwa ein Drittel des europäischen Kunststoffbedarfs (über 15 Millionen Tonnen) durch Materialien aus Biomasse ersetzt werden. Dafür würden etwa 5 Millionen Hektar Land oder 2 bis 3 Prozent der Gesamt-Anbaufläche benötigt. Das wäre ohne weiteres machbar. Allerdings könnte es zu Konflikten um die Landnutzung kommen, sollte die Europäische Union ihre Pläne umsetzen, bis zum Jahre 2020 zwanzig Prozent der Treibstoffe durch Biosprit zu ersetzen. Denn dafür bräuchte man – je nach der angewandten Technologie – 30 bis 60 Millionen Hektar Land, d.h. bis zu einem Drittel der verfügbaren landwirtschaftlichen Nutzfläche. Dabei käme es zu einem Verdrängungswettbewerb. Eine breite Diskussion um die konkurrierende Nutzung der Agrarfläche für die Herstellung von Lebensmitteln, von Viehfutter oder von Rohstoffen steht aber noch aus.

Die Nutzung von Biomasse ist dennoch eine Chance, die der Industrie zur Verfügung stehende Rohstoffbasis zu verbreitern und gleichzeitig neue Geschäftsfelder zu erschließen. Denn prinzipiell kann jede Kohlenstoffquelle als Rohstoff für die Kunststoffproduktion eingesetzt werden. Wie sinnvoll aber die Ausweitung des Einsatzes nachwachsender Rohstoffe für die Herstellung von Werkstoffen mit neuen nützlichen Eigenschaften auch sein mag, für die Verminderung unserer Abhängigkeit von begrenzten Rohöl-Vorräten ist sie nicht geeignet. Denn auf die Kunststoffproduktion entfallen nur etwa 4 Prozent des gesamten europäischen Öl- und Gasverbrauchs. Bei ihrem Einsatz als Leichtbauteile, Dämmstoffe usw. ermöglichen es Kunststoffe jedoch, ein Vielfaches dieser Ölmenge beim Produktgebrauch einzusparen. Und nach dem Gebrauch steht uns die in ihnen gebundene Ölmenge nach wie vor zur energetischen Verwertung zur Verfügung. Die werkstoffliche Wiederverwertung von Kunststoffen ist demgegenüber nicht immer von Vorteil.

(erschienen in: SwissPlastics 8/2007)

Streit um die Bewertung von Rückständen der Abfallverbrennung

Edgar Gärtner und Andreas Oberholz*)

Das Wirtschaftswunder der Nachkriegszeit des 20. Jahrhunderts führte zu einer bedrohlichen Anhäufung von Rückständen von Produktion und Konsum. Allein in der alten (westdeutschen) Bundesrepublik entstanden schätzungsweise 50.000 Kippdeponien, von denen niemand genau wusste, was sie unter einer dünnen Bodenabdeckung mit Ziergrün alles verbargen. Nicht selten kam es in den Kippen zwischen verschiedenen Bestandteilen der abgelagerten Zivilisationsrückstände zu unkontrollierten chemischen Reaktionen und in deren Folge zum Austritt brennbarer Gase und/oder giftiger Abwässer. So erklärte die Bundesregierung im Jahre 1972, ein Jahr nach der Verabschiedung des ersten umfassenden Umweltprogramms, mit dem Gesetz über die Beseitigung von Abfällen die Abfallentsorgung zur öffentlichen Aufgabe.

Die mit diesem Gesetz eingeführte völlige Trennung zwischen öffentlicher Abfallbeseitigung und Marktwirtschaft ließ sich in der Praxis aber nicht lange aufrecht erhalten. 1986 wurde das Gesetz von 1972 novelliert – und zwar mit dem Ziel, statt nach dem Motto „Vergraben und Vergessen“ zu verfahren, eine Abfallwirtschaft aufzubauen, die dem Grundsatz des Vorrangs der Vermeidung und Verwertung vor der Beseitigung von Abfällen folgt. Weitere zwölf Jahre später wurde dann mithilfe des heute noch gültigen Kreislaufwirtschafts- und Abfallgesetzes (KrW-/AbfG) vom 27. September 1994 versucht, die Abfallwirtschaft konsequent auf das Ziel auszurichten, Stoffkreisläufe zu schließen. Gleichzeitig wurde dadurch, entsprechend der Abfallrahmenrichtlinie der EU, die Abfallwirtschaft gegenüber dem europäischen Binnenmarkt geöffnet.

Die ebenfalls 1994 erlassene Technische Anleitung Siedlungsabfall (TASi) verbietet die Deponierung unbehandelter Abfälle seit Juni 2005. Dadurch wurde die Abfallverbrennung zum Standardverfahren der Beseitigung von Hausmüll mit den Nebenzwecken der energetischen Nutzung der Verbrennungswärme und der stofflichen Verwertung der dabei anfallenden Rückstände. Mechanisch-biologische Anlagen (MBA), die in Deutschland eine Zeit lang, wegen der Verteufelung von Hausmüllverbrennungsanlagen (HMVA) als „Dioxinschleudern“, hoch im Kurs standen, wurden dadurch zur Nischenlösung herabgestuft. Die erste rot-grüne Bundesregierung setzte sich das ehrgeizige Ziel, bis zum Jahre 2020 eine vollständige stoffliche und energetische Verwertung aller Siedlungsabfälle zu erreichen. Alle Hausmülldeponien sollen bis dahin geschlossen werden.

Deponien für mineralische Abfälle wird es aber weiterhin geben. Die jährlich in Deutschland anfallenden 220 Millionen Tonnen Baureststoffe und andere mineralische Abfälle stellen den mit Abstand bedeutendsten Abfallstrom dar. Infolge der Umsetzung der TASi wird dieser Strom weiter anschwellen. Schon im Jahre 2002 fielen in den damals betriebenen 60 deutschen HMVA insgesamt 3,14 Millionen Tonnen Rohschlacke an. Nach der Entschrottung blieben davon 2,9 Millionen Tonnen übrig. Diese wurden zu etwa 70 Prozent als Verfüllmaterial oder im Straßen- und Dammbau verwendet. Der Rest ging in den Bergversatz oder auf Deponien.

Der Vorrang der Verwertung vor der Beseitigung von Abfällen bringt es mit sich, dass Stoffe unter bestimmten Voraussetzungen umdeklariert, d.h. wieder aus ihrer Eigenschaft als Abfall zur Beseitigung entlassen werden müssen, um auf dem freien Markt als verwertbare Reststoffe gehandelt werden zu können. Das ist bei HMVA-Rückständen aber problematisch, da es sich dabei sozusagen um Abfall vom Abfall handelt: Ein chemisch zunächst instabiles Vielstoff-Gemisch wechselnder Zusammensetzung, das Böden und Grundwasser bedenklich mit giftigen Schwermetallen und anderen Schadstoffen belasten könnte, würde es ohne Vorbehandlung im Damm- oder Straßenbau eingesetzt.

Rein theoretisch wäre es heute zwar möglich, die Abfallverbrennung so zu gestalten, dass alle Wertstoffe (vor allem Metalle, Gips, Calciumsalze und Salzsäure) als Produkte vermarktet werden und am Ende neben Filterasche nur völlig steriles und chemisch inertes Glas als Rückstand übrig bliebe. Die Verglasung von Abfällen, wie sie heute in Japan üblich ist, kostet aber zusätzliche Energie und widerspräche somit dem im Gesetz festgeschriebenen Ziel der energetischen Verwertung.

Entscheiden sich kommunale oder private HVA-Betreiber jedoch für den Weg der thermischen Abfallbehandlung, der den gesetzlichen Anforderungen entspricht, handeln sie sich aber neue Zielkonflikte ein. Nach § 1 des KrW-/AbfG gilt es, die Förderung der Kreislaufwirtschaft zur Schonung der natürlichen Ressourcen mit der Sicherung der umweltverträglichen Beseitigung von Abfällen zu verbinden. Gerade bei den mineralischen Abfällen geht aber das eine allzu oft nur auf Kosten des anderen. Alte Hasen des Umweltschutzes erinnern sich noch an den Kieselrot-Skandal, der daher rührte, dass Schlacke (Kieselrot) der Marsberger Kupfer-Hütte (Kieselrot) Jahrzehnte lang in großem Maßstab als Graswuchs hemmende Deckschicht von Sportplätzen verwendet wurde – bis Chemiker nachweisen konnten, dass darin Dioxine enthalten waren.

Andererseits gäbe es überhaupt keine Verwertungsmöglichkeit für die den gesetzlichen Regeln entsprechenden Verbrennungsrückstände, wenn der Vorsorgegrundsatz als Forderung nach der Null-Emission potentiell gefährlicher Stoffe ausgelegt würde. Deshalb erhielt die Länderarbeitsgemeinschaft Abfall (LAGA) schon zu Beginn der 90er Jahre von der Umweltministerkonferenz den Auftrag, einheitliche Kriterien für eine ökologisch vertretbare Verwertung solcher Abfälle (überwiegend Bauschutt) zu erarbeiten. So entstand die LAGA-Mitteilung 20 („Anforderungen an die stoffliche Verwertung von mineralischen Abfällen – Technische Regeln“) von 1997. Sie wurde bis 2004 von den meisten Fachleuten als Grundlage für eine bundesweite Harmonisierung des Verwaltungsvollzugs anerkannt, auch wenn einzelne Bundesländer (insbesondere solche ohne eigene Abfallverbrennungskapazitäten) die Verwertung HMVA-Schlacke weiterhin nicht zuließen. Sie verfügten auch gar nicht über geeignetes Genehmigungs- und Aufsichtspersonal.

In der Praxis bereiten übrigens an sich harmlose Bestandteile der Schlacke wie vor allem Sulfate oder Aluminium erheblich mehr Probleme als Schwermetalle oder andere giftige Stoffe. Wird Schlacke mit einem hohen Gehalt an Anhydrit (CaSO4) zu früh als Bau- oder Füllmaterial eingesetzt, kommt es zu Schäden durch Aufblähungen (Sulfattreiben) infolge der Umwandlung des Anhydrits in Gips und Ettringit (Ca6Al2[(OH)/SO4]3. Um das zu verhindern, muss die Schlacke nach der LAGA M 20 vor ihrem Einsatz mehrere Tage zur Entwässerung vorgelagert und nach der Aufbereitung mindestens drei Monate lang zwischengelagert werden. In dieser Zeit wandelt sich Portlandit (Ca(OH)2) unter Zutritt von CO2 aus der Luft größtenteils in Calcit (CaCO3) um. Dabei werden Schwermetalle zum Teil in das Gitter der Calcitkristalle eingebunden. Deshalb zeigen dann Eluat-Tests überwiegend niedrigere Schwermetallwerte an. Auf der Basis dieser Tests wird entschieden, ob das Material überhaupt im Straßenbau verwendet werden darf oder ob es deponiert werden muss.

Deponierungsgegner wie etwa Günter Dehoust vom Darmstädter Öko-Institut bezweifeln jedoch die prognostische Aussagefähigkeit gängiger Eluat-Tests wie des S4-Elutionsverfahrens (DIN 385414-S4). Etliche Untersuchungen zeigten, dass die Carbonate nach und nach aus der verbauten Schlacke ausgewaschen werden und eingeschlossene Schwermetalle bei pH-Werten unter 5 wieder in Lösung gehen. „Es ist davon auszugehen, dass längerfristig nahezu alle in einem Damm oder einer Deponie enthaltenen Schadstoffe ausgetragen werden“, betont Dehoust und verweist auf Langzeituntersuchungen, die vom Schweizer Bundesamt für Umwelt, Wald und Landwirtschaft (BUWAL) schon vor über 15 Jahren abgeschlossen wurden.

Das deutsche Bundesbodenschutzgesetz (BBodSchG) von 1998 führte deshalb viel strengere Vorsorgewerte ein als die LAGA M 20. Da es nicht gelang, diese Technische Richtlinie rasch und mit vertretbarem Aufwand an das BBodSchG anzupassen, löste sich die LAGA AG „Mineralische Abfälle“ im März 2004 auf, um den Weg frei zu machen für die Erarbeitung einer bundeseinheitlichen ordnungsrechtlichen Regelung. Im November 2004 empfahl die Umweltministerkonferenz, die bis dahin erarbeitete Technische Richtlinie Boden in den Vollzug zu übernehmen. Doch die Wirtschaftsministerkonferenz legte einen Monat später Widerspruch dagegen ein. HMVA-Betreiber mit einem starken Verwertungsinteresse fuhren jedoch z. T. fort, sich mit Zustimmung der jeweils zuständigen Behörde provisorisch an den Richtwerten der LAGA M 20 zu orientieren. Im April 2005 entschied das Bundesverwaltungsgericht im Rechtsstreit um die Verfüllung einer Tongrube jedoch, dass die alte LAGA M 20 nicht der im § 7 des BBodSchG verankerten Vorsorgepflicht genügt.

Aufgrund der unterschiedlichen Sichtweisen der jeweiligen für den Grundwasserschutz oder für die Abfallbehandlung zuständigen Länderbehörden kam es in der LAGA zu Konflikten, die sich so weit zuspitzten, dass verschiedene Behördenvertreter überhaupt nicht mehr miteinander redeten. Es bedurfte der persönlichen Initiative Hansjürgen Rheins, des damals am Ende seiner Amtszeit stehenden Leiters der Abteilung Abfallwirtschaft der Hamburger Behörde für Stadtentwicklung und Umwelt, um die in der LAGA entstandene Blockadesituation aufzubrechen. Es gelang ihm schließlich, im Zusammenarbeit mit Partnern aus der Privatwirtschaft die zerstrittenen Behördenvertreter wieder an einen Tisch zu bringen.

Die entstandene Rechtsunsicherheit, die die Existenz einer ganzen Branche in frage stellt, musste in der Tat schleunigst ausgeräumt werden. Wegen ihres starken Eigeninteresses als Besitzerin zweier in Hamburg betriebener Hausmüllverbrennungsanlagen wagte die Vattenfall Europe Waste to Energy GmbH das Experiment, zwischen Januar 2005 und März 2006 unter der Schirmherrschaft der Freien und Hansestadt Hamburg eine Serie von Klausurtagungen zu sponsern. Moderiert von der Ahrensburger Konfliktberatung Jakubowski, diskutierten Fachleute aus Wirtschaft, Wissenschaft, Umweltverwaltung und Politik mit unterschiedlichen Interessen und Blickwinkeln im Schloss Tremsbüttel (Schleswig-Holstein) über mögliche Wege, aus der Blockadesituation heraus zu kommen. Noch vor dem Abschluss des Tremsbütteler Dialogs organisierte das daran ebenfalls beteiligte Bundesumweltministerium (BMU) im Februar 2006 einen eigenen Workshop mit über 200 Teilnehmern aus Wirtschaft, Wissenschaft und Verwaltung zum gleichen Thema.

Die Teilnehmer beider Veranstaltungen sprachen sich mit großer Mehrheit für eine bundeseinheitliche Regelung (teilweise auf der Basis aktualisierter Eckpunkte der LAGA M 20) aus und sahen darin sogar eine Form von Deregulierung. Betroffene Unternehmer wie Thomas Buhck, der Geschäftsführer der norddeutschen Buhck-Gruppe, hatten ihnen klar gemacht, dass ihnen die bundesweite Einheitlichkeit von Grenzwerten wichtiger ist als deren Höhe. „Wenn Sie heute einen mineralischen Reststoff wie zum Beispiel HMVA-Schlacke verkaufen, erzielen Sie damit vielleicht 2 bis 3 € je Tonne am Markt. Wenn Sie den gleichen Reststoff in eine Verfüllung bringen, dann bezahlen Sie dafür 5 bis 10 €. Und wenn Sie ihn in eine Deponie bringen, dann sind Sie 20 bis 25 € je Tonne ärmer. Wir müssen also zwischen volkswirtschaftlichen und möglichen ökologischen Schäden abwägen“, erklärte Buhck.

Dr. Heiner Zwahr, der damalige Geschäftsführer der Hamburger MVR Müllverwertung Rugenberger Damm GmbH & Co. KG, bestätigte, dass HMVA-Schlacke in Hamburg durchaus einen positiven Marktwert hat. Abnehmer sei neben dem Hafenbau, wo das Material als ungebundene Tragschicht verwendet wird, zum Teil auch der Straßenbau. Es gebe aber einen starken Wettbewerb mit Naturstoffen (z.B. mit Granit aus Schottland, der günstig mit Schiffen geliefert werden kann) und auch mit anderen Recyclingprodukten. Eine Verdrängung herkömmlicher Rohstoffe bei höherwertigen Anwendungen wie die Beton- und Asphaltherstellung sei erwünscht, aber nicht immer machbar. Bei der Betonherstellung störe der Aluminiumgehalt der Schlacke, der bei Wasserzutritt zur Bildung von Aluminaten und Wasserstoff führen kann. Bei der Verwendung von HMVA-Schlacke in der Asphaltherstellung hingegen könnten zwar ohne übermäßigen Aufwand die Vorsorgewerte der BBodSchV eingehalten werden. Doch führe die starke Porosität der Schlacke zu einem überhöhten Bitumenverbrauch. Das mache diesen interessanten Anwendungsbereich wirtschaftlich fraglich.

Günter Dehoust hält ein höherwertiges Recycling mineralischer Abfälle ohnehin nur in Ausnahmefällen für möglich. Dennoch sei es sinnvoll, die Verwertung von HMVA-Schlacken zu fördern, um die Position der HMVA im Konkurrenzkampf mit Zementwerken zu stärken. Dort werden zur Zeit etwa 16 Prozent der Siedlungsabfälle mitverbrannt. Die Abfallbehandlung in HMVA sei demgegenüber ökologisch vorteilhaft, weil sie die Möglichkeit bietet, gefährliche Schadstoffe durch Bergversatz bzw. Untertage-Deponierung von Filterasche und hoch belasteten Schlacke-Fraktionen ganz aus dem Wirtschaftskreislauf zu schleusen. Deshalb sei eine Bundesverordnung mit einheitlichen Grenzwerten notwendig und sinnvoll.

Nach Aussage des Leiters des BMU-Referats „Produktionsabfälle“, Ministerialrat Rüdiger Wagner, stellt sich das BMU dieser Aufgabe. Nach Abstimmungsgesprächen im Herbst 2006 werde 2007 das förmliche Rechtssetzungsverfahren eingeleitet. Es werde voraussichtlich zwei Verordnungen geben: Eine für bodenähnliche Verwendungen (Verfüllungen) von mineralischen Abfällen im Rahmen der BBodSchV und eine für die technische Verwendung von mineralischen Reststoffen im Straßen- und Landschaftsbau nach § 7 KrW/AbfG. Diskussionsbedarf gebe es noch bei der Definition der Schnittstellen sowie über den Wert des S4-Elutionsverfahrens und dessen eventuell notwendige Ergänzung durch aussagekräftigere Säulenversuche.

Das Landesumweltamt (LUA) von Nordrhein-Westfalen, das wegen des traditionell hohen Aufkommens von mineralischen Abfällen aus dem Bergbau, der Stahlindustrie und aus Kraftwerken über die größten Erfahrungen mit der Analyse der darin enthaltenen Schadstoffe verfügt, führt im Auftrag des Umweltbundesamtes (UBA) das Forschungsvorhaben „Sickerwasserprognose“ im Rahmen eines vom Bundesministerium für Bildung und Forschung (BMBF) koordinierten Verbundes durch. Auf der Basis der Ergebnisse dieser Forschungen wird das LUA dem BMU demnächst Grenzwerte für verschiedene Schadstoffe vorschlagen. Erst dann, so Dr. Axel Kopp vom BMU, werden Verordnungsentwürfe in Angriff genommen.

Diese Entwicklung zeigt, dass sich die Initiative des inzwischen pensionierten Hans-Jürgen Rhein und der Konfliktberatung Jakubowski in jeder Hinsicht gelohnt hat. Sie hat die sprachlosen Vertreter verschiedener Länder- und Bundesbehörden aus ihren Bunkern herausgelockt und dem Bundesumweltministerium Rückenwind für seinen Versuch einer bundesweiten Vereinheitlichung der gesetzlichen Vorgaben für die sinnvolle Verwertung mineralischer Reststoffe gegeben. Somit scheint der Weg frei für die Regulierung des mit Abstand größten Abfallstroms nach den gleichen Prinzipien, die seit Beginn der 90er Jahre in Form der Verpackungsverordnung erstmals an einem der kleineren Abfallströme erprobt wurden. Somit würde in Deutschland mit den beiden ausstehenden Verordnungen der Schlussstein einer ökologisch begründeten Abfallpolitik gesetzt.

*) Fachjournalisten