REACH, a regulation farce

Believing EU officials we have entered, on 1st December 2008, a new era. From now on it will be illegal to manufacture, import, sell, buy or use chemicals that have not been registered or pre-registered following EU’s complicated REACH procedure. Yet experiences during the pre-registration process are rather confirming old fears that REACH does not fundamentally improve chemicals security, but will only increase bureaucratic control over every day’s life.

REACH, a Costly Piece of Theatre?

By Edgar L. Gärtner

Believing EU officials we entered, on December 1st 2008, a new era. After this, it will be illegal to manufacture, import, sell, buy or use chemicals that have not been registered or pre-registered following EU’s REACH procedure. Yet the ongoing pre-registration process is rather confirming the old fears that REACH does not fundamentally improve chemicals security and that the good intentions behind this new regulation initiative would lead to a Babylonian confusion or a costly piece of theatre.

REACH is the paradigm for a new type of regulation that will have a worldwide impact – even if it is not really workable due to its fundamental flaws. For the EU’s new chemicals legislation is thought to fully translate into action for the first time the Precautionary Principle (PP) adopted in 1992 at the “Earth Summit” in Rio de Janeiro. Principle 15 of the Rio Declaration stipulates: “Where there are threats of serious and irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation.” Following the EU’s interpretation of the Rio declaration this wording implies a reversal of the burden of proof between government and industry. Till then government officials had to demonstrate that a product is unsafe before removing it from the market. But following the EU’s interpretation of the PP manufacturers would have to prove that their products are safe before putting them on the market. How, under this condition, is it possible to innovate and introduce new types of products, given the fact that nothing on earth can be considered absolutely safe?

In see behind the dogmatic precautionary approach the mentality of nihilism. What is nihilism? “Nihilists don’t believe in nothing, but do not believe in what is”, declared French literature Nobel Prize winner Albert Camus in 1951. In other words: Nihilists are capable to believe nearly in all but truth: This is that life by itself is very risky and that by tenting to reduce chemicals and other risks we are taking the much greater risk of reducing chances for human life in freedom and dignity (please see my book “Öko-Nihilismus. Eine Kritik der politischen Ökologie”, Jena 2007).

Even the original Rio wording of the PP is leaving lot of questions: How does it relate to Principle 12 of the Rio Declaration on Non-Discrimination? Does “cost effective” also mean “cost efficient” and thus respect the Principle of Proportionality fundamental in the EU’s Maastricht Treaty? This treaty refers in Art. 130r (later 174.2) to the Rio Declaration and doesn’t give a proper definition of the PP. In order to clarify these questions, the EU Commission issued, in February 2000, a special “Communication” précising that the PP applies only to risk management and not to risk assessment. The latter must be based on state-of-the-art scientific methodology. Last but not least the EU Commission’s paper underlined that the PP incorporates the Principle of Proportionality.

Thus, the EU Commission in 2000 clearly rejected definitions of the PP that open the way to different forms of irrationalism, like for instance the NGO’s Wingspread Consensus Statement on the PP which claimed: “When an activity raises threats of harm to human health or the environment, precautionary measures should be taken even if some cause and effect relationships are not fully established scientifically.” Following this, chocolate would need to be banned as even amateur chemists could easily convert it, with the help of ordinary kitchen equipment, into dangerous explosives!

Unfortunately, the EU Commission did not pursue this line in its White Paper “Strategy for a Future Chemicals Policy” published on 27 February 2001: “Whenever reliable scientific evidence is available that a substance may have an adverse impact on human health and the environment but there is still scientific uncertainty about the precise nature or magnitude of the potential damage, decision-making must be based on precaution in order to prevent damage to human health and the environment. Another important objective is to encourage the substitution of dangerous by less dangerous substances where suitable alternatives are available.” This is everything but a clear rejection of nihilism for very few things that have been selected by market competition are easily substituted. The “substitution principle” claimed by NGOs and many members of the European Parliament is based on the belief that political regulators can find a better way to select substance or product alternatives than the traditional trial and error interaction between scientific research, engineers’ creativity and consumer demands.

This belief was already subjacent in chapter 19 of Agenda 21 on waste management adopted 1992 in Rio. For the first time a new hazard based Globally Harmonized System (GHS) of substance classification and characterization, which will be introduced in the EU together with REACH, was proposed there. The nihilistic quest of risk minimizing down to zero became predominant in § 23 of the Action Plan adopted ten years later by the Johannesburg Summit on Sustainable Development (WSSD). The precautionary approach was also chosen by the UNEP-Initiative SAICM (Strategic Approach to International Chemicals Management) which, after some preparatory meetings in 2003, 2004 and 2005, was officially launched at the Dubai Conference in February 2006 with an Action Plan aiming the ban of all potentially dangerous substance uses till 2020. This plan is expressly referring to the Stockholm agreement on phasing out Persistant Organic Pollutants (POPs) whose DDT ban was leading to the rebound of mosquito born malaria causing the death of millions of people, mostly children, in Africa and other tropical regions of the world.

Thus, we were hearing at the Dubai Conference Austria’s environment minister Josef Pröll (at that time in charge of the presidency of the EU’s Environment Council) comment the Dubai Declaration on SAICM as follows: “Dubai is a milestone of global environmental policy. There is a clear commitment to the Precautionary Principle. We don’t need to see a tragedy happen to put safety systems in place. In other words, the Dubai Declaration says that if you’re not sure, don’t do it.” If man had always followed this interpretation of the PP, he would never have tamed fire nor invented the wheel!

Given this background it is not surprising to see the EU courts apply the PP in a very contradictorily and confusing way. US analysts Gary E. Marchant and Kenneth L. Mossmann concluded from a survey published in 2005 that the PP “provides an open invitation for arbitrary and unreasonable decisions by both regulators and judges.” A speaking example of an ill interpreted PP is the EU’s ban of six phthalates in toddlers’ toys and child-care articles which was decided in 2005. Following this decision the EU imposed a total ban on the use in children’s toys of three plasticizers employed in the manufacture of PVC (DEHP, DBP and BBP). It also has prohibited the use of three additional plasticizers (DIDP, DNOP and DINP) in babies’ toys intended to be put in the mouth. Only one of the banned substances (DINP) was currently used in toys. Yet on 11 April 2006 the EU Commission clearly confirmed the EU’s scientific risk assessment from 2003 and stated that “DINP is safe in all applications (toys included) and that there is no need for any further measures to regulate the use of this phthalate.”

Industry has spent over 130 million Euros in total to assess the health and environmental risks of plasticizers such as DEHP and DINP. A core reason for these tests was these plasticizers’ widespread use in medical equipment. All have now been in such longstanding use that if there had been any harmful side effects from their application these would have long since come to the fore. The EU now forces manufacturers of pacifiers, plastic ducks and baby equipment to switch to alternative plasticizers, which have not been investigated as thoroughly, have often not been tested sufficiently for these applications and are often considerably more expensive.

Adipates are one possible substitute. Their possible impact on human health and the environment appear to be slight, but so far they have not been subjected to such exhaustive examinations as have the six banned substances. Other alternatives, although extant for some time, have a high migration tendency, and are clearly much less suitable for these applications.

Citrate esters, touted by environmental groups as more environmentally and health-friendly, migrate from treated materials so quickly that these objects easily become brittle. Toys manufactured using citrate esters as plasticizers will therefore put children at risk of swallowing broken-off fragments. Are we therefore justified in substituting a (theoretical) health risk with the much more concrete risk of a child choking?

Greenpeace activists, on whose arguments the EU’s actions were based, don’t appear to be losing any sleep over such questions. In fact, they are demanding that toy manufacturers abandon the use of PVC altogether. According to them, soft PVCs in toys should be replaced with rubber. However, the effect of heat during the vulcanization process of rubber results in carcinogenic nitrosamines, and the substitution of organic for petroleum-based rubber will simply substitute a new, ‘natural’, set of carcinogens.

The plastics industry currently has great hopes for DINCH, a new substance developed through computer modelling by BASF in co-operation with customers from toys and medical device industry. This substance is only slightly more expensive than DEHP, and it can also be almost seamlessly substituted for DEHP without the need to rebuild production plants. DINCH also does not include any of the aromatic hydrocarbons defined as suspect by toxicologists so we can expect it to have a much more benign toxicological profile. BASF has confirmed this in a far reaching programme of tests. These tests indicate that DINCH does not affect the development of sexual organs or fertility, nor does it harm the environment. DINCH has a rate of migration which is at least 8 times lower than that of DEHP, although it has disadvantages such as higher volatility.

The quest for innovation or substitution in the case of these alternative plasticizers cannot be pursued without consideration of the costs, as we would end up substituting the proven with the unproven through ideologically driven wishful thinking. Society needs to pursue fulfilment of consumer demands in a way that balances benefits against the costs to the economy, the environment, and to health.

This raises the question of who decides which materials may be used: Greenpeace? The EU Commission? Science? Nature? And just who is ‘Nature’? Aren’t humans also part of nature, including the average consumer who weighs up product choices and then consciously chooses for instance PVC plastics? Wouldn’t it be better to choose the winner out of several competing market-based solutions?

Thus the European Parliament’s decision to restrict the use of DINP in spite of a thorough and costly risk assessment opens the way to unfounded black listing. Consumer product and packaging material manufacturers could be tented to ban all substances demonized by NGOs or restricted for use prior to their testing and assessment in line with REACH. This could cause major business disruptions as possible alternatives take years to come to market.

Will the REACH procedures dispel this sort of confusion? When the REACH initiative was started in 1999 its principal aim was to halt unequal treatment of ‘old’ and ‘new’ substances. New chemicals were submitted since 1981 to the registration procedure introduced by the EU directive 548/68/EEC while over 100.000 substances in use prior to 18 September 1981 (listed in the EINECS register at the EU Commission’s Joint Institute in Ispra/Italy) were exempt from registration. Only old substances on a ‘priority list’ established by EU Directive 793/93/EEC, Art. 15 had to undergo an assessment. This was done with 141 substances in 20 years. But only 28 of these have been definitely evaluated. With REACH the EU is trying to evaluate the different uses of approximately 30,000 substances over only 10 years. Doing this the original REACH proposal would have required data generation for the drafting of no less than 100 million safety reports, each containing 20 up to 200 pages (plus translations in some 20 languages). Everybody could see that this approach would create a new tower of Babel.

That is why after an internet consultation with industry and major wrangling between different stakeholders the scope of REACH has partially changed. Now extensive safety reports (and the sometimes costly data generation they suppose) are only required for substances with an annual production volume of more than 10 tonnes. Following the amendments to the EP’s First Reading on 17 November and the Council’s agreement on Common Position on 13 December 2005 (finally adopted by EP and EC in December 2006) the registration procedure has been facilitated while the authorisation process has been in tendency complicated. This could lead to more bureaucracy and create a new potential for arbitrary decisions and thus endanger industry’s innovation capacity. The main problem lies in REACH Art.57 which defines substances of Very High Concern (VHC) targeted by authorisation procedures. The definition of VCH substances has been partially altered. Instead of potentially dangerous substances susceptible to be released from products all potentially endocrine disrupting, persistent, bio-accumulative and carcinogenic chemicals as well as substances “giving rise to a similar level of concern” contained in products are focussed now.

Substances meeting the VHC criteria defined in Art. 57 shall be listed in REACH Annex XIV (pending authorisation procedure). Substances supposed to meet the VHC criteria are listed in Annex XV (‘candidate list’) in order to be examined as soon as possible. This creates a new risk of Black Listing. For manufacturers could be tented to seek out politically correct substances in order to replace VHC and ‘candidate’ substances bad mouthed by NGOs long before their examination has come to final conclusions. This is leading to difficult reporting issues.

For instance REACH, Art.7 stipulates that all VHC substances contained in domestic or imported articles surmounting 1 tonne per annum in total and surpassing concentrations of 0,1 % have to be notified. This is leading to problems like this one: Can an importer of cardboard manufactured and finished in China by using printing ink containing the famous postal yellow pigment lead chromate (PbCrO4), which was voluntarily banned in the EU by the printing ink manufacturers association CEPE, know how much of this substance is produced or imported in total? Another example: According to REACH Art.33 all suppliers of products containing VHC substances above a concentration of 0,1 % are obliged to respond free of charge before 45 days to VHC related requests of their customers. Greenpeace has already prepared post cards for mass requests.

Retailers are responding to this challenge by forming a sort of information cartel. Initiated by the German Retailers’ Federations HDE and BHB as well as by the big retailers Metro and REWE, a common data bank named “REACH Solution” was created. It is provided and operated by the specialised company Chemical Service Compliance AG in Cologne. The internet platform offers two portals: one for suppliers and one for their customers. The access to this data bank is also offered via the federation Eurocommerce to non German suppliers and retailers so that a unified European solution seems to be on the way. This illustrates well the general tendency that strong technical and economic regulation is leading to cartelisation of the private sector of the economy.

In spite of all good intentions REACH will probably not reduce but even enlarge grey or black markets for illegal applications of potentially hazardous substances. For on one hand due to the lack of viable substitutes many of those chemicals will remain for some time officially authorised for specific purposes, “if the risks are adequately controlled”. On the other hand it would be very difficult to avoid illegal applications of the same chemicals. There are still markets for ‘dirty’ products. Even completely forbidden chemicals that are applied only in very small amounts in textiles, printing inks or other consumer products can easily be imported from China via the ports of Naples or Piraeus. We cannot suppress those grey or black markets through more and more bureaucracy for excessive bureaucracy is often the real reason behind their emergence, but only by establishing sound open markets.

Well aware of those problems the EU member states have till now proposed only 15 substances as calling for special attention. Geert Dancet, the Executive Director of the EU’s new Chemicals Agency (ECHA) in Helsinki, is convinced that REACH Annex XIV will show in the first time an even smaller number of suspect chemicals while NGOs are calling for no less than 2,000. The official list of substances subject to authorisation will be updated every two years. It is intriguing to see on ECHA’s first “Candidate List” well proven, yet still controversial plasticizers and flame retardants like DEHP or HBCDD closely associated with clearly dangerous arsenic compounds. We can only hope that EU member states and ECHA will come to rational priorization.

Given these meagre prospects it is our duty to ask if REACH has any chance to become conform to the Principle of Proportionality. When starting the REACH process the EU Commission tried to demonstrate that the benefits of the new chemicals regulation overweigh largely its costs. One of the most quoted cost-benefit-analysis is an impact study done by the London based consultancy RPA Risk and Policy Analysts Ltd. In this study registration costs according to REACH were estimated to reach from 1,7 to 7 bn € till 2018. The expected benefits were estimated at 54 bn € in the next 30 years – due principally to a regression of occupational cancer. Yet Angela Logomasini from CEI (Washington) and German statistician Walter Krämer als well as Michael Nasterlack and Andreas Zober, two industry toxicologists from BASF, have shown in Chemistry World, January 2005 that some 80 percent of all occupational cancer cases in the EU are related to the asbestos legacy and that at most 360 out of 32.331 occupational cancer cases per annum can be imputed to the contact with chemicals. It appears now that chemicals industry represented in the EU by CEFIC had many reasons for its strong opposition against REACH.

Unfortunately pressed by big players on the market for end consumer products like for instance Unilever or Procter & Gamble CEFIC finally gave up its resistance against the new legislation. In 2006 CEFIC declared: “REACH is an opportunity for the chemicals industry to regain public confidence.” Behind this assertion I see the will of established big players to defend their monopoly against newcomers on the market, especially from poorer regions of the world by controlling the whole innovation process along a politically correct corridor. With REACH it is very difficult for players from outside the EU to comply with EU regulations for they are not allowed to pre-register or register substances directly but only with the help of what is called an Only Representative (OR) in the EU. Unfortunately ECHA’s guidance documents on REACH say very little about the legal status and the liability of the OR towards its clients, towards other players in the supply chain, towards possible victims of decision errors, and towards the ECHA (cf. Nicolas Gardères: “The Legal Risks of REACH”, in: Kemia-Kemi Vol.35, 2008, 5). It will be nearly impossible to import preparations or formulations of mixed and partly unknown substances ready to use from outside the EU without risking law suits. These are depending on the national tort and contract laws of each EU member state. Till now there is no tendency to harmonise the national legal conditions that depend on different juridical traditions.

This is worth also for data sharing between competitors in Substance Information Exchange Fora (SIEF) and consortia that are even mandatory in the case of data generation involving tests on vertebrate animals. In order to cooperate companies will have to disclose sensitive data that may let their competitors discover critical trade secrets. Which form of agreement between companies is prohibited depends on national legislation. In short: REACH is primarily an job creation program for lawyers. The new chemicals regulation is probably no more than a costly piece of theatre destined to produce the impression that politics is doing something to calm fearful consumers.

Conclusions

REACH contradicts nearly all we know about intelligent collective decision making and successful innovation (Cf. James Surowiecki: “The Wisdom of Crowds. Why the Many are Smarter than the Few”, Random House, 2004). There is no real alternative to trial and error. Market remains the main information source for decision makers. Bureaucracy needs to support it. The market’s role in experimentation and bureaucracy’s role in maintaining stability should be viewed as complementary. Bureaucracy needs to serve the market economy by assessing and crystallising the results of trial and error learning in order to avoid repeating such mistakes in the future.

In contrast to the position of the Green lobby appears to be that political application of the Precautionary Principle and the aims of sustainable development are core drivers for innovations. But how do they know which materials are inherently safe and which have a lasting impact on the environment … when even water can be deadly under certain circumstances? Do the Greens and their political friends consider themselves better able to judge what will prove itself on the open market than market participants themselves? The Greens seem perfectly happy with the authoritarian undercurrents inherent in their position.

Unfortunately, some people cling to the erroneous belief that the expansion of knowledge implies that there is an end – a point where society has attained ‘ultimate knowledge’. This is not the case. The accumulation of knowledge can even lead to total confusion. However important science may be as a reconnaissance and early warning system for society, the most important source of information in a market economy is not science but the market itself. This information is not transferred without cost, but rather set against the cost of the risks undertaken or refused. I think that Angela Logomasini is right when concluding her analysis quoted earlier: “Rather than following a stagnating precautionary principle, regulators should follow a risk-risk principle, assessing even the risk of regulation. They should also recognize that regulation is the last resort because well-being is best promoted by maximizing freedom, which results in human progress.”

In spite of all this, the REACH approach is spreading around the world like a virus. South Korea has already adopted a chemicals law which is a true copy of REACH. Japan is going to do the same. It is expected that under newly elected president Barack Obama even the US will follow the EU. Thus we are risking extending bureaucratic control of energy and substance use (via climate and chemicals policy) all over the world.

(Extended version of a speech presented, on 25 November 2008, at the LVMI’s conference on „Better Regulation“ in Brussels.)

Ressourcenschutz von unten

Der Wirtschaftsnobelpreis ging im Jahr 2008 an Elinor Ostrom und Oliver Williamson. Ostrom, die als erste Frau überhaupt die begehrte Auszeichnung erhielt, hat gezeigt, dass die nachhaltige Nutzung knapper Ressourcen nicht zentraler staatlicher Vorgaben und Kontrollen bedarf. Die Selbstorganisation der Ressourcen-Nutzer vor Ort erweist sich als viel effizienter. Eine Ohrfeige für die CO2-Rationierung durch die UN?

Ressourcenschutz von unten (Teil II)

Warum Almweiden nichts mit dem „Klimaschutz“ zu tun haben, die FAS aber Planwirtschaft gut findet

Von Edgar L. Gärtner

Es gibt Wirtschaftsjournalisten, die meine hier vorgetragene Schlussfolgerung, die diesjährige Verleihung des Wirtschaftsnobelpreises an Elinor Ostrom könne als Ohrfeige für die „Klimapolitik“ interpretiert werden, ganz und gar nicht teilen. Es geht dabei nicht nur um ein paar positive Bemerkungen der Preisträgerin über die „Klimapolitik“, es geht um Grundsätzliches. So schreiben Alexander Armbruster und Christian Siedenbiedel in der „Frankfurter Allgemeinen Sonntagszeitung“ (FAS) vom 18. Oktober 2009: „Was haben Bauern, die sich eine Alpen-Alm teilen, und Staaten, die den Klimawandel bremsen müssen, gemeinsam? Sie stehen im Grunde vor demselben Problem. Denn so, wie nicht jeder Bauer so viele Kühe, so lange er will, auf die Wiese drängeln darf, kann auch nicht jeder Kohlendioxid-Emittent ohne Ende Treibhausgas in den Himmel blasen.“

Dieser Satz enthält gleich mehrere ungeprüfte Behauptungen. Wieso müssen sich Staaten dem Klimawandel entgegenstellen? Und warum sollen sie sich dann ausgerechnet darauf konzentrieren, den Ausstoß des Atemgases Kohlendioxid zu verringern? Wäre es nicht besser, sich von vornherein mit der Frage zu beschäftigen, wie sich die Menschen am besten an Veränderungen ihrer Lebensbedingungen, die unabhängig von ihren Wünschen und Handlungen ohnehin stattfinden, anpassen können? „Die Wissenschaft geht momentan davon aus, dass bis zum Jahre 2050 noch rund 750 Gigatonnen Kohlendioxid (in der Atmosphäre) abgelagert werden können, wenn es nicht mehr als zwei Grad wärmer werden soll“, berichten die beiden Wirtschaftsredakteure. Auf welches wissenschaftliche Experiment stützt sich diese Aussage? Und auf welche historischen und prähistorischen Forschungen stützt sich die im FAS-Artikel zitierte Auffassung des Evolutionsbiologen Jared Diamond, die vollständige Entwaldung der Osterinsel sei ein Beispiel für die „Tragik der Allmende“? Man wird auf keine dieser Fragen eine Antwort erhalten.

Die Legenden, die Jared Diamonds in seinem Bestseller „Collapse“ weiterstrickte, wurden übrigens von Julian Morris, Wolfgang Kasper und Benny Peiser schon vor Jahren Punkt für Punkt widerlegt. Die Auslöschung der Osterinsel-Kultur ging, wie es scheint, mehr auf Invasionen von Sklavenhändlern denn auf selbstmörderische Ressourcenübernutzung zurück. Vermutlich wird man in der ganzen Weltgeschichte kaum ein Beispiel dafür finden, dass Menschen, obwohl zum vorausschauenden Denken und hinweisenden Kommunizieren befähigt, sehenden Auges den Ast absägten, auf dem sie saßen. Es bedurfte in der Regel äußeren Zwanges durch Naturkatastrophen oder fremde Eroberer oder aber innerer Repression durch religiös beziehungsweise pseudoreligiös begründete Diktaturen, um ganze Gesellschaften in den Selbstmord zu treiben. Das scheint beim Untergang der Maya-Kultur in Mittelamerika der Fall gewesen zu sein.

Wer den „Klimaschutz“ in Zusammenhang bringt mit der Abwendung eines „Kollapses“ durch Ressourcen-Rationierung, hat in Wirklichkeit weniger ein Problem mit dem Klima, sondern mit der menschlichen Freiheit. Angstkampagnen haben immer dazu gedient, Einschränkungen, wenn nicht schlicht die Abschaffung der Freiheit zu rechtfertigen. Derzeit gibt es für eine Begründung der globalen Rationierung des CO2-Ausstoßes nicht einmal den Schein eines wissenschaftlichen Arguments. Zwar wissen wir, dass die Erhaltung der Lebensbedingungen auf dem Planeten Erde von einem empfindlichen Gleichgewicht der Luftzusammensetzung abhängt. Das gilt aber nur für den Sauerstoff. Stiege dessen Konzentration in der Atmosphäre um nur ein, zwei Prozentpunkte, ginge die Erde spontan in Flammen auf. Wegen dieser und anderer Sauerstoff verbrauchender Prozesse ist die Sauerstoffkonzentration über Jahrmillionen annähernd konstant geblieben. Sie könnte allerdings durchaus von etwa 21 auf 16 Prozent sinken, ohne dass uns der Atem ausginge. Demgegenüber war die Konzentration des als Kohlenstoffquelle für die pflanzliche Fotosynthese unabdingbaren Spurengases CO2 in der Erdgeschichte großen Schwankungen unterworfen, die ganz unterschiedliche Ursachen haben können. Würde man den CO2-Gehalt der Atmosphäre, der heute bei gerade einmal 385 ppm (parts per million) liegt, verzehnfachen, würde mit Sicherheit kaum etwas passieren – außer dass ein Teil der Pflanzen ihre Fotosyntheseleistung deutlich steigern könnte, was zur Verbesserung der Welternährung führen würde. Die Menschen würden den höheren CO2-Gehalt jedenfalls nicht negativ wahrnehmen. Die von der Arbeitsmedizin festgelegte zulässige maximale Arbeitsplatzkonzentration (MAK) von CO2 liegt bei 5.000 ppm, früher sogar bei 10.000 ppm. (Diese Werte sollte man im Hinterkopf behalten. Sollte an der gängigen Vorstellung über die Rolle des CO2 bei der Klimaentwicklung etwas dran sein, müsste der CO2-Ausstoß in den kommenden Jahren kräftig erhöht werden, um eine Kleine Eiszeit zu verhindern.)

Das Beharren von Berufspolitikern und Spitzenbürokraten auf strengen CO2-Obergrenzen kann deshalb nur den Zweck haben, von folgender Binsenweisheit abzulenken: Klimawandel hat es immer gegeben. Perioden der Abkühlung stellten die Menschen vor viel größere Probleme als Warmphasen. Setzte man statt auf die (unnötige) Bekämpfung der vermeintlich CO2-gesteuerten globalen Erwärmung auf die flexible Anpassung der Menschen an den ohnehin ständig ablaufenden Klimawandel, dann würde offenkundig, dass zentralistische Vorgaben nicht weiter helfen. Vielmehr käme es darauf an, die Menschen vor Ort selbst frei entscheiden zu lassen, in welcher Form sie dem Klimawandel individuell und/oder gemeinschaftlich begegnen wollen. (20. Oktober 2009)

Internet:

Teil I: Eine Ohrfeige für den „Klimaschutz“

Alexander Armbruster/Christian Siedenbiedel: Auf der Alm, da gibt’s nur selten Streit

Jared Diamond: „Collapse. How Societies Choose to Fail or Survive”

Kollaps. Warum Gesellschaften überleben oder untergehen

Julian Morris: How Jared Diamond fails to convince

Wolfgang Kasper: Human Progress and Collapse

Benny J. Peiser: From Genocide to Ecocide

Interview mit Elinor Ostrom zur Kopenhagen Konferenz

Was würde Ostrom sagen, wenn sie davon ausginge, dass an der CO2-Treibhaus-Hypothese nichts dran ist?

Teil I:

Wirtschaftsnobelpreis 2009 an Elinor Ostrom und Oliver Williamson

von Edgar L. Gärtner

Eine Ohrfeige für den „Klimaschutz“?

Ob die Schwedische Akademie auch bei der Auswahl der diesjährigen Träger des Alfred-Nobel-Gedächtnispreises für Ökonomie politische Hintergedanken verfolgte, steht nicht fest. Es scheint eher, als sei dem Nobel-Komitee die Tragweite seiner Entscheidung nur halb bewusst gewesen. Denn insbesondere die Arbeiten der inzwischen 76-jährigen Politikwissenschaftlerin Elinor Ostrom, die die begehrte Auszeichnung als erste Frau überhaupt erhielt, lassen die offiziell als alternativlos dargestellte „Klimapolitik“ nach dem Muster des Kioto-Protokolls in einem ungünstigen Licht erscheinen. Sie hat die Frage, wie gemeinschaftlich genutzte knappe Ressourcen vor der Erschöpfung bewahrt werden können, durch empirische Beobachtung von Fischern und anderen Nutzergruppen ganz anders beantwortet als die UN und ihre Bürokratien.

Seit den Anfängen der Umweltpolitik in den USA ist die von Ostrom untersuchte Problematik unter dem Schlagwort „Tragik der Allmende“(Tragedy of the Commons) bekannt. Sie gilt noch heute als wichtigster Ausgangspunkt umweltökonomischer Überlegungen. Das Schlagwort wurde in einem Aufsatz geprägt, den der amerikanische Mikrobiologe Garret Hardin 1968 in „Science“ veröffentlichte. Hardin behauptete darin, auf eine entsprechende Theorie des reaktionären englischen Landgeistlichen Thomas Robert Malthus (1766-1834) verweisend, die Weltbevölkerung lasse sich mit Bakterien vergleichen, die sich in einer Kulturflüssigkeit so lange exponentiell vermehren, bis ihre Population infolge von Nährstoffmangel zusammenbricht. Die größte Gefahr für die Umwelt geht, so gesehen, von der menschlichen Freiheit aus. Denn freie Menschen, so die Vorstellung Hardins, werden in egoistischer Manier versuchen, ein möglichst großes Stück des Kuchens zu ergattern. Almbauern werden danach trachten, auf der Gemeindeweide (Allmende) den Viehbestand zu maximieren, bis kein Gras mehr wächst. Fischer werden versuchen, ihre Fangflotte und ihre Netze zu vergrößern beziehungsweise deren Maschen zu verkleinern, bis die Fischgründe leer gefischt sind.

Hardin beschreibt die Problematik in folgenden Worten: „Als rational denkendes Wesen strebt jeder Viehhalter danach, seinen Gewinn zu erhöhen, … mehr oder weniger bewusst stellt er sich die Frage: Was nützt es mir, wenn ich meiner Herde ein weiteres Stück Vieh hinzufüge. Diese Nutzung hat eine positive und eine negative Komponente.

1. Die positive Komponente besteht in der Funktion der Hinzufügung eines Stückes Vieh. Da der Viehhalter den ganzen Erlös vom Verkauf eines zusätzlichen Tieres erhält, beträgt der positive Nutzwert fast plus 1.

2. Die negative Komponente besteht in der Funktion der zusätzlichen Abgrasung durch ein weiteres Stück Vieh. Da nun die Auswirkungen des Abgrasens alle Viehhalter betreffen, beträgt der negative Nutzwert für den einzelnen Viehhalter nur einen Bruchteil von minus 1.

Wenn er die anteiligen Nutzwerte addiert, wird der rational denkende Viehhalter zu dem Schluss kommen, es sei für ihn das einzige Vernünftige, seiner Herde ein weiteres Tier hinzuzufügen und noch eins und so weiter. Aber zu diesem Schluss wird jeder rational denkende Viehhalter bei freier Nutzung der Allmende kommen, und darin liegt die Tragödie.“

Von diesen Überlegungen ausgehend, scheint die Lösung auf der Hand zu liegen: Der Geist Adam Smiths muss aus der Wirtschaft verbannt werden. Der Staat muss eingreifen und die knappen Ressourcen rationieren, zum Beispiel durch die Zuteilung oder Versteigerung einer streng begrenzten Zahl handelbarer Nutzungsrechte. Diese Hauruck-Methode liegt dem Kioto-Abkommen über die Reduktion von „Treibhausgasen“ und dem darauf aufbauenden Handel mit CO2-Emissionsrechten zugrunde.

Elinor Ostrom zeigte demgegenüber in ihrem bekanntesten Werk „Governing the Commons“, dass Almbauern, Fischer oder Wassernutzer durchaus in der Lage sind, die Verwertung ihrer Ressourcen ohne staatliche Auflagen und Eingriffe selbst zu regulieren – und zwar viel effizienter als der Staat das könnte. Weit davon entfernt, sich so stur egoistisch zu verhalten wie Hardins Modell-Strichmännchen, reden Menschen aus Fleisch und Blut, also auch Viehzüchter, Ackerbauern und Fischer nämlich miteinander, handeln gemeinsame Nutzungsregeln aus und überwachen deren Einhaltung selbst, wenn sie ein Problem auf sich zukommen sehen. Gesunder Menschenverstand ist unter einfachen Menschen offenbar viel weiter verbreitet, als es sich viele Wirtschaftstheoretiker vorstellen können. Dafür gibt es eine Fülle historischer Beispiele. Probleme der Übernutzung von Ressourcen traten meist nur in der Folge von Naturkatastrophen, Kriegen oder Revolutionen auf. Althistorikern ist zum Beispiel bekannt, dass die Versalzung von Ackerböden im Zweistromland keine unausweichliche Konsequenz Jahrtausende währender intensiver Bewässerungslandwirtschaft war, sondern die Folge von Kriegen und gesellschaftlichen Umbrüchen. In diesen Zeiten wurde die Unterhaltung der Kanäle vernachlässigt, so dass das labile Gleichgewicht zwischen Wasserzu- und –abfluss gestört wurde. Ähnlich kam es in Europa in der Regel nicht deshalb zu wiederholten Hungersnöten, weil die Menschen zu viele Kinder in die Welt setzten und zu viel aus ihren Böden herauszuholen versuchten, sondern weil die Ertragskraft der Äcker infolge der „Kleinen Eiszeit“ deutlich abnahm oder weil Konflikte wie der 30-jährige Krieg eine ordentliche Bestellung der Äcker nicht mehr zuließen.

Im Kioto-Prozess versuchen Berufspolitiker und Bürokraten diese historischen Erfahrungen in den Wind zu schlagen, indem sie von vornherein ausschließen, dass die arbeitenden Menschen Probleme ein Stück weit auf sich zukommen lassen und selbst überlegen können, wie sie Ihnen als Einzelne und als Angehörige von Kollektiven begegnen wollen. Die Menschen sollen dazu erzogen werden, ihren fünf Sinnen zu misstrauen, ihren Verstand abzuschalten und nur offiziellen Modellrechnungen Glauben zu schenken. Eine selbst ernannte Elite von Weltrettern rechnet den zu Untertanen degradierten Menschen gerade im Vorfeld der Kopenhagen-Konferenz über eine Fortschreibung und Verschärfung des Kioto-Protokolls vor, dass weltweit nur noch 750 Milliarden Tonnen CO2 in die Atmosphäre freigesetzt werden dürfen, wenn der Anstieg der bodennahen Durchschnittstemperatur auf zwei Grad Celsius begrenzt werden soll. Dieser Vorgabe sollen sich die Menschen fügen.

Um uneinsichtige Erdbürger gefügig zu machen, gilt der Handel mit rationierten Emissionsrechten als Mittel der Wahl. Gegenüber dem spontanen Aushandeln von Regeln der Ressourcennutzung vor Ort zeichnet sich der Handel mit „heißer Luft“ durch maximale Intransparenz aus. Er wird im Unterschied zu den bewährten Formen lokaler Selbstorganisation mit ziemlicher Sicherheit nicht die an ihn geknüpften offiziellen Erwartungen erfüllen, sondern vor allem eines bewirken: eine gigantische Umverteilung von Geldern von unten nach oben, d.h. in die Kassen eines internationalen Finanzkartells. Um dessen Interessen und nicht um das (ohnehin nicht definierbare) Weltklima geht es offenbar beim „Klimaschutz“. Elinor Ostroms starkes Plädoyer für die Anwendung des Subsidiaritätsprinzips beim Ressourcenschutz könnte durchaus helfen, diesen Schwindel auffliegen zu lassen.

Auch die Arbeiten Oliver Williamsons liegen, soweit ich das einschätzen kann, nicht gerade auf der Linie des derzeitigen Mainstreams rein theoretischer Modellspielereien, sondern beschäftigen sich mit konkreten Problemen der Corporate Governance. So zum Beispiel mit dem Problem der Transaktionskosten in Unternehmer-Netzwerken und der damit zusammenhängenden Frage nach der geeigneten Unternehmensgröße in Abhängigkeit vom jeweils gewählten Geschäftsmodell. Auch mit der oft überlebenswichtigen Entscheidung für oder wider den Aufbau eigener Entwicklungsabteilungen hat sich Williamson auf undogmatische Weise beschäftigt. Wie Ostrom geht auch er davon aus, dass der Markt beim Versuch, Probleme der Ressourcenknappheit zu lösen, nicht vergötzt werden darf. Beide begreifen den Markt vielmehr als eine Institution neben anderen, die sich im Laufe der Geschichte bewährt haben. Gerade damit rücken sie in die Nähe der österreichischen Schule der Politischen Ökonomie mit dem Wirtschaftsnobelpreisträger Friedrich August von Hayek und der Public Choice Theorie von Wirtschaftsnobelpreisträger James Buchanan. Denn die österreichische Schule hat sich, aufbauend auf der subjektiven Wertlehre, nie mit Modellmenschen wie dem berühmt-berüchtigten Konstrukt Homo oeconomicus beschäftigt, sondern mit den mehr oder weniger vernünftigen Entscheidungen von Individuen mit Leib und Seele. (veröffentlicht in: WirtschaftsBild 59. Jg. November 2009)

Internet:

Die Tragik der Allmende

Wofür Ostrom und Williamson geehrt wurden

Literatur:

Garret Hardin: The Tragedy of the Commons. In: Science. 162/1968. S. 1243-1248 (deutsch in: Michael Lohmann (Hrsg.): Gefährdete Zukunft. Hanser, München 1970, S. 30-48 und dtv Bd. 920, München 1973, S. 29-46)

Elinor Ostrom: Governing the Commons: The Evolution of Institutions for Collective Action. Cambridge University Press, Cambridge 1990, ISBN 0-521-40599-8, deutsch.: Die Verfassung der Allmende. Mohr, Tübingen 1999, ISBN 3-161-46916-X

=================================================================================

Ein Nobelpreis für nichts? von Edgar L. Gärtner

Vermutlich bekommt Barack Obama den Friedensnobelpreis nicht unbedacht

Nachdem bereits Polit-Gauner wie Yassir Arafat und Al Gore mit der begehrten Auszeichnung bedacht wurden, konnte man sich kaum noch vorstellen, dass es dem Osloer Nobel-Komitee noch gelingen würde, seine Fehlentscheidungen noch zu toppen. Doch mit der Wahl des 44. US-Präsidenten Barack Hussein Obama zum diesjährigen Träger des Friedensnobelpreises scheint das den Juroren gelungen. Denn um jetzt ausgezeichnet zu werden, muss Obama bereits am 1. Februar 2009, kaum 12 Tage im Amt, auf der Kandidatenliste für den Preis gestanden haben. Selbst Anhänger Obamas diesseits und jenseits des Atlantik gaben sich daher höchst verwundert über die Entscheidung des Osloer Komitees. Einige Freunde haben Obama nahegelegt, den Preis abzulehnen. Der Ausgezeichnete selbst konnte sich der Lächerlichkeit nur durch ein Lippenbekenntnis zur Demut entziehen.

Kaum jemand behauptet, Obama habe die Auszeichnung verdient. Über Versprechen und Ankündigungen sind seine Friedensinitiativen bisher in der Tat nicht hinausgelangt. Vielmehr wurde ein neuer, die vorsorgliche Kapitulation des Westens nicht ausschließender Ton in der US-Außenpolitik mit Vorschuss-Lorbeeren bedacht. Obamas Freunde fürchten (wohl nicht zu Unrecht), diese Lorbeeren könnten schon bald zur Hypothek der gerade erst begonnenen Amtszeit ihres Lieblings werden. „Mehr Bürde als Ehre“, überschreibt Obama-Fan Claus Christian Malzahn seinen Kommentar auf SPIEGEL-online.

Worum es dem Osloer Nobel-Komitee wohl in Wirklichkeit ging, offenbart ein Vergleich zwischen Obama und der Frau, die genau 30 Jahre vor ihm mit dem Friedensnobelpreis ausgezeichnet wurde: Mutter Teresa. In ihrer noch heute zu Tränen rührenden Dankesrede erklärte die inzwischen selig gesprochene, wenn auch nach wie vor umstrittene katholische Ordensschwester am 10. Dezember 1979 in Oslo: „Der größte Zerstörer des Friedens ist heute der Schrei des unschuldigen, ungeborenen Kindes. Wenn eine Mutter ihr eigenes Kind in ihrem eigenen Schoß ermorden kann, was für ein schlimmeres verbrechen gibt es dann noch, als wenn wir uns gegenseitig umbringen?“ Eine der ersten Amtshandlungen des 44. US-Präsidenten bestand demgegenüber darin, ein Gesetz außer Kraft zu setzen, das es der US-Regierung verbot, Entwicklungshilfeleistungen an Empfängnisverhütungs- und Abtreibungs-Kampagnen zu koppeln. So gesehen, erscheint die diesjährige Entscheidung des Nobel-Komitees als durchaus gewollte Korrektur der Wahl, die es vor drei Jahrzehnten traf. Obama bekommt den Nobelpreis also nicht für nichts, sondern für das Nichts, für praktizierten Nihilismus, der in den vergangenen Jahrzehnten unter Synonymen wie „Null-Emission“, „Nachhaltigkeit“ und „Klimaschutz“ die Weltarena erobert hat. (10. Oktober 2009)

Internet:

Obama schon nach 12 Tagen Amtszeit in der engeren Auswahl

Mehr Bürde als Ehre

Mutter Teresa bei der Entgegennahme des Friedensnobelpreises 1979

================================================================================

Der größte Mensch, der je gelebt hat, erntet Undank

Dankbarkeit scheint in der heutigen Welt, in der so vieles knapp wird, zu einer der seltensten Gemütsregungen zu werden. In meiner frühen Kindheit in der Nachkriegszeit war es noch keineswegs selbstverständlich, dass zu den Mahlzeiten immer genügend Essen auf dem Tisch stand. Deshalb empfand ich es, auch ohne den Katechismus gepaukt zu haben, als selbstverständlich, dass jedes Essen mit einem Dankesgebet begann. Heute gilt das tägliche Brot den Bürgern von Wohlfahrtsstaaten als „Commodity“, auf die sie einfach einen Anspruch haben. Man bittet nicht darum und dankt auch niemandem dafür. Erst recht verschwendet man keinen Gedanken an die menschlichen Leistungen und institutionellen Bedingungen, denen wir unsere Nahrungsmittelüberschüsse verdanken.

„Undank ist der Welten Lohn“, lautet ein oft zitierter Spruch. Auch Norman Borlaug, der als Vater der „Grünen Revolution“ 1970 mit dem Friedensnobelpreis geehrt wurde und am 12. September 2009 in Dallas/Texas im biblischen Alter von 95 Jahren an Krebs gestorben ist, kannte wahrscheinlich diesen Spruch beziehungsweise dessen amerikanische Entsprechung. So hat er sich wohl nicht sonderlich darüber geärgert, dass sein Name am Ende seines langen, erfüllten Lebens sowohl in seiner amerikanischen Heimat als auch in Europa beinahe in Vergessenheit geraten war. Die Auskünfte, die die Online-Enzyklopädie Wikipedia über ihn gibt, passen bequem auf eine Druckseite. Und doch galt dieser Mann, in den Worten des bekannten US-Comedian Penn Jilette, einmal als „der größte Mensch, der je gelebt hat.“ Nach Jesus Christus, sollte man wohl hinzufügen. Aber dieser war ja nicht nur Mensch, sondern Gottessohn. Das US-Magazin „Atlantik Monthly“ schätzte 1999, dass Borlaug durch die Züchtung widerstandsfähiger Hochleistungs-Getreidesorten nicht weniger als eine Milliarde Menschenleben gerettet hat.

Norman Ernest Borlaug wurde 1914 als Sohn eines kleinen Farmers in Iowa geboren. Nach dem Studium der Agrarwissenschaften arbeitete er zunächst im Forschungslabor der DuPont de Nemours Foundation und fand dann 1943 einen Job in einem kleinen Pflanzenzüchtungsinstitut der Rockefeller Foundation in Mexiko. Dank Borlaugs bahnbrechenden Erfolgen bei der Züchtung neuer Getreidesorten wuchs dieses Institut zum Internationalen Mais- und Weizen-Zentrum CIMMYT von Weltbedeutung heran. Borlaugs Erfolgsserie begann mit der Einkreuzung eines von einer japanischen Weizensorte stammenden Zwergwuchs-Gens in mexikanischen Weizen. Nach weiteren geduldigen Kreuzungsversuchen entstand eine robuste Hochleistungssorte, deren kurze, kräftige Halme besonders schwere Ähren tragen konnten. Seit 1962 wird dieser Weizen in Indien angebaut. Innerhalb eines einzigen Jahrzehnts stiegen die landwirtschaftlichen Erträge auf dem zuvor von chronischen Hungersnöten geplagten Subkontinent Dank des besseren Saatguts auf fast das Dreifache. Das Land wurde zum Weizenexporteur. Später erzielte Borlaug in China ähnliche Erfolge mit Reis.

Vor allem Dank dieser „Grünen Revolution“ stieg die Kalorienaufnahme je Kopf der Weltbevölkerung zwischen 1965 und 2005 von 2.065 auf 2.798. Trotz der in diesem Zeitraum abgelaufenen Bevölkerungsexplosion konnte die Welternährungsorganisation FAO den Hunger im Jahre 2006 für beinahe besiegt erklären. Seither hat sich die Situation aus ganz anderen Gründen leider wieder verschlechtert. Jedenfalls war Borlaugs Landsmann Paul Ehrlich, der die Welt 1968 in seinem Bestseller „Die Bevölkerungsbombe“ mit düsteren Prognosen in Angst und Schrecken versetzt hatte, von der Wirklichkeit gründlich widerlegt worden.

Doch beeinflussten Ehrlichs Weltuntergangs-Prognosen und nicht die 1970 mit dem Friedensnobelpreis gekrönte erfolgreiche Arbeit Borlaugs seit den 70er Jahren mehr und mehr die öffentliche Meinung. Borlaug hätte später nicht mehr die geringste Chance gehabt, mit einem Nobelpreis geehrt zu werden. Stattdessen musste er sich immer häufiger wegducken, um nichts von den Schmutzkübeln abzubekommen, die „grüne“ Misantropen über ihm ausgossen. Diese warfen ihm vor, die Bauern in die Anhängigkeit der Saatgut-, Pestizid- und Kunstdüngerkonzerne zu treiben und eine Klimakatastrophe heraufzubeschwören. In Indien versuchte die Oberkasten-Angehörige Vandana Shiva den armen Bauern die Anwendung von Hochleistungs-Saatgut auszureden, insbesondere solches, das mithilfe der Gentechnik erzeugt wurde.

Norman Borlaug hat sich im „Unruhestand“ in der Tat ganz selbstverständlich für die Grüne Gentechnik stark gemacht, weil er auch darin einen viel versprechenden Weg sah, die weiter wachsende Weltbevölkerung auf der vorhandenen Ackerfläche zu ernähren. Wäre es in der Nachkriegszeit nicht zu den zitierten Produktivitätssteigerungen gekommen, rechnete er vor, hätten längst die letzten Wälder der Erde in Äcker verwandelt werden müssen. Er befürwortete die Grüne Gentechnik gerade auch aus Gründen des Naturschutzes. Doch damit konnte er sich in seinen letzten Lebensjahren keine Sympathie erwerben.

Nahe liegender Schluss: Wer heute auf den Friedensnobelpreis aus ist, der sollte es tunlichst vermeiden, etwas für die Menschen Nützliches zu erfinden. Als nobelpreiswürdig gelten vielmehr Studien, die den Menschen Angst und Schuldkomplexe einjagen. Das zeigt die Ehrung Al Gores und des „Weltklimarates“ IPCC vor zwei Jahren. Als besonders aussichtsreich erscheinen heute Studien, die zeigen, dass es für das Weltklima besser ist, die Menschheit zu verkleinern als sich um die Ernährung der weiter wachsenden Menschenzahl zu kümmern. Studien, die aufzeigen, wie die Menschen mithilfe ihres Erfindergeistes sich an wärmere oder kühlere Zeiten anpassen können, haben eine schlechte Presse. Dank Norman Borlaug hatte Paul Ehrlich mit seiner Prognose zum Glück nicht recht. George Orwell dagegen leider doch.

Internet:

Norman Ernest Borlaug auf Wikipedia

Michael Miersch über den Mann, der Millionen Menschenleben rettete

Gregg Easterbrook about the Man who defused the ‚Population Bomb’

Paul Driessen: Adapting to climate change through technology

Contraception cheapest way to combat climate change

(4. Oktober 2009)

===========================================================================

Deutsche Waldwirtschaft auf dem Wege zur Nachhaltigkeit?

Etwa ein Vierteljahrhundert ist es nun her, da schienen die Tage des deutschen Waldes gezählt. Im Schwarzwald und in anderen deutschen, ostfranzösischen und schweizerischen Mittelgebirgen war Förstern und Spaziergängern eine Häufung vergilbter und kahler Nadelbäume ins Auge gesprungen. Da bekannte Ursachen der Austrocknung von Baumkronen wie etwa die Verbreitung des Borkenkäfers ausschieden, belegte die Bürokratie das Syndrom kurzerhand mit dem wenig phantasievollen Begriff „neuartige Waldschäden“. Umso mehr Phantasie entwickelte dagegen die seit der Gründung der Partei „Die Grünen“ im Jahre 1980 erstarkte Öko-Bewegung. „Erst stirbt der Wald, dann der Mensch“, sagt ein Sprichwort, von dem man nicht genau weiß, ob es schon älter ist oder eigens erfunden wurde, um auf das „Waldsterben“ als vermeintlich objektive Begründung der in Deutschland sich ausbreitenden Endzeitstimmung aufmerksam zu machen. Verschiedene Naturschutzverbände und Bürgerinitiativen hatten diesen Spruch im Herbst 1983 auf einer „Aktionskonferenz gegen das Waldsterben“ in Freudenstadt im Schwarzwald aufgegriffen und dafür gesorgt, dass die an die Wand gemalte Gefahr eines „ökologischen Holocaust“ zum dominierenden Thema des damals gerade laufenden Bundestagswahlkampfes wurde.

Schon 1981 hatte der Göttinger Bodenkundler Bernhard Ulrich prophezeit, in spätestens fünf Jahren würden ganze Wälder absterben. Der Hauptgrund dafür sei der „saure Regen“ infolge des massiven Ausstoßes von giftigem Schwefeldioxid (SO2) durch die hohen Schornsteine von Kohlekraftwerken. Das Schreckensbild kahler deutscher Mittelgebirge, bedeckt von eintönigen Grasflächen, in der kein Baum mehr Wurzeln fasst und kaum noch ein Vogel singt, schien in rasendem Tempo von der Wirklichkeit eingeholt zu werden. In den Kammlagen des Erzgebirges, an der Grenze zwischen den heute schon beinahe vergessenen sozialistischen Volksrepubliken DDR und CSSR, konnten die wenigen, die damals dorthin kamen, diese Zukunft bereits besichtigen. Doch das Absterben ganzer Baumbestände hatte dort greifbare Ursachen. Sozialistische Mangelwirtschaft hatte dazu geführt, dass große Kohlekraftwerke ihren Rauch völlig ungefiltert in Rübezahls Heimat bliesen.

Die im Westen beobachteten Symptome erwiesen sich als vorübergehend und hatten mit der großflächigen Waldzerstörung im Osten nichts zu tun. Das belegten in den folgenden Jahren vor allem schweizerische und französische Fortwissenschaftler, während ihre deutschen Kollegen mit der bürokratischen Zeremonie der jährlichen Waldschadenserhebung fortfuhren. Es gelang einer Initiative von privaten Waldbesitzern und Umweltverbänden, die vom Staat Schadensersatz für forstwirtschaftliche Ertragsausfälle durch das „Waldsterben“ gefordert hatte, nicht zu belegen, dass sich der Zuwachs der Holzvorräte in Deutschland verlangsamte. Wie auch: Die in größeren Abständen durchgeführten Bundeswaldinventuren zeigten, dass sich das Baumwachstum im Gegenteil beinahe explosionsartig beschleunigte. Die Förster mussten die ihren Planungen zugrunde liegenden Ertragstafeln deutlich nach oben korrigieren.

Die Bundeswaldinventur von 2004 förderte zutage, dass Deutschland heute mit fast 3,4 Milliarden Kubikmetern über die mit Abstand größten Holzvorräte in Europa verfügt. Es stellt damit selbst die „klassischen“ Waldländer Finnland und Schweden in den Schatten. Seit 1960 hat die Waldfläche in Deutschland im Schnitt in jedem Jahr um 10.000 Hektar zugenommen. Ob die Ende Februar 1983 eilig verabschiedete Großfeuerungsanlagen Verordnung bzw. der darin vorgeschriebene Bau riesiger Rachgasentschwefelungsanlagen dazu nennenswert beigetragen hat, blieb höchst umstritten. Jedenfalls wachsen bei uns heute in jedem Jahr auf jedem Hektar Wald mehr als 12, auf dem „grünen Drittel“ (d.h. etwa 31 Prozent) Deutschlands also insgesamt über 120 Millionen Kubikmeter Holz nach. Davon wird bislang nur etwas mehr als die Hälfte wirtschaftlich genutzt. Erheblich mehr, nämlich etwa 80 Millionen Kubikmeter, gilt aber als problemlos nutzbar.

Die deutsche Forstwirtschaft entspricht also formal durchaus dem Kriterium der Nachhaltigkeit, nicht mehr Holz zu schlagen als nachwächst und verfügt sogar noch über einen beträchtlichen Sicherheitsabstand. Dieser Abstand ist erst in jüngster Zeit durch die verstärkte Nutzung von Brennholz kleiner geworden. Hintergrund ist der starke Anstieg der Heizöl- und Gaspreise. Bei der Brennholzgewinnung auf eigene Faust kommt es nicht selten auch zu Freveltaten wie dem Fällen von kräftigen Randbäumen, die für den Windschutz von Baumbeständen wichtig sind. Alles in allem kann sich die deutsche Waldwirtschaft heute aber zu recht rühmen, das zu beherzigen, was der sächsische Oberberghauptmann Carl von Carlowitz, stark beeinflusst von der Romantik, schon im Jahre 1713 in seiner „Sylvicultura oeconomica“ forderte, nämlich „den Anbau des Holzes so anzustellen, dass es eine continuierliche, beständige, nachhaltige Nutzung gebe.“

Bis zur systematischen Umsetzung dieser Forderung ging aber noch mehr als ein Jahrhundert ins Land. Das ganze 18. Jahrhundert war gekennzeichnet durch einen sich zuspitzenden Holzmangel – eine Folge Jahrhunderte währender Übernutzung des Waldes als Brennholz-, Baumaterial- und Streulieferant sowie als Viehweide. Es war paradoxerweise die im 19. Jahrhundert mit der Erfindung der Dampfmaschine einsetzende industrielle Revolution, die den deutschen Wald vor dem weiteren Niedergang rettete. Dampfgetriebene Pumpen und Aufzüge machten den Kohlebergbau in großem Stil möglich. Durch den zunehmenden Einsatz von Kohle als Brennmaterial sank der Brennholzbedarf. Die aufkommenden Industrien benötigten statt des Knüppelholzes, das die heruntergekommenen Wälder vielerorts gerade noch lieferten, jede Menge gutes Stammholz. So brauchte man z.B. für den Bau der ersten Eisenbahnen ironischerweise doppelt so viel Holz wie Eisen.

Die Holzproduktion konnte nicht mehr dem Zufall überlassen bleiben, sondern musste so weit wie möglich auf eine rationale betriebswirtschaftliche Grundlage gestellt werden. Zu den noch heute zitierten Begründern der wissenschaftlichen Forstbetriebslehre zählen Heinrich Cotta, der in Tharandt bei Dresden lehrte, und der preußische Oberlandforstmeister Georg Ludwig Hartig, der in Berlin wirkte. Anders als von Carlowitz waren diese weniger von der Romantik als vielmehr von den liberalen Ideen des schottischen Moralphilosophen Adam Smith, dem Begründer der Nationalökonomie, beeinflusst. Um eine Nation auf den Weg zum Wohlstand zu führen, kommt es danach lediglich darauf an, dem Gewinnstreben und dem gesunden Menschenverstand der Einzelnen freien Lauf zu lassen. „Denn“, so Smith, „verfolgt er sein eigenes Interesse, so fördert er das der Gesellschaft weit wirksamer, als wenn er dieses wirklich zu fördern beabsichtigte.“

Smith hatte in seiner „Untersuchung über Wesen und Ursachen des Reichtums der Nationen“ (1776) hergeleitet, dass Arbeit, Kapital und Boden ebenbürtige Quellen für Lohn, Zins und Rente sind. Als Kapital der Forstwirtschaft erscheint danach der Holzvorrat lebender Bäume, als dessen Zinsen der jährliche Zuwachs. Folglich müsse die Forstwirtschaft danach trachten, von den Zinsen zu leben und ihr Kapital zu pflegen und zu mehren. Während Cotta in seiner „Bodenreinertragslehre“ den Nutzen forstwirtschaftlicher Investitionen allein aus der erforderlichen Umtriebszeit errechnete und somit der Kahlschlagswirtschaft mit schnell wachsenden Baumarten wie Pappeln, Fichten oder Kiefern Vorschub leistete, legte Hartig in seiner „Waldreinertragslehre“ mehr Gewicht auf die längerfristige Entwicklung des Überschusses der Einnahmen über die Ausgaben der Betriebe. Dadurch schlugen auch die deutlich höheren Verkaufspreise langsam wachsender Buchen und Eichen sowie die größere Widerstandsfähigkeit von Mischwäldern gegenüber Stürmen und Schädlingsbefall positiv zu Buche. So wurde Hartig zum eigentlichen Vater der auf Nachhaltigkeit bedachten Forstbetriebslehre.

Hartig riet den Förstern im Jahre 1795: „Jede weise Forstdirektion muss daher die Waldungen … ohne Zeitverlust taxieren lassen, und sie zwar so hoch als möglich, doch zu nutzen suchen, dass die Nachkommenschaft wenigstens ebenso viel Vorteil daraus ziehen kann, als sich die jetzt lebende Generation zueignet.“ An diesem Verständnis von Nachhaltigkeit knüpfte 1987 die UN-Kommission für Umwelt und Entwicklung (Brundtland-Kommission)an, wobei sie allerdings nicht klärte, wieweit das betriebswirtschaftliche Konzept überhaupt auf gesellschaftliche Entwicklungen außerhalb der Forstwirtschaft sinnvoll anwendbar ist. Als nachhaltig definierte die Kommission eine „Entwicklung, die den Bedürfnissen der heutigen Generation entspricht, ohne die Möglichkeiten künftiger Generationen zu gefährden, ihre eigenen Bedürfnisse zu befriedigen und ihren Lebensstil zu wählen.“ Im Jahre 1992 wurde diese Definition auf dem „Erd-Gipfel“ von Rio de Janeiro von allen vertretenen Staaten einstimmig als weltweit gültiges Leitbild angenommen. Im Jahre 2007 schließlich verabschiedete die UN-Vollversammlung in New York ein spezielles Waldabkommen, das die Erhaltung der Wälder durch die in Richtung von Schutzzonen und eine nachhaltige Bewirtschaftung fordert.

Um dieses Leitbild in der Waldwirtschaft umsetzen zu können, müssen vor allem die Eigentumsverhältnisse geklärt sein, was in vielen Gegenden der Welt bis heute leider nicht der Fall ist. Nicht zufällig befinden sich heute unsere schönsten Mischwälder mit den ältesten Bäumen und den größten Holzvorräten seit Jahrhunderten im Besitz adliger Familien, während die Pflege von Staatswäldern nicht selten kurzfristigen kriegs- oder devisenwirtschaftlichen Interessen geopfert wurde. Deshalb gelten inhabergeführte Familienbetriebe zu Recht als das Rückgrat einer am Leitbild der Nachhaltigkeit orientierten Forst- und Holzwirtschaft. In Deutschland erzielten im Jahre 2004 insgesamt 185.000 Betriebe der Forst- und Holzwirtschaft (einschließlich der Papierverarbeitung und des Druckereigewerbes) einen Jahresumsatz von über 180 Milliarden Euro und beschäftigten mehr als 1,3 Milliarden Menschen. Das sind nach EU-Kriterien mehr als in der Automobilindustrie!

In der EU gelten die sechs allgemeinen Kriterien für eine nachhaltige Waldwirtschaft, die die europäische Ministerkonferenz zum Schutz der Wälder im Jahre 1993 in Helsinki beschlossen hat. In Deutschland werden diese Kriterien durch die Waldgesetze des Bundes und der Länder sowie in Form freiwilliger Zertifizierungen umgesetzt. Dabei konkurrieren zurzeit zwei Systeme: das Programme for the Endorsement of Forest Certification Schemes (PEFC) und das etwas strengere System des Forest Stewardship Council (FSC). Rund 65 Prozent (über 7 Millionen Hektar) der deutschen Waldfläche wurden nach dem PEFC-System zertifiziert. Den konkurrierenden FSC-Kriterien entsprechen zurzeit weniger als 600.000 Hektar.

Das deutet an, dass auch in Deutschland durchaus noch einiges zu tun bleibt, um den Leitbild der Nachhaltigkeit noch näher zu kommen. Zum Beispiel ist der Anteil der Nadelwälder mit 59 Prozent noch immer deutlich größer, als es im Sinne der Steigerung der Widerstandsfähigkeit gegenüber Witterungsunbilden, Krankheiten und Schädlingsbefall wünschenswert erscheint. Der begonnene Umbau des deutschen Waldes in Richtung auf eine stabilere Baumartenzusammensetzung wird wohl noch Jahrzehnte in Anspruch nehmen. Dabei sind Rückschläge nicht ausgeschlossen. Erfahrene Förster wissen wie die Gärtner und die Bauern, dass sie sich nie zu früh freuen dürfen…

Edgar Gärtner (erschienen in: WirtschaftsBild 58.Jg. August 2008, UBG Rheinbach)

Ist REACh bereits am Ende?

Mitten in der schwersten Wirtschaftskrise der Nachkriegszeit müssen viele Unternehmen erhebliche Kosten für die Umsetzung von REACh aufwenden. Doch kaum ein Beteiligter hat den Eindruck, das bringe einen Nutzen. Nun warnt ein Toxikologe vor dem vorzeitigen Scheitern des ehrgeizigen Unterfangens wegen eines zu hohen Versuchstierbedarfs. Vielleicht ist das eine Chance für alternative Testverfahren.

Chemiepolitik: Steht REACh schon vor dem Aus?

Wie alle Toxikologen gehört auch der aus Konstanz am Bodensee stammende und nun an der John Hopkins Universität in Baltimore/Maryland lehrende Professor Thomas Hartung, ein Pionier der Suche nach tierversuchsfreien Methoden zur Prüfung der Chemikaliensicherheit, grundsätzlich zu den glühenden Befürworten der Verbesserung des Verbraucherschutzes durch die systematische toxikologische Prüfung aller „Altstoffe“ mithilfe der EU-Chemikalienverordnung REACh. Doch Ende August 2009 warnte Hartung zusammen mit der italienischen Chemikerin Constanza Rovida in einem Meinungsbeitrag unter dem Titel „Chemical regulators have overreached“ im britischen Wissenschaftsmagazin „Nature“ (Vol. 460/27 August 2009) eindringlich vor einer Fortsetzung des mit REACh eingeschlagenen Weges. Die beiden beziehen sich darin auf eine von ihnen durchgeführte detaillierte Abschätzung des Testbedarfs, die zur gleichen Zeit im Fachorgan „ALTEX“ (Jahrgang 26) erschien. Hartung, der als Erfinder eines tierfreien Pyrogentests und als Leiter des europäischen Zentrums für Alternativen zu Tierversuchen ECVAM in Ispra am Lago Maggiore bekannt geworden ist, hält der EU vor, den zweiten Schritt vor dem ersten getan zu haben, indem sie (implizit) eine Riesenzahl aufwändiger Stoffprüfungen vorschrieb, ohne über einigermaßen zuverlässige Hochdurchsatz-Prüfmethoden zu verfügen.

Die EU-Kommission war bei der Abschätzung der Kosten von REACh davon ausgegangen, dass bis Ende 2008 etwa 27.000 Firmen etwa 180.000 Vorregistrierungen für ungefähr 30.000 Stoffe bei der ECHA in Helsinki einreichen würden. Bekanntlich sandten stattdessen 65.000 Unternehmen insgesamt 2,75 Millionen Vorregistrierungen von fast 150.000 Subtanzen nach Helsinki. Nach einer ersten Bereinigung blieben in diesem Jahr immerhin 143.835 Substanzen auf der ECHA-Liste, davon 54.686 mit einem Produktionsvolumen von über 1.000 Jahrestonnen. Diese müssten schon bis Ende 2010 registriert sein, was kaum vorstellbar ist. Die Europäische Chemikalienagentur ECHA in Helsinki geht davon aus, dass die unerwartet hohe Zahl von Vorregistrierungen durch Fehler der Anmelder (siehe Kasten) zustande gekommen ist. Wie in der zur Verfügung stehenden kurzen Zeit die Spreu vom Weizen getrennt werden kann, ist aber noch immer nicht ersichtlich.

Nach den Schätzungen der ECHA müssten bis Ende 2010 statt über 50.000 „nur“ etwa 8.700 Substanzen (davon 3.500 bekannte „Großstoffe“, die höchsten Testanforderungen unterliegen, plus eine noch unbekannte Zahl von „Problemstoffen“, die verdächtigt werden, krebserregend, erbgutschädigend, reproduktionstoxisch oder besonders umweltbelastend zu sein) samt einer Liste vorgeschlagener Tierversuche registriert werden. Nur bei einem kleinen Teil der betroffenen „Großstoffe“ dürften die bereits vorhandenen Daten für die Registrierung ausreichen. In den meisten Fällen bleibt offen, wie die nötigen Tierversuchsdaten in der bleibenden kurzen Zeitspanne generiert werden können. Als Flaschenhals erweist sich die vorgeschriebene Untersuchung der Reproduktionstoxizität, die nach den bislang gültigen Vorschriften in Zwei-Generationen-Studien an Ratten getestet werden muss. Jeder Zwei-Generationen-Test kostet über 300.000 Euro und nimmt fast zwei Jahre in Anspruch. In den vergangenen 28 Jahren wurden in Europa jährlich nur etwa zwei bis drei Stoffe so aufwändig gestestet. Hartung und Rovida schätzen, nun müssten jedes Jahr einige Hundert solcher Tests durchgeführt werden. Dafür gebe es bei weitem nicht genügend Laborkapazitäten und erst recht nicht genug Toxikologen.

Nach Ansicht Hartungs und Rovidas geht die starke Unterschätzung des Testaufwandes durch die EU-Kommission vor allem darauf zurück, dass ihr Produktionsdaten der Jahre 1991 bis 1994 zugrunde liegen, das heißt aus einer Zeit, in der die EU lediglich 12 Mitgliedsstaaten zählte. Seither habe sich aber das Produktionsvolumen der chemischen Industrie im alten Europa mehr als verdoppelt und sei durch die Erweiterung der EU durch osteuropäische Länder mit bedeutenden Kapazitäten in der Grundstoffchemie zusätzlich gewachsen. Selbst wenn man wie die ECHA annehme, dass die Zahl der vorregistrierten Stoffe durch Mehrfachmeldungen oder die vorsorgliche Anmeldung des ganzen EINECS-Altstoffregisters (aus Angst, den Marktzugang zu verlieren) künstlich aufgebläht wurde, müsse man realistisch von einer mittleren Zahl von 68.000 Stoffen ausgehen, die unter REACh fallen – zumal der Geltungsbereich von REACh in der Rangelei kurz vor der Verabschiedung der Verordnung auch noch auf Zwischenprodukte ausgedehnt wurde. Auch unter sehr optimistischen Annahmen wie der Anwendung computerbasierter Testmethoden wie (Q)SAR und der Vermeidung von Testwiederholungen gelange man zu einem Bedarf von mindestens 54 Millionen Wirbeltieren und einem finanziellen Aufwand von 9,5 Milliarden Euro in den kommenden zehn Jahren. Das ist das Sechsfache der von der EU-Kommission offiziell geschätzten Kosten! Zum Vergleich: Bislang wurden in der EU jedes Jahr etwa 900.000 Versuchstiere für die Prüfung neuer Chemikalien „verbraucht“, was die Industrie etwa 600 Millionen Euro kostete.

Die ECHA hat, wie erwartet, sofort in Form einer umfangreichen Pressemitteilung auf den in „Nature“ veröffentlichten Warnruf reagiert. Sie geht darin von 34.000 von REACh betroffenen Stoffen aus und beharrt auf der offiziellen Schätzung von 9 Millionen Versuchstieren und Kosten in Höhe von 1,3 Milliarden Euro. Sie verweist dabei auf eine Auftragsarbeit des deutschen Bundesinstituts für Risikobewertung (BfR) aus dem Jahre 2004 (T. Höfer und andere). Darin war allerdings ein fünfmal höherer Versuchstierbedarf nicht ausgeschlossen worden.

Prof. Hartung wies die Kritik seitens der ECHA gegenüber der CR zurück, indem er betonte: „Es geht uns nicht primär um den Tierschutz oder um die hohen Kosten der Tierversuche, sondern um die Durchführbarkeit von REACh. Wir möchten darauf hinweisen, dass REACh in der jetzigen Form in eine Sackgasse führt, die nur durch einen anderen Ansatz vermieden werden kann.“ Werde nur jeder der von der ECHA geschätzten 3.500 „Großstoffe“ nach den OECD-Vorschriften TG 414 und 416 getestet, entstehe bereits ein Bedarf von 13 Millionen Versuchstieren, deren Kosten mit 1,4 Milliarden Euro veranschlagt werden könnten. Schon dadurch werde also der für das Gesamtprojekt offiziell geschätzte Kostenrahmen gesprengt. Der Aufwand für die Prüfung der unbekannten Zahl besorgniserregender Chemikalien niedrigerer Tonnage (CMR-Stoffe und besonders umweltbelastende Stoffe) ist dabei gar nicht berücksichtigt.

Da aber schon bei der Prüfung bekannter „Großstoffe“ mit Sicherheit viele falsch positive Befunde auftauchen werden und es kaum denkbar sei, allein deshalb bewährte Allerweltschemikalien aus dem Verkehr zu ziehen, sieht Hartung hier die Chance für einen Neuansatz in der Toxikologie. In einem Aufsatz in „Nature“ (Vol 460/9 July 2009) hat er skizziert, wie er sich die Toxikologie des 21. Jahrhunderts vorstellt. Dass die Aussagekraft von Tierversuchen zu wünschen übrig lässt, ist Fachleuten schon lange bekannt. Bei Zwei-Generationen-Tests muss mit über 60 Prozent falsch positiven Befunden gerechnet werden. Dennoch erwies es sich in den vergangenen vier Jahrzehnten als unmöglich, die Testverfahren auf der Basis der Verabreichung hoher Dosen der Prüfsubstanzen an Nagern (vor allem Ratten) zu verändern, sobald sie einmal in einem mühsamen internationalen Abstimmungsverfahren standardisiert waren, weil die Industrie darauf achten musste, ihre Produkte überall auf der Welt vermarkten zu können.

REACh biete nun die Chance, alternative Testverfahren weltweit durchzusetzen, zumal die US National Academy of Sciences und die US-Umweltagentur EPA, die ein ähnliches Regelwerk wie REACh anstreben, in einem 2007 erschienen Report eine Kombination verschiedener In-vitro-Tests anstelle klassischer Tierversuche empfehlen. In ihrem Tox Cast Programm verspricht sich die EPA viel von Tests an Zellkulturen, darunter insbesondere an menschlichen Stammzellen, von der Anwendung biotechnischer und bioinformatischer Auswertungsmethoden sowie von Genomik und Proteonomik. Diese ermöglichen die Entwicklung computerisierter Hochdurchsatz-Verfahren, mit deren Hilfe gezielt nach bekannten „Signaturen“ toxischer Effekte gesucht werden kann.

Thomas Hartung versteht seine Warnung nicht als Ruf nach einem REACh-Moratorium. Es gehe lediglich darum, REACh entsprechend den neuesten Erkenntnissen der Forschung nachzubessern. Nur einer von 17 verschiedenen Tier-Tests, der allerdings 90 Prozent des Versuchstierbedarfs verursacht, müsse ersetzt werden. Ohnehin stehe zurzeit in der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) die Entscheidung über die Zulassung des erweiterten Ein-Generationen-Tests anstelle des Zwei-Generationen-Tests der Reproduktionstoxizität (TG 416) an. Allein dadurch könne ein Fünftel der Versuchstiere eingespart werden. Hartung gibt sich hier optimistisch: „Die Gesetzgebung ist sperrangelweit offen für solche Änderungen. Meine Hoffnung: Problem erkannt – Problem gebannt.“

Edgar L. Gärtner (veröffentlicht am 9. Oktober 2009 in: Chemische Rundschau Nr. 10/2009, VS-Medien, CH-Solothurn)

KASTEN: Durcheinander in den SIEF

Kaum dass sie ihre Vorregistrierung nach einigen Geduldsproben über REACH-IT nach Helsinki übermittelt hatten, erhielten viele der zuständigen Mitarbeiter von Unternehmen eine Flut von e-Mails, in denen sich Consulting-Firmen unter allen möglichen Fantasie-Namen als SIEF Facilators (SFF) aufdrängten, aber nach einiger Zeit nichts mehr von sich hören ließen – offenbar, weil sie merkten, dass für sie dort nichts zu holen war. Daneben haben viele Firmen Vorregistrierungen eingereicht, obwohl sie gar nicht die Absicht haben, irgendetwas definitiv zu registrieren, weil sie allein schon durch die automatische Einladung zu SIEF an wichtige Informationen über potenzielle Kunden und Wettbewerber gelangen. Im Ergebnis hat sich in etlichen SIEF, an denen im Extremfall mehrere Tausend Firmen teilnehmen, ein heilloses Durcheinander ausgebreitet. Die meisten haben bis heute noch keinen „lead registrant“ benannt und sind weit von einer Regelung der Kostenteilung entfernt. Wie unter diesen Umständen die Zahl vorregistrierter Stoffe bereinigt werden kann, ist nicht absehbar. Immerhin finden sich unter den 143.835 vorregistrierten Substanzen über 22.000, die weder über die CAS-Nummer noch über die EC-Nummer identifizierbar sind. EG

KASTEN: REACh und der Mittelstand

Die Schwierigkeiten kleiner und mittlerer Unternehmen mit REACh beginnen schon mit der Sprache. Bekanntlich gab es die REACH-IT für die Vorregistrierung von Stoffen nur auf Englisch. Und nur die englischen Stoffbezeichnungen konnten auch angemeldet werden. Das war wohl eine der wichtigsten Fehlerquellen beim Start von REACh. Viele Mehrfachregistrierungen ein und desselben Stoffes sollen darauf zurückzuführen sein. Nun kranken die obligatorische Bildung von Substance Information Exchange Fora (SIEF) durch Firmen, die den gleichen Stoff registrieren wollen, sowie darauf aufbauende Anläufe zur Bildung von Registrierungs-Konsortien oft daran, dass viele Vertreter südeuropäischer Firmen kein verhandlungssicheres Englisch mitbringen. Die Annahme von Verträgen verzögert sich, weil teilnehmende Firmen mangels ausreichender Sprachkenntnisse nachträglich Übersetzungsbüros mit der Überprüfung ausgehandelter Texte beauftragen.

Anlass zu Zweifeln an der Durchführbarkeit von REACh geben aber auch andere ungelöste Probleme. Zurzeit haben etliche KMU an der Entscheidung des Europäischen Gerichtshofs (EuGH) unter Generalanwältin Juliane Kokott vom 7. Juli 2009 (EUR-Lex-62007J0558) zu kauen. Darin legt der Gerichtshof die sehr spät in die EG-Verordnung 1907/2006 aufgenommene Meldepflicht für Monomere in importierten Polymeren sehr restriktiv aus. Mittelständische Firmen des Chemiehandels aus Frankreich, England und Deutschland hatten in der Meldepflicht für Monomere, die zu mindestens 2 Masseprozent in Polymeren enthalten sind, die in Mengen über einer Jahrestonne importiert werden, eine Verletzung des Grundsatzes der Verhältnismäßigkeit gesehen, da es in der Praxis kaum möglich ist, die Einhaltung der Vorschrift mit vertretbarem Aufwand zu überprüfen. Nach der Abweisung der Klage durch den EuGH bleibt europäischen KMU, die sich gesetzeskonform verhalten wollen, nichts anderes übrig, als auf Importe von Polymeren zu verzichten. Es dürfte aber kaum möglich sein, illegale Importe und graue Märkte zu verhindern, weil die Zollämter dafür nicht gerüstet sind.

Obendrein obliegt die Umsetzung, das „enforcement“ von REACh, bekanntlich den Nationalstaaten. Selbst ECHA-Chef Geert Dancet weist darauf hin, derselbe Regelverstoß könne in einem EU-Mitgliedsstaat als schweres Vergehen geahndet werden, während er in einem anderen EU-Land als Kavaliersdelikt durchgeht. Dr. Alex Föller, der Hauptgeschäftsführer des Verbandes TEGEWA in Frankfurt am Main, fordert deshalb mehr Kompetenzen und Kapazitäten beim Zoll. Dass das bei Stoffen, die in kleineren Mengen gehandelt werden, nur sehr begrenzt hilft, ist ihm auf dem Hintergrund der Erfahrungen mit dem Drogenhandel wohl bewusst. Ungelöste Probleme sieht Föller auch in den Stoffverwendungsbeschreibungen. Den Herstellern ist es nach wie vor kaum möglich, sich einen einigermaßen realistischen Überblick über kleinvolumige Stoffverwendungen zu verschaffen. Denn auf diesem Feld stehen viele KMU ganz unterschiedlicher Branchen in einem heftigen Ideen-Wettbewerb und lassen sich folglich nicht gerne in die Karten schauen. Eine realistische Risikobewertung ist unter diesen Umständen schwierig. Überdies werden die technischen Anleitungen für die Anwendung der REACh-Bestimmungen (RIB) laufend geändert, so dass vor allem kleinen Stoffanwendern oft nicht klar ist, welche Bestimmungen für sie gelten. Manche Anwender ahnen wohl gar nicht, dass sie bei strenger Auslegung von REACh schon mit einem Bein im Gefängnis stehen. In der Praxis werden diese Probleme in Netzwerken mit kurzem Draht zur EU-Bürokratie durch pragmatische Festlegungen aus der Welt geschafft. Aber wehe dem, der nicht mitspielt! Von der Rechtssicherheit, die REACh der Wirtschaft bringen sollte, kann jedenfalls bislang nicht die Rede sein. EG

==============================================================================

REACH: Babylon lässt grüßen

Die Chemiepolitik der EU schafft nur Datenfriedhöfe von Edgar L. Gärtner

Die am 1. Dezember 2008 zu Ende gegangene erste Phase der Umsetzung der neuen EU-Chemikalienverordnung gilt als großer Erfolg. Doch weist die überraschend hohe Zahl von insgesamt 2,75 Millionen Vorregistrierungen von sage und schreibe 150.000 Stoffen (im Vergleich zu 30.000 Substanzen, mit denen gerechnet worden war) durch insgesamt 65.000 Unternehmen auf erhebliche Startprobleme bei der obligatorischen Bildung von Substance Informations Exchange Fora (SIEF) hin. Hinzu kommt Ärger mit der Registrierungs-Software REACH-IT.

Nach dem Abschluss der Vorregistrierung scheint höchste Eile geboten. Denn Stoffe mit einem Produktionsvolumen von über 1.000 Jahrestonnen müssen bereits bis Ende November 2010 ordnungsgemäß registriert sein. Dabei müssen Daten vorgelegt werden, die in manchen Fällen schon irgendwo, aber oft auf verschiedene Eigentümer verteilt vorhanden sind, in manchen Fällen aber erst mithilfe aufwändiger Tierversuche generiert werden müssen. Da bleibt nicht viel Zeit für das Zusammentrommeln und das Management der Substance Informations Exchange Fora (SIEF), die vom Gesetzgeber vorgeschrieben wurden, um die Zahl der Tierversuche und die Gesamtkosten von REACH erträglich zu halten. Bei manchen Stoffen sind, bei Eibeziehung des Chemiehandels, mehrere Tausend Firmen betroffen, die von den „SIEF Formation Facilators“ zusammengebracht und animiert werden müssen.

Doch wer sich zu Beginn dieses Jahres bei REACH-IT einloggen wollte, stieß auf der Homepage der ECHA) auf die folgende Meldung:

“The number of concurrent REACH-IT users is high and the system is exhibiting slow behaviour.

ECHA is monitoring the system performance and making improvements to its robustness.”

Wer es dennoch endlich geschafft hatte, sich einzuloggen, flog oft wieder raus, bevor er alle ihn betreffenden Meldungen studiert hatte. Wer sich darüber beschweren oder beim Help Desk der ECHA um Rat fragen wollte, landete in der Regel in einer Sackgasse. Stunden um Stunden vergingen mit neuen Versuchen, sich einzuloggen. Einige europäische Firmen versuchten mithilfe ihrer amerikanischen Töchter oder Niederlassungen, sich außerhalb der europäischen Geschäftszeiten Zugang zum Server der ECHA in Helsinki zu verschaffen. Am 19. Januar meldete sich schließlich ECHA-Exekutivdirektor Geert Dancet und kündigte an, in den kommenden Monaten würden verschiedene Schritte zur Verbesserung der REACH-IT unternommen.

Darüber entrüstete sich in einem Schreiben vom 21. Januar CEFIC-Generaldirektor Alain Perroy. Die von der deadline 30. November 2010 betroffenen Firmen könnten keineswegs noch Monate lang warten, sondern befänden sich bereits im Endspurt. Nur über die REACH-IT könnten sie erfahren, mit welchen Firmen sie Kontakt aufnehmen müssen, um ein SIEF zu bilden, dort dann die Identität (sameness) der registrierpflichtigen Stoffe zu prüfen, Stoffdaten auszutauschen, Wissenslücken auszumachen und Teststrategien und deren Finanzierung festzulegen, um fehlende Daten zu generieren.

Die überraschend große Zahl von Vorregistrierungen stellt an sich schon ein organisatorisches Problem dar. Es wird vermutet, dass viele Stoffanwender vorregistriert haben, obwohl sie gar nicht die Absicht haben, etwas zu registrieren. Vielmehr scheint es ihnen darum gegangen zu sein, über die automatische Einladung zur Teilnahme an SIEFs Informationen über potenzielle Kunden und Wettbewerber zu erhalten. Wegen der bei vielen Anwendern herrschenden Verunsicherung wurden auch viele Substanzen vorangemeldet, deren Jahresproduktion unterhalb der für REACH gültigen Mengenschwelle von einer Jahrestonne liegt. Außerdem finden sich auf der Liste etliche Endprodukte, die nicht unter die Stoffdefinition von REACH fallen. Die lange Liste der Vorregistrierungen muss deshalb aufwändig bereinigt werden. So gehen Monate ins Land, bevor die SIEF sich im Detail um die Datenlage der registrierpflichtigen Stoffe kümmern können, zumal es nach wie vor eine Menge rechtlicher Probleme zu klären gibt. Bis schließlich ein „lead registrant“ am Ende die Registrierung durchführt und deren Kosten auf die einzelnen SIEF-Mitglieder umlegt, können weitere Monate vergehen. Deshalb kommen immer mehr Zweifel auf, ob die Fristen für die Registrierung überhaupt eingehalten werden können. Manche Industrievertreter halten es (hinter vorgehaltener Hand) nicht für ausgeschlossen, dass die Umsetzung von REACH schon in der ersten Etappe stecken bleibt. Leben könnten sie damit ganz gut, denn die Vorregistrierung verschafft vielen von ihnen erst einmal eine Atempause.

Zu den ungelösten juristischen Problemen der SIEF zählt der Status der Only Representatives (OR) für die Registrierung von Stoffen, die in die EU importiert werden. Das gilt insbesondere für Stoffe, die in China und Indien produziert werden. Nach Ansicht von Nicolas Gardères, Anwalt in der Pariser Kanzlei Denton Wilde Sapte, ist es nach wie vor unklar, wie weit die OR bei eventuellen Schadensersatzansprüchen strafrechtlich zur Verantwortung gezogen werden können, zumal etliche EU-Mitgliedsstaaten, wie die ECHA im Dezember meldete, ihr Strafrecht noch immer nicht um die mit REACH verbundenen Verpflichtungen und Straftatbestände ergänzt haben.

Kommen schon die obligatorischen SIEF kaum ohne detaillierte anwaltliche Beratung aus, so ist der juristische Beratungsbedarf, wie Gardères unterstreicht, bei der Bildung freiwilliger Registrierungs-Konsortien noch erheblich größer. Nach dem geltenden Kartellrecht dürfen Konsortien unter keinen Umständen dazu dienen, ihren Mitgliedern einen wirtschaftlichen Vorteil gegenüber Wettbewerbern zu verschaffen oder bestimmte Marktteilnehmer zu diskriminieren. Das ist im Konfliktfall schwer zu beweisen.

Inzwischen hat die ECHA eine vorläufige Liste von sieben Stoffen veröffentlicht, die in einer öffentlichen Stakeholder-Anhörung aus der Ende Oktober 2008 veröffentlichten „Kandidatenliste“ besonders bedenklicher Substanzen ausgewählt wurden, um sie für den Anhang XIV der Liste zulassungspflichtiger Stoffe vorzuschlagen. Dabei handelt es sich um den synthetischen Duftstoff Moschus Xylen, um kurzkettige chlorierte Paraffine, um das Flammschutzmittel Hexabromcyclododecan (HBCDD) und seine Isomere, um 4,4’-Diaminodiphenylmethan (MDA) sowie um die als Kunststoff-Weichmacher verwendeten Phthalate DEHP, BBP und DBP. Dass sich das in Medizinprodukten wie Blutbeuteln oder Magensonden nur schwer ersetzbare DEHP auf der Liste befindet, wird nur auf dem Hintergrund der seit Jahren von Greenpeace und anderen Interessengruppen gegen den bewährten, aber toxikologisch nicht abschließend beurteilten Weichmacher geführten Kampagne verständlich. Über entsprechende Web-Formulare kann diese vorläufige Liste bis zum 14. April kommentiert werden.

Industriechemiker, die zurzeit buchstäblich Tag und Nacht mit der REACH-IT kämpfen, fürchten, dass ihre aufopferungsvolle Arbeit letztlich nicht mehr bewirkt als einen riesigen Datenfriedhof zu erzeugen, der die Illusion nährt, durch das bürokratische Monster REACH werde das tägliche Leben der EU-Bürger etwas sicherer.

Edgar Gärtner (erschienen in: CR-Chemische Rundschau Nr. 1-2/2009)

=============================================================

REACH – Wende in der Stoffbewertung oder teures Theater?

Die neue Europäische Umweltagentur (ECHA) in Helsinki hat am 1. Juni 2008 mit dem Beginn der Vorregistrierung von Stoffen nach einer einjährigen Vorbereitungszeit offiziell ihre operative Tätigkeit begonnen. Zwar erreicht die Zahl der fest eingestellten qualifizierten Mitarbeiter der Agentur mit etwas über 200 noch längst nicht das ursprünglich einmal ins Auge gefasste Niveau. Doch der Agenturchef Geert Dancet gibt sich zuversichtlich, dass die Mitarbeiterzahl bis 2010 auf 450 (davon zwei Drittel Wissenschaftler) ansteigen wird. Auf den ersten Blick erscheint der Start der Agentur durchaus gelungen. Über 9.000 Firmen haben sich beim REACH-IT-System der Online-Registrierung angemeldet. (Das ist allerdings nur etwa ein Viertel aller europäischen Chemiefirmen.) Bis Mitte September waren bereits 352.641 Vorregistrierungen eingegangen. Davon allein 141.185 aus Deutschland und 138.434 aus Großbritannien. An dritter Stelle folgen die Niederlande mit 17.356 Vorregistrierungen, danach Italien mit 13.989 und Frankreich mit 9.945. Ende September 2008 erreichte die Gesamtzahl der Vorregistrierungen nach Angaben Dancets schon 402.584. Allerdings wies ein Teil davon Formfehler auf (siehe Kasten) und zwei Firmen haben sogar das ganze EU-Verzeichnis EINECS von über 100.000 Altstoffen vorangemeldet.

Deshalb fleht Dancet alle betroffenen Firmen an, doch bitte nur Substanzen voranzumelden, die sie später auch tatsächlich registrieren wollen. Andernfalls werde die Arbeit der Substance Exchange Fora (SIEF), zu denen die Vorregistrierer nach der Einreichung ihres Dossiers automatisch geladen werden, unnötig erschwert, wenn nicht völlig sabotiert. „Die vorregistrierende Firma kann dann zum einen unmöglich an allen SIEFs teilnehmen, zu denen sie geladen wird. Zum andern fehlt den nachgeschalteten Anwendern die Möglichkeit, zu überprüfen, welche der von ihnen dringend benötigten Roh- und Hilfsstoffe vorregistriert wurden, und können die ECHA nicht auf Stoffe aufmerksam machen, die auf der Liste fehlen“, erklärt Dancet.

Anna-Liisa Sundquist, die Vorsitzende des Ausschusses der EU-Mitgliedsstaaten bei der ECHA, weist zudem mit Nachdruck darauf hin, dass Hersteller außerhalb der EU Stoffe nicht unmittelbar, sondern nur mithilfe eines Alleinvertreters (Only Representative) in der EU registrieren können. „Das hat sich zu unserer Überraschung in vielen Teilen der Welt noch nicht herumgesprochen“, gibt Sundquist zu. Gleichzeitig räumt sie ein, dass auch viele kleine und mittlere Unternehmen in der EU mit den komplizierten Bestimmungen von REACH schlicht überfordert sind. Nina Mähönen-Antink vom bekannten, auf die Kommunikation in der Lieferkette spezialisierten finnischen IT-Beratungsunternehmen REACHWAY Oy bestätigt, dass viele kleine und mittlere Unternehmen in der EU sich noch gar nicht ernsthaft mit REACH beschäftigt haben und keine Anstalten machen, ihre Stoffe zu registrieren, weil sie entweder davon ausgingen, das bürokratische Monstrum werde ohnehin nicht funktionieren oder eine Geschäftsaufgabe vor Ablauf der Registrierungsfrist in zehn Jahren ins Auge fassen. Anna-Liisa Sunquist räumt ein, es sei noch völlig unklar, wie verfahren werden könne, sollte es sich gegen Ende dieses Jahres herausstellen, dass wichtige Substanzen gar nicht auf der Liste der vorregistrierten Stoffe erscheinen.

Ohnehin, so Sundquist weiter, müsse man sich nicht nur auf das Fortbestehen großer rechtlicher Grauzonen, sondern auch auf die Entstehung eines grauen Marktes für nicht registrierte und/oder nicht zugelassene Substanzen einstellen. Denn die Überwachung der Einhaltung der REACH-Vorschriften obliege nationalen Behörden. Zwar versuche die ECHA das Monitoring durch die Erarbeitung von Leitlinien zu harmonisieren. Doch niemand könne garantieren, dass diese in allen EU-Mitgliedsstaaten gleich streng befolgt werden. Außerdem werde wohl auch eine Reihe als potenziell gefährlich erkannter Chemikalien mangels verfügbarer Alternativen mit offizieller Genehmigung im Gebrauch bleiben. Bislang haben die EU-Mitgliedsstaaten nur 16 Stoffe für die so genannte „Kandidatenliste“ bedenklicher Substanzen nach REACH Art. 57, Anhang XV vorgeschlagen. Der Ausschuss der Mitgliedsstaaten wird demnächst die inzwischen zu den einzelnen Stoffen eingegangenen Kommentare im Detail diskutieren und voraussichtlich Ende Oktober 2008 die erste offizielle „Kandidatenliste“ vorlegen. ECHA-Chef Geert Dancet schließt nicht aus, dass diese sogar weniger als 16 Stoffe enthalten wird. Und nur ein Teil davon werde wohl im Anhang XIV der genehmigungspflichtigen Stoffe landen. Die Anhänge XIV und XV sollen alle zwei Jahre aktualisiert werden. Umweltverbände fordern dagegen, bis zu 2.000 Stoffe vordringlich unter die Lupe zu nehmen und auf „schwarze Listen“ zu setzen.

Auch Geert Dancet gibt offen zu, dass sich die Umsetzung der REACH-Verordnung am Rande der Legalität bewegt. Denn REACH schafft keinen neuen Rechtsrahmen, die Verordnung darf dem Maastricht-Vertrag der EU wie den nationalen Bestimmungen des Zivil- und Strafrechts über Wettbewerb, geistiges Eigentum und die Gültigkeit von Verträgen nicht widersprechen. So bewegen sich die von den europäischen Gesetzgebern und der ECHA erwünschten Konsortien für die gemeinsame Nutzung von Stoffdaten von Wettbewerbern zur Vermeidung unnötiger Tierversuche hart am Rande des nach dem Kartellrecht noch Erlaubten. Schon in den SIEFs gibt es Probleme mit der Geheimhaltung vertraulicher Geschäftsinformationen und mit der gerechten Aufteilung der Kosten – zumal, wie zu hören ist, etliche der beteiligten Firmen versuchen, selbst alte Tierversuchsdaten zu Geld zu machen. Einige dieser Probleme lassen sich durch Einschaltung neutraler Berater lösen, wodurch allerdings zusätzliche Kosten entstehen.

Geert Dancet weist in diesem Zusammenhang auf Folgendes hin: „In einigen Fällen kann die freie Verwendung von Daten durch das Gesetz oder durch Entscheidungen der Regulierungsbehörden erlaubt sein, z.B. im Rahmen der so genannten 12-Jahres-Regelung. Nach den Bestimmungen von REACH kann jede Studie beziehungsweise robuste Zusammenfassung von Studien, die im Rahmen einer Registrierung vor mindestens 12 Jahren eingereicht wurde, für die Registrierung nach REACH von jedem anderen Hersteller oder Importeur verwendet werden. Der Nachweis des rechtmäßigen Besitzes ist nicht notwendig für Daten, die vor mindestens 12 Jahren registriert wurden. Das gilt unter gewissen Umständen auch bei Anfragen oder wenn Parteien, wie im Leitfaden über das Data-Sharing beschrieben, sich in einem SIEF nicht über die gemeinsame Nutzung von Daten einigen. Unter gewissen Umständen kann die ECHA die Erlaubnis zur Verwendung von Daten erteilen.“

Dancet hält aber die besonders in der mittelständischen Wirtschaft verbreitete Angst vor dem Verlust geistigen Eigentums für unbegründet: „Wir versichern, dass REACH keine negativen Auswirkungen auf das Urheberrecht haben wird. REACH verlangt in der Tat, dass die Registrierer in der Regel im legitimen Besitz von Summaries auf der Grundlage vollständiger Studien oder eines legitimen Zugangs zu Robust Study Summaries sind, der in den Registrierungsunterlagen belegt werden muss. Das gilt auch für Robust Study Summaries aus dem Internet (z.B. aus dem OECD/ICCA HPV Programms oder dem US HPV Chemical Challenge Program). Darüber hinaus sollte man beim Herunterladen öffentlich zugänglicher Studien sorgfältig prüfen, ob deren Verwendung Urheberrechte verletzt.“ Wird das die Adressaten beruhigen?

Ungeklärt sind auch der rechtliche Status und die strafrechtliche Verantwortung der für die Anmeldung importierter Stoffe obligatorischen Alleinvertreter in der EU. „Hände weg vom Import fertiger Zubereitungen!“, rät deshalb Liisa Rapeli-Likitalo der europäischen Industrie. Da stehe man gleich mit einem Bein im Gefängnis. Die kleine, aber energische Frau ist zurzeit bei dem auf die Wasser- und Holzchemie spezialisierten finnischen Konzern Kemira Tag und Nacht damit beschäftigt, Stoffe ordnungsgemäß voranzumelden. Dabei machen ihr nicht nur Probleme mit der Registrierungs-Software IUCLID 5 und dem universellen Identifizierungscode UUID zu schaffen, sondern auch rechtliche Grauzonen. „REACH ist vor allem ein Arbeitsbeschaffungsprogramm für Anwälte und nichts für Menschen, die nicht gelernt haben, mit Ungewissheit zu leben“, resümiert sie ihre Erfahrungen.

ECHA-Chef Dancet gibt denn auch zu: „Uns bleibt noch viel zu tun, um zwischen unserer Behörde, der Industrie, den Gewerkschaften sowie den Umwelt- und Verbraucherverbänden eine transparente Vertrauensbasis aufzubauen und die ECHA zur wichtigsten Quelle für wissenschaftlich verlässliche Stoffinformationen zu machen.“ Nach der für Ende 2008/Anfang 2009 vorgesehenen Publikation der Liste vorregistrierter Stoffe wird die ECHA mit der Registrierung der großvolumigen Stoffe beschäftigt sein. Dancet erwartet, dass im Jahre 2010 nicht weniger als 20.000 Registrierungs-Dossiers bearbeitet werden müssen. Sollte es sich am Ende herausstellen, dass REACH, statt eine neue Ära der harmonisierten Stoffbewertung einzuleiten, vieles beim Alten lässt, wird das aber vermutlich weder in Brüssel noch in Helsinki jemand zugeben wollen. Die EU-Bürokratie wird sich wohl mit den Anspruchsgruppen darauf einigen, den Verbrauchern und Steuerzahlern ein Theater vorzuspielen. Darin fehlt es den EU-Behörden nicht an Übung.

Edgar Gärtner

===========================================================

Die fünf häufigsten Gründe für die Zurückweisung von Registrierungsdossiers durch die ECHA:

• Die im Einreichungsformblatt angegebene UUID (Identitätsnummer) stimmte nicht mit dem UUID des eingereichten IUCLID 5 Dossiers überein;

• Das Unternehmen hat sich nicht vorher bei REACH-IT angemeldet oder die Unternehmens-UUID falsch angegeben;

• Es wurde keine digitale Fassung des Einreichungsformblatts und/oder IUCLID 5 Dossier vorgelegt;

• Das eingereichte Dossier entsprach nicht dem XML Format;

• Das Bestätigungsfeld am Ende des Einreichungsformulars wurde nicht angeklickt.

===========================================================

(veröffentlicht in: Chemische Rundschau Nr. 10/2008, VS-Medien, CH-Solothurn)

Precaution or Arbitrariness?

The “precautionary principle” leaves open the question of whether preventive measures are also subject to cost-benefit criteria or not. Even non-monetary evaluations of the costs and benefits of actions to prevent hypothetical threats appear all too often more than doubtful, especially when they show that screening is only available at the cost of individual freedom. In real life people often have to decide between two evils. Which one is the lesser?

Prevention is not Always Better than The Cure

by Edgar L. Gärtner

Lessons about Precaution from the Swine Flu Vaccine Fiasco

The French government under the ever-energized President Nicolas Sarkozy became aware at the beginning of the year that it was threatened to sit on more than 90 million doses of Swine flu vaccine, hastily ordered last year to face an allegedly advancing pandemic. Only five out of currently more than 60 million French people got vaccinated to date against the exaggerated threat of a planetary swine flu pandemic. According to estimates by physicians, at the same time more than 20 million French people got immunized against the new flu variant free of charge, i.e. by responding to infection with barely perceptible slight flu symptoms. More than one billion euros seemed to be set in the sand. In the German federal states, the situation is similar but not quite as bad as in France. Since the ordered batches are in part not yet produced, France and Germany managed to cancel at least part of their orders. Especially in France the following questions remain unanswered: Why almost 100 million vaccines were ordered – three times more than what would have been necessay for a reasonable coverage of the population? Why did the government invest simultaneously on a vast storage of the controversial flu drug Tamiflu (one third of total world reserves!)? Why were expensive gas masks purchased, but only available for top officials and managers?

I’m not looking for responses like those given by libertarians and conspiracy theorists, whereby the virus itself H1N1 and his propagation is imputed to worldwide machinations of pharmaceutical companies GlaxoSmithKline (GSK), Sanofi-Pasteur and Novartis. I restrict myself rather to the official justification of action by the “precautionary principle”. This decision scheme was invented in Germany at the beginning of the 70s and became known worldwide after the 1992 “Earth Summit” in Rio de Janeiro under the following definition: “Where there are threats of serious or irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation.” (Principle 15 of the Rio Declaration). Subsequently, this principle was introduced into the Maastricht Treaty, the Lisbon Constitutional Treaty and the French Constitution. As Nicolas Sarkozy has himself set upon overrun the Germans with preventive rhetoric, he gave his officers orders to try hard to follow the principle consistently. But just by doing that they have created the problems they are now facing. Because unlimited provision is an absurd idea. Those who constantly concentrate on precaution, forget to live. The precautionary principle is useful only insofar as it is not consistently applied. Healing is much more important than prevention, even though the welfare state’s advertising is mindlessly repeating the opposite.

The above-quoted definition of the “precautionary principle”, namely, leaves open the question of whether preventive measures are also subject to cost-benefit criteria or not. Widespread is the view that cost considerations are not justified when it comes to human life. If this argument was valid, there would be neither life nor accident insurance. Underlining this I do not deny that the monetary evaluation of life issues must remain very restricted. But even non-monetary evaluations of the costs and benefits of measures to prevent hypothetical threats appear all too often more than doubtful, especially when they show that screening is only available at the cost of freedom. There are exceptions like private retirement plans or provisions for maintenance and repair costs, as well as precaution measures against harmful events, whose probability can be realistically estimated. But even in these cases it is often not enough to weigh between the advantages and disadvantages of economically justifiable protection measures. In real life instead, people often have to decide between two evils. Which one is the lesser?

Such decisions, if they are not spontaneously taken from the gut, can in general not be justified without any reference to religious belief. As long as Christianity was prevailing in Europe this was no problem. Later, Christian Humanism was successively replaced by Ecologism, a synthetic mix of knowledge and unfounded beliefs with a clear misanthropic, if not nihilist tendency. No wonder that allegedly preventive actions and investments, justified by the “precautionary principle” more and more turn out to be economically disastrous.

Internet:

Revisiting the Swine flu lies and hysteria

France’s Swine Flu Fiasco

Financial Time on France’s Vaccine Flop

The Rio Declaration on Environment and Development (15 January 2010)

==========================================================================================

Precaution or Arbitrariness?

Plasticizers in Political Crossfire

By Edgar Gärtner

This study has been made possible by the financial support of the AgPU – Working Group on PVC and the Environment, Bonn

The EU ban on plasticizers in toys

Despite the enormous health benefits brought by the use of DDT, which provided an extremely effective insecticide and was instrumental in the fight against malaria, a total ban was imposed on its use in 1972 on the basis of unsubstantiated health and environmental threats. International bans have since been introduced on other substances and, once in place, they are virtually impossible to reverse.

Similarly, unfounded suspicions and accusations led the EU to impose a total ban on the use in children’s toys of three plasticizers employed in the manufacture of PVC (DEHP, DBP and BBP). It also has prohibited the use of three additional plasticizers (DIDP, DNOP and DINP) in babies’ toys intended to be put in the mouth. This is not the EU’s first attempt to impose a substance ban motivated primarily by politics – as opposed to a decision made on sound scientific principles. Yet this case forms a precedent which would serve to create lasting, fundamental, and possibly irreversible flaws in EU policies on technology and the environment.

Only one of the substances, DINP, is currently in general use in children’s toys. This material has been subjected to a thorough risk assessment in the EU and again in the US, and has been found to be quite safe. Industry has spent over 130 million Euros in total to assess the health and environmental risks of plasticizers such as DEHP. A core reason for these tests was these plasticizers’ widespread use in medical equipment. All have now been in such longstanding use that if there had been any harmful side effects from their application these would have long since come to the fore. The EU now forces manufacturers of pacifiers, plastic ducks and baby equipment to switch to alternative plasticizers, which have not been investigated as thoroughly, have often not been tested for these applications and are often considerably more expensive.

Adipates are one possible substitute. Their possible impact on human health and the environment to appear to be slight, but so far they have not been subjected to such exhaustive examinations as have the six banned substances. Other alternatives, although extant for some time, have a high migration tendency, and are clearly much less suitable for these applications.

Citrate esters, touted by environmental groups as more environmentally and health-friendly, migrate from treated materials so quickly that these objects easily become brittle. Toys manufactured using citrate esters as plasticizers will therefore put children at risk of swallowing broken-off fragments. Are we therefore justified in substituting a (theoretical) health risk with the much more concrete risk of a child choking?

Greenpeace activists, on whose arguments the EU’s actions were based, don’t appear to be losing any sleep over such questions. In fact, they are demanding that toy manufacturers abandon the use of PVC altogether. According to them, soft PVCs in toys should be replaced with rubber. However, the effect of heat during the vulcanization process of rubber results in carcinogenic nitrosamines, and the substitution of organic for petroleum-based rubber will simply substitute a new, ‘natural’, set of carcinogens.

This raises the question of who decides which materials may be used: Greenpeace? The EU Commission? Science? Nature? And just who is ‘Nature’? Aren’t humans also part of nature, including the average consumer who weighs up product choices and then consciously chooses PVC? Wouldn’t it be better to choose the winner out of several competing market-based solutions?

As I see it, the debate over the advantages and risks of plasticizers boils down to one question: “Can safe and sustainable solutions be developed through the interaction between inventors and the needs and wishes of consumers?”

Mankind has been using plasticizers since the Stone Age, when plant oils were worked into stiff animal pelts to make soft leather. With the advent of different types of soft PVC in the twentieth century, researchers found that PVC performed better when combined with phthalates than with other materials on the market. Plasticizers are used to achieve desired qualities such as flexibility, flame retardation or low-temperature resistance.

In hindsight, it is clear that modern industry would not have been able to develop without both the development of synthetic plastics, and, secondly, inexpensive plasticizers that improve the processing ability and durability of natural materials. However, this development required a long and somewhat painful process of trial and error. And, had this been hampered by bureaucratic ‘precautionary measures’, it simply would not have taken place.

PVC began to lose its innocence in 1961 as experiments carried out on rats in the US showed clear indications of the highly carcinogenic potential of the vinyl chloride monomer (VCM), used to manufacture PVC. Even in low concentrations, VCM provoked a rare form of liver cancer. In the early 1970s, numerous workers exposed to VCM developed various conditions including liver cancer. Strict measures and exposure limits were immediately introduced. However, an undercurrent of fear took hold in the public’s mind that PVC products could leech out insidious poisons. And this same fear has most probably since attached itself to plasticizers as well.

In subsequent decades, this undercurrent grew. In the American biologist Barry Commoner’s book The Closing Circle – Nature, Man, and Technology (1971), PVC plasticizers play a similar villainous role to the (unfounded) accusations weighed against the insecticide DDT in Rachel Carson’s Silent Spring (1962). Pressure from environmentalists came to a head following the escape of the ‘super-poison’ dioxin into the environment at the chemical plant at Seveso, Northern Italy in July 1976.

The accusation of being carcinogenic has been levelled in general against plasticizers used in PVC, and particularly against DEHP. In the early 1980s, DEHP was classified as ‘potentially carcinogenic’ by the International Agency for Research on Cancer (IARC) on the basis of experiments on rodents which showed a tendency to develop liver tumours following exposure to high doses. It was later proven that humans and higher mammals are not at risk because they metabolize DEHP differently. The IARC has since reclassified DEHP as “not classifiable as to its carcinogenicity to humans.”

The German Parliament created a special Enquete Commission to investigate the influence of chemicals on humans and the environment. The Commission also covered chlorine and PVC. The findings from the first phase were published in 1994 (pages 362–364):

„…following years of intensive debate, PVC is today far and above the most researched materials in respect of its environmental impact. (…) the commission cannot recommend the substitution of other materials for PVC without sound economic or ecological reasons to support this. Any such substitution would carry the risk of creating new problems – and would possibly lead to a worsening of the overall situation vis-à-vis the present.“

How risk assessment became a political issue

In 1993, the EU issued the 793/93/EEC Directive analyzing the risks associated with around 100,000 ‘old’ chemicals – substances registered prior to September 1981 in line with the (then) EEC’s Dangerous Substances Directive (67/548/EEC). In 793/93/EEC, Article 15 now called for the testing of substances arousing particular suspicion. Later that year, they also published a priority list of 134 substances. This list included phthalates used as plasticizers for PVC. Four further PVC plasticizers appeared in the two subsequent priority lists. If decades of suspicion had not already fallen on these substances, then nobody would have been able to fathom just how phthalates found their way onto this list. It would suggest that their inclusion owed less to scientific scrutiny than it did to political pressures.

Given that environmental groups and political parties were already on the warpath; firms, industry associations and scientists targeted in this attack had no other choice but to play ball. They were confident, though, that the toxicological and ecological risk assessments would bear out their own conclusions. However, well before the risk assessment had been completed, the debate on these materials was forced by pressure from media campaigns and the protestations of environmental groups.

The health and environmental risks for Di-butyl-phthalate (DBP) were tested by the EU in 1994. DBP is only used in small quantities as a plasticizer in PVC. The toxicologists found that DBP posed no health risk to consumers, even when it was smeared directly on the skin. In test-tube experiments (though not in animal experimentation) DBP showed a weak oestrogen-producing effect (‘feminizing’) and was therefore characterized as “possibly affecting fertility” and given a Category Two (“harmful to fertility”) rating. In addition, DBP was found to cause potential harm to vegetation.

In 1995, the EU tested Di(2-ethylhexyl)phthalate (DEHP) which had previously been the standard plasticizer for PVC, which had appeared in the second list of high-risk chemicals (noted above). This risk assessment has only recently been completed and has proven a tug of war between the various stakeholders. During this assessment process, a group of doctors specializing in occupational and community medicine published new research findings which suggested a completely new assessment of the legacy of DEHP in the broader population. The German Federal Institute for Risk Assessment’s (BfR) and the CSTEE’s (European Commission Scientific Committee on Toxicity, Ecotoxicity and the Environment) conclusions from this study, needed to be revised on the back of studies conducted in Erlangen on volunteers, even before the CSTEE’s published its findings.

CSTEE’s final Risk Assessment Report does not exclude the possibility that DEHP absorption could have a potential impact on occupational health. Both adults and children could theoretically suffer health damage as a result of the use of DEHP in medical apparatus. Toddlers are put at risk through sucking toys containing DEHP. On these grounds, the report supports the EU’s pronounced ban on materials and calls for strict workplace protection measures. And on the back of experiments on rats, DEHP joined DBP in being designated as “impairing fertility” and was also given a Category Two rating, and has been totally banned from use in toys.

In 1995, it was the turn of Diisononyl phthalate (DINP) and Diisodecyl phthalate (DIDP) to be assessed. Both were increasingly important standard plasticizers for PVC also placed on the EU’s second priority list. However, the risk assessment of these materials was much less controversial than that of DEHP, and the political conclusions drawn from this study seem all the more baffling as a result. The EU toxicologists have not found the slightest exposure risk for these substances – not even in their use in babies’ toys. In the case of DIDP, they only found a theoretical risk for its universal use in children’s toys. This conclusion was confirmed in April 2006 by the EU Commission in the EU’s Official Journal. The EU has nevertheless imposed a ban on the use of both plasticizers in children’s toys.

In 1997, Butylbenzyl phthalate (BBP) was assessed. This plasticizer is used in tubes, cables, artificial leather and food packaging. On the results of animal experiments, it was given a Category Two “harmful to fertility” rating. The obligatory fish test used in assessing environmental risks had to be abandoned as BBP proved to biologically degrade much more rapidly in the environment than other phthalates discussed. That these plasticizers find their way into the food chain is a myth. The opposite is the case: the concentration of these phthalates declines as organisms higher in the food pyramid break these substances down in their digestive systems and excrete them.

In order to understand the dichotomy between the scientific risk assessments and their political evaluation we have to look back once again to the 1990s. In November 1997, well before the EU completed its risk assessments, Greenpeace published the following warning:

Greenpeace has carried out random tests on 23 toys manufactured by Mattel, Fisher Price, Tyco and Safety First. In 12 of these toys, the amount of plasticizers given off exceeds the recommended limit of 3mg per cm2 surface area as set by the Federal Institute for Consumer Health Protection and Veterinary Medicine (BgVV).

The Working Group on PVC and the Environment (AgPU), in conjunction with Mattel, and three recognized independent analysis institutes, set out to refute Greenpeace’s findings. It quickly became clear that Greenpeace had not been able to measure any phthalate emissions but instead has measured the total amount of volatile organic compounds (TVOC). Greenpeace was tacitly going on the assumption that the amount of TVOC was equivalent to the phthalate emissions. It was however known that TVOC normally stems from solvent emissions. But the laboratory contracted by Greenpeace had not even set this according to the then valid measurement standards.

All three of the laboratories commissioned by AgPU and Mattel established that the amount, if any, of DEHP and DINP emissions from children’s toys was too small to be measured. It was also evident that the EU had no generally accepted method to simulate the sucking out of phthalates from babies’ toys. However, the offer by the PVC and toy industries to develop a joint verification process was met with the following reply by Greenpeace spokesperson Judit Kamthak:

„in your communication of 28 January 1998 you suggest a joint verification process. In our opinion this is not necessary and would take the discussion backwards. In addition, we do not believe that this path would corroborate Greenpeace’s migration findings.“

Not just the toy industry but also a significant section of the press shook their heads at this.

Greenpeace continued its reply with a big campaign, timed to interfere with the pre-Christmas sales period, using the slogan “no environmental poisons in our babies’ mouths”. Parental concern for their children’s wellbeing turned broader segments of the population against PVC and its additives. To this end, activists for the fundraising organization even dug up the IARC’s carcinogenic suspicions regarding phthalates made in 1982 – although these had long since been refuted.

Unfortunately, they managed to impress the health authorities of a number of EU member states and parts of the EU Commission. The Bundesanstalt für gesundheitlichen Verbraucherschutz und Veterinärmedizin (BgVV), predecessor of the German Federal Institute for Risk Assessment, warned in December 1997 against babies’ toys containing plasticizers, without concrete evidence of these exceeding the designated exposure limits. Scandinavian countries and Austria demanded an immediate ban on phthalates. In Germany, many major department stores removed toys made from soft PVC from their shelves. The following year, much of Europe introduced national bans on soft PVC in babies’ toys.

The EU Council for Consumer Protection ordered the CSTEE to establish scientifically-based limits for the Tolerable Daily Intake (TDI) for phthalates for both adults and children. The CSTEE established the NOAEL (No Observable Adverse Effect Level) for the six most often used phthalates and determined their TDI, for which they set the baseline for the safety margin at 100. For DINP, the plasticizer most often used in PVC toys, CSTEE set the TDI at 0.15 milligrams a day per kilogram of body weight. Toxicologists in the Netherlands attempted to estimate if this level could be reached by toddlers weighing 8 kg chewing and sucking on a ten cubic centimetre piece of soft PVC for three hours a day. This proved difficult; as discussed there was no EU-wide established methodology to measure plasticizer migration. The permitted safety margin between the NOAEL and the TDI was only 75 for DINP and not 100. For DEHP, which is not permitted for use in toys, it only reached 19. In April 1998, the CSTEE could not exclude the possibility that the TDI could be significantly exceeded given unfavourable circumstances (particularly active toddlers who get poor quality PVC between their teeth).

CSTEE took the view that this did not pose a serious threat. Following a proposal from the Health Ministry of the Netherlands, the committee supported tackling the issue of the compromised safety margin through introducing limits on plasticizer migration for various types of PVC. The EU States’ universally-accepted Risk Assessment Report set the safety margin at 220 and did not believe any threat was posed.

The European Parliament and the relevant EU Directorate General took quite a different view and chose to adopt the Precautionary Principle. In April 1999, the EU amended the EU Directive 76/769/EEC to include a ban on phthalates in toys for children under the age of three. The EU Committee for Product Safety decided, after fierce debate, in December 1999 (right in the midst of the pre-Christmas sales) to adopt Greenpeace’s arguments. The Committee recommended that the EU Commission impose an immediate ban, in the form of an Emergency Decree, on all toddlers’ toys containing phthalates. In line with this, the DINP, DEHP, DBP, DIDP, DNOP or BBP content has been limited to 0.1% of their weight in toys which are designed for toddlers up to the age of 36 months.

These emergency measures were limited to three months and were supposed to bridge the gap prior to appropriate amendments to the EU Directive 76/769/EEC being brought in. That there was no scientific basis for this action did not stop this Emergency Decree being renewed every three months right up to Summer 2004, a total of nineteen times. In the meantime, the EU’s Joint Research Centre (JRC) carried out a risk assessment. This established no discernible risks for either DINP or DIDP that would warrant any restrictions on their use – not even in toddlers’ toys. Only DBP came out of the study badly. But this substance is not used in toys.

In 2003, the JRC’s Institute for Health and Consumer Protection wrote:

„The end products containing DINP (clothes, building materials, toys and baby equipment) and the sources of exposure (car and public transport interiors, food and food packaging) are unlikely to pose a risk for consumers (adults, infants and newborns) following inhalation, skin contact and ingestion.“

In September 2004, the EU Council on Competition decided to go along with the Dutch proposal to ban DINP, DIDP and DNOP from all toys and objects that children under three years could put in their mouths; and to impose a total ban on the use of DEHP, DBP and BBP in toys. This was a big step up from the Commission’s original decision which was only aimed at toys such as babies’ soothers or pacifiers which are intended to be put in the mouth. Through this action, the EU Council on Competition had put one over on the European Parliament. On 6 July 2005, the proposal had the second reading in the European Parliament (five years after the first reading!). MEPs voted with an overwhelming majority in favour of the commission’s tighter proposals. If the EU Council does not stop the procedure, the new Directive will come into force in autumn 2006. Since the EU Commission itself has in the meantime, in a communication published on 11 April 2006, confirmed the conclusions that the JRC drew in 2003, it seems difficult to explain to the public why a substance classified as safe can nevertheless be mandatory excluded from certain applications.

The European Council for Plasticizers and Intermediates (ECPI) sees the decision to also include the extensively researched plasticizer DINP in the ban, a dangerous parallel in REACh (Registration, Evaluation and Authorization of Chemicals). The risk assessment for DINP, which cost the industry more than 10 million Euros, was simply ignored. ‘Intrinsic’ characteristics of these materials served as the deciding factor and assumptions were extrapolated from this, but real appraisals were not conducted. Through this, the EU Commission, either deliberately or otherwise, encouraged the blanket demonisation of an entire group of substances. And, in doing so, it encouraged those who believe that they can improve the world through outlawing all materials and production methods that do not fit in with their narrow and ultimately religious-based concept of nature.

If they don’t stop it, they’ll go blind…

As was to be expected, this ban on phthalates escalated into calls for further bans. TV and mass circulation magazines brought out sensationalist reports on the supposed health dangers of plasticizers.

In 2001, Stern magazine carried a cover story on blow up dolls and other sex toys made from soft PVC. Author Gerd Schuster put forward that those men who used these phthalate-containing products to achieve sexual satisfaction were putting their potency at risk.

The Frankfurt based Öko-Test Magazin really took the prize for running scare stories on plasticizers. Almost every month, the magazine’s editors discovered suspect phthalates in everyday objects and ran a consumer scandal story on these, often taken up by other media. In July 2002, the summer-themed headline “throwing the baby out with the bath water” threw the spotlight on children’s paddling pools. Of course, the laboratories which undertook this analysis found high concentrations of phthalates in all the brands they examined, and in some they also found organotin compounds. According to the editors, that should have been enough to put the children and their parents off playing in paddling pools.

The Vienna-based cancer researcher Professor Wilfried Bursch examined the published findings of the Öko-Test under the worst case scenario of young children drinking the paddling pool water or sucking and chewing on the sides of the paddling pool to see if these posed a serious health risk to children. Bursch came to the conclusion that reaching the current TDI limits would be highly unlikely. He reproached the Öko-Test editors with having contented themselves with the very presence of suspect substances and to not have actually considered if the amounts found actually posed a health risk. The industrial study group AgPU and the VKE German Plastics Manufacturers Association calculated that a 1 year old child weighing 10kg would have to drink at least 167 litres of pool water per day for an entire lifetime to approach the TDI level for DEHP.

In January 2003, the Federal Institute for Risk Assessment (BfR) officially confirmed this estimate. “The BfR has found that the levels of phthalates, butyltins, tributyltins and other organotin compounds contained in plastic found by Öko-Test through the normal use of paddling pools represent no health threat to small children.”

In August 2002, Öko-Test played the same game with inflatable arm bands and also plastic beach sandals (‘flip-flops’). Once again, the magazine contented itself with the presence of the substances demonized by Greenpeace, and did not attempt to ascertain at the outset whether these substances could be taken up into the human body in amounts which would give rise to concern – despite the fact that a calculation model for the take up of DEHP into the human body through skin contact had already been established in the US in 1984. Dr. Sabine Lindner of AgPU performed calculations using the American model as a basis and employing the figures published by Öko-Test in 2002. Her conclusion: “A person would need to walk around in flip flops for 15,000 hours a day in order to absorb the lifetime TDI through their skin.”

A scientific study on 20 adolescents led by Khodayar Rais-Bahrami appeared in Environmental Health Perspectives. These adolescents had been born prematurely and had been placed on respirators and fed artificially through soft PVC tubes and thus had come into contact with high doses of DEHP. This study came to the following conclusion:

„Our results imply that adolescents who have been exposed to considerable amounts of DEHP as premature babies show no discernible influences on their growth rate and sexual maturity as a result of this exposure. (…) Their male and female sexual functions showed no deviation from the norm.“

A study by the University of Rochester, also published in Environmental Health Perspectives (May 2005), claimed that there was a clear link between the concentration of plasticizer-metabolites in the urine of 85 pregnant women one (possible) predictor of later male infertility noted in their male offspring. However, these metabolites did not include those for DEHP, and the Statistical Assessment Service (STATS) at George Mason University in Washington DC found serious flaws in the research methodology and the statistical analysis of University of Rochester’s findings.

Disempowering the consumer

The refusal to recognize that almost nothing in this world is gained for free has taken widespread hold of the EU powers-that-be in their interpretation of the Precautionary Principle. They have interpreted the Precautionary Principle similarly to the universally adopted “Rio Declaration” made at the end of the UN Conference on Environment and Development in 1992. This is the source of oft quoted “Where there are threats of serious and irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation.”

This is surely going too far. Even the old proverb “an ounce of prevention is worth a pound of cure” implies curbs on preventive measures: the seventeenth ounce of prevention will be a wasted effort. This prevention-cure calculation becomes even more difficult when, as is often the case in science, the costs of the cure are far from certain. Taken to extremes, Rio’s Precautionary Principle would condemn us to inertia in order to avoid all risks. Indeed, shortly before the Rio Summit numerous Nobel Prize winners warned in the ‘Heidelberg Appeal’ against a surge in irrationalism.

Above all, environmental and other groups wanted the application of the Precautionary Principle to not only be limited to cases where full scientific certainty regarding environmental threats had not been established, but to have the Principle used in a way that would reverse the burden of proof. The 1992 UN report did not establish just how serious a threat needs to be in order to justify draconian measures. Suspicion alone counted in principle as sufficient reason to justify costly precautionary measures or production bans. Using that logic, chocolate would need to be banned – any competent chemist could combine chocolate with everyday ingredients to manufacture dangerous explosives.

As a reaction to this illogic, the EU Commission issued a paper in 2000 indicating that the Precautionary Principle should not be involved in risk assessment, but rather should play a part in the decision-making processes for risk management. The Principle should not be subverted either through vague suspicions, or through capricious misrepresentations with protectionist ulterior motives.

But the Commission could not establish in which cases the Precautionary Principle should be applied and in which it should not. The Commission’s papers said simply:

„An assessment of the potential consequences of inaction and of the uncertainties of the scientific evaluation should be considered by decision-makers when determining whether to trigger action based on the Precautionary Principle.“

Taken to extremes, the Precautionary Principle contradicts the age old insight that all human behavioural choices imply an element of risk and incur costs. Therefore the good needs to be weighed up against the bad. If an individual, a company, or the state decides against particular actions on the grounds of caution, or chooses to prohibit such actions, that does not mean that in doing so they are reducing the risks and the costs. Taking any particular risk out of an equation necessarily means accepting another one; someone who decides to stay home for fear of having an accident on the way to work has decided to accept the risk losing his job. A person who tries to avoid all risk will wrap themselves in a cocoon, and miss out on life altogether.

The lesser evil is most often evident only in hindsight. Whether or not someone agrees with (or likes), the idea, the fact remains that the discovery process is affected by market forces – i.e. we need to include market forces in our approach, even if we find the idea abhorrent. This does not, however, mean that we must, or indeed should, remove the Golden Rule from our decision making processes.

Risk assessments cannot be divorced from prevailing cultural, socio- economic and political contexts: your attitude to risk will depend on whether you are a man or a woman, young or old, living in poverty or extremely wealthy, an individualist or a collectivist. However, even with these caveats, the weighing up of good and bad consequences leads to an assessment according to clear criteria. By comparison, the strategy of minimizing evils is not based on rational thinking.

Should the EU Commission’s decision regarding the ban on the use of plasticizers in babies’ toys, which largely disregards both scientific fact and reason, become the accepted principle behind new legislation, then the EU would undoubtedly shift further towards the behaviour of an authoritarian state – where scientific research and findings are overruled by political pressure.

Fortunately, the Treaty of Maastricht already requires that all EU Directives are subjected to a comprehensible cost/benefit analysis to establish whether they are commensurate with the underlying legal principles. This was reinforced in February 2000, when, in order to avoid market intrusions prompted by arbitrary suspicions and the bad-mouthing of products and materials, the European Commission stated that employing the Precautionary Principle would always require a sound scientific risk assessment.

In 2001, the EU published a White Paper which set out the blueprint for a new Chemicals Policy. Among other things, the White Paper decided to call a halt to the separate treatment for Old and New substances. The Paper also examined their unprecedented regulations project REACh (Registration, Evaluation and Authorization of Chemicals), which applies to millions of substance applications and tried to determine, on a cost/benefit basis, whether REACh was actually justified.

The EU Commission ordered a study by the London-based consultancy Risk and Policy Analysts, which predicted that REACh would cost between 1.7 and 7 billion Euros in the first eleven years of its introduction, but that the EU stood to gain a possible cost saving (following the expected fall in occupation-related cancers) of up to 54 billion Euros over the next 30 years. However, these figures appear to be plucked from thin air, as around 80% of all occupation-related cancers in the EU stem from the asbestos legacy. This example shows the importance to effective risk management of input from occupational health specialists and other experts.

The position of the Green lobby appears to be that political application of the Precautionary Principle and the aims of sustainable development are core drivers for new innovations. But how do they know which materials are inherently safe and which have a lasting impact on the environment … when even water can be deadly under certain circumstances? Do the Greens and their political friends consider themselves better able to judge what will prove itself on the open market than market participants themselves? The Greens seem perfectly happy with the authoritarian undercurrents inherent in their position.

Unfortunately, some people cling to the erroneous belief that the expansion of knowledge implies that there is an end – a point where society has attained ‘ultimate knowledge’. This is not the case. The accumulation of knowledge can even lead to total confusion.

However important science may be as a reconnaissance and early warning system for society, the most important source of information in a market economy is not science but the market itself. This information is not transferred without cost, but rather set against the cost of the risks undertaken. Both PVC and tested plasticizers have not proven themselves to be harmful, while their attractive cost / price ratio means they have won in a fiercely competitive market. Millions of consumers who, on the basis of sound human reason freely weigh up costs and benefits, could scarcely be wrong. Clearly, putting pressure on the market by pushing forward alternative materials on the back of product bans or market subsidies constitutes a clear case of consumer disempowerment.

The average consumer from the silent majority does not need such incentives or help with decision-making in an open marketplace. This is demonstrated by the fact that in open competition PVC has easily won through on a number of sustainability criteria such as durability, energy and resources efficiency according to 21 key indicators of the German National Environmental Sustainability Plan set out in 2002. (This is far from my endorsement of this plan; as this cannot be sustainable as long as it fails to include, except for liberalization of international trade barriers, any further moves towards the development of economic freedom.)

Future perspectives

When discussing innovations through the filter of sustainable development, we need to ask if there are any sound reasons not to use proven products. As we have already indicated, innovation cannot be a goal in and of itself. In evolution in the natural world, attributes that have proven useful are not abandoned unless dictated by need; there are many cases of survival features that have remained unaltered over millions of years existing alongside far more recent developments. This is true not least of the genetic code which has been maintained virtually unchanged over the course of evolution from the simplest micro-organisms right up to the most highly developed land plants and mammals.

Today there are many interesting alternatives to phthalate plasticizers such as adipines and alkyl sulfonic acid. These materials are already often mixed with phthalates used in various products, as they improve specific qualities such as flame retardation, or flexibility at cold temperatures. But these substances do not necessarily present fewer problems than phthalates. A few of these such as chlorinated paraffins are even poisonous or carcinogenic. For example, DEHA, used in food packaging and regarded as harmless, has been replaced by some adipates which demonstrate a higher degree of volatility and migration. Similarly, citric acid esters and their derivatives have been increasingly used in toys and food packaging, despite the disadvantages of their higher price and lower microbial resistance.

The plastics industry currently has great hopes for Di-isononyl-cyclohexan-1.2-dicarboxylat (DINCH) a substance developed through computer modelling by BASF in co-operation with customers from other industries. This substance is somewhat more expensive than DEHP, and it can also be almost seamlessly substituted for DEHP without the need to rebuild production plants. DINCH also does not include any of the aromatic hydrocarbons defined as suspect by toxicologists so we can expect it to have a much more benign toxicological profile. BASF has confirmed this in a far reaching programme of tests. These tests indicate that DINCH does not affect the development of sexual organs or fertility, nor does it harm the environment. DINCH has a rate of migration which is 8 times lower than that of DEHP, although it has disadvantages such as higher volatility.

The quest for innovation or substitution in the case of these alternative plasticizers cannot be pursued without consideration of the costs, as we would end up substituting the proven with the unproven through ideologically driven wishful thinking. Society needs to pursue fulfilment of consumer demands in a way that balances benefits against the costs to the economy, the environment, and to health.

Our proven sound basis for rational decision-making would clearly be lost if materials or indeed entire product lines and production methods were to be condemned lock, stock and barrel without a rational cost / benefit analysis.

The history of technology shows us that we can seldom regard any solution to a problem as permanent; legs were complemented by horses, then wheels, then rail. It goes without saying that “good will be superseded by better” in the case of plasticizers. Already it has been demonstrated that in the near future the manufacture of not only hard PVCs but a very broad range of soft PVCs will be possible without the use of special plasticizers.

The American research company Teknor Apex has succeeded in manufacturing polyolefin elastomers. These compounds can be used to make highly elastic and soft PVC manufactured parts without the addition of plasticizers, but are 80% more expensive. Their use will initially be limited medical or specialized technical applications, where the use of plasticizers is a disadvantage and cost is not the deciding factor. Should it become possible to manufacture these compounds more cheaply, then they could take over in a number of markets. However, there is no reason for the artificial acceleration of their market introduction as long as they prove themselves sufficiently against market competition. In short: Current standard plasticizers will probably be replaced one day. What is important is that they are replaced by something really better and not by something declared political correct before being tested by the competition between different solutions on the market.

Conventional plasticizers could also see possible competition from nanotechnology. Nanotechnology has already proved itself in number of cases as a cost-effective physics-based replacement to existing chemical solutions. It is not inconceivable that nanotechnology could soon provide original proposals to solve the problem of plasticizers that we could scarcely dream of today. The name “nanotechnology” also highlights the fact that new solutions to problems could also carry new risks, as nanotechnology is already primarily regarded in the media as “the technology of risk”. No such intelligent technology would free humans from the torment of choice – the weighing up of relative evils.

(Translated by Amanda Oliver, London)

Ist „Bio“ wirklich besser?

Alex A. Avery: Die Wahrheit über Bio-Lebensmittel. Verlag Thuss & van Riesen, Jena 2008. € 24,50. ISBN 978-3-940431-01-1

Die Wahrheit über Bio-Lebensmittel.: Alex AveryBio-Lebensmittel sind „in“. Selbst bei großen Discounter-Ketten wie „Lidl“ oder „ALDI“ gibt es inzwischen ein reichhaltiges Sortiment an Obst und Gemüse aus ökologischem Anbau. Bei Früchten wie Bananen oder Zitronen haben die Kunden oft gar keine andere Wahl mehr, als zu deutlich teurer Öko-Ware zu greifen. Solange man für sein Geld eine überzeugende Qualität bekommt, ist das kein grundsätzliches Problem. Sind Bio-Produkte aber im Hinblick auf den Geschmack, den Nährwert und ihren Gehalt an Giftrückständen wirklich durchgängig besser? Dieser Frage geht der US-Biochemiker Alex A. Avery in einem gut dokumentierten Sachbuch nach, das in den USA zum Bestseller wurde. Der Jenaer Kleinverlag Thuss & van Riesen hat das Buch jetzt ins Deutsche übersetzen lassen. Das lag insofern nahe, als darin auch die Wurzeln und die Praxis des Öko-Landbaus in deutschsprachigen Ländern eine bedeutende Rolle spielen. Dabei wurden leider einige Flüchtigkeitsfehler übersehen. Weiterlesen

Kein Treibhaus ohne Dach

Hartmut Bachmann: Die Lüge der Klima-Katastrophe. Frieling-Verlag, Berlin 2007. 254 Seiten. EUR 17,80. ISBN 978-3-8280-2521-9 (erschienen in: eifrei 76/Oktober 2007)

Die Lüge der Klimakatastrophe. Das gigantischste Betrugswerk der Neuzeit. Manipulierte Angst als Mittel zur MachtHartmut Bachmann, Jahrgang 1924, weiß als ehemaliger Flugzeug-Pilot und Skipper offenbar mehr über Wetter und Klima als viele der vom Staat bzw. von den Steuerbürgern bezahlten Wissenschaftler, die ihre Computerspielereien als „Klimaforschung“ ausgeben. Als Unternehmer in den USA hat er selbst erlebt, wie die New Yorker Schickeria die Angst vor einer „Klimakatastrophe“ als Chance für das große Geschäft mit dem Ablasshandel entdeckte. Dabei überschreitet Bachmann leider die Grenze zur Verschwörungstheorie. Die UNO und ihr Klimarat IPCC ein Instrument des US-Imperiums? (Schön wär’s!) Da bedarf es wohl einiger Differenzierung, um die heftigen Auseinandersetzungen um ein Folgeabkommen zum Kioto-Protokoll von 1997 zu verstehen. Gut nachvollziehbar ist hingegen, wie Bachmann darlegt, dass es einen „Treibhauseffekt“ der Erdatmosphäre, wie er in Europa inzwischen schon Kindern im Vorschulalter eingepaukt wird, nicht geben kann: Der Atmosphäre fehlt schlicht ein Deckel, der die Wärme vom Entweichen in den kalten Weltraum abhält. Bachmann sieht in den Wissenschaftlern und Regierungsvertretern, die im IPCC den Ton angeben, Sektierer, die es nur mithilfe geschickter Medienmanipulation durch Machwerke wie Al Gors Dia-Show „Eine unbequeme Wahrheit“ oder abenteuerliche Hochrechnungen der Kosten des Klimawandels im Report des ehemaligen Weltbank-Präsidenten Sir Nicholas Stern schaffen, ihre absonderliche Weltsicht zur herrschenden Meinung zu machen. Unter den Tisch fällt dabei die Frage, welcher mögliche Nutzen den Kosten in Billionenhöhe gegenübersteht. Weiterlesen

Es wird langsam kühler

Es wird immer deutlicher, dass die befürchtete Abkühlung der Erde, eine so genannte Kleine Eiszeit, schon begonnen hat. Kaltlufteinbrüche mit Schneefällen in Nordamerika, Asien und Europa lange nach Beginn der meteorologischen Sommerzeit haben in letzter Zeit zu beträchtlichen Ernteausfällen geführt und verschärfen die wegen der Finanzkrise ohnehin schon prekäre Ernährungssituation in armen Ländern.

Abkühlung lässt Agrarerträge sinken

Es lässt sich nicht mehr leugnen, dass die globale Erwärmung der Vergangenheit angehört. Seit der Jahrtausendwende wird es auf der Erde wieder langsam kühler. Kann mann über die Aussagekraft von Messungen der Bodentemperaturen noch streiten, so liefert die Entwicklung der landwirtschaftlichen Erträge ein unmissverständliches Bild. Der britische Kollege Christopher Booker hat im „Sunday Telegraph“ vom 14. Juni 2009 einen guten Überblick über witterungsbedingte Ernteausfälle in Nordamerika und in Asien zusammengestellt, der nur den Schluss zulässt, dass Klimawandel konkret Abkühlung heißt. Dazu passt auch die bei SPIEGELonline mit Verwunderung aufgenommene Nachricht, ein bedeutender argetinischer Gletscher dehne sich wieder aus. In einem schon vor über zwei Jahren erschienenen Artikel habe ich versucht zu erklären, was hinter den Wetterkapriolen steckt.

Was ist bloß mit dem Wetter los?

Von Edgar Gärtner*)

Man darf sich in Deutschland offenbar über gar nichts mehr freuen. Nicht einmal über die ermäßigte Heizkostenrechnung, die uns der erstaunlich milde Winter 2006/2007 beschert hat. Die deutschen Massenmedien haben die Veröffentlichung der (politischen!) Zusammenfassung des 4. Berichts des zwischenstaatlichen Klimarates IPCC Anfang Februar 2007 zum Anlass genommen, wie auf Kommando in einem Akt der Selbstgleichschaltung einander mit apokalyptischen Prophezeiungen, hysterischen Warnungen vor hypothetischen Gefahren und Bußpredigten zu überbieten.

Was will etwa der FOCUS-Titel „Die Erde im Klimaschock“ (Nr. 9/2007) sagen, wenn man voraussetzt, dass die World Meteorological Organisation (WMO) „Klima“ als 30-jährigen Mittelwert der Wetterabweichungen einer gegebenen Region vom Wetter anderer Regionen definiert? Ist nun der Mittelwert ein Schock oder wird er geschockt? Oder was bedeutet der Spruch „Die Klimakatastrophe ist eine Tatsache“ Anfang Februar 2007 im ZDF-heute-journal? Angesichts der geologischen Erkenntnis, dass lebensfeindliche Eiszeiten in der aktuellen Phase der Erdgeschichte mehr als zehnmal wahrscheinlicher eintreten als Warmzeiten, könnte das ja nur bedeuten, dass kilometerdicke Eisschilde bereits bis nach Hamburg oder Berlin vorgedrungen sind. Das war aber offenbar nicht gemeint. Vielmehr möchte man den Adressaten der GEZ-finanzierten Propaganda weismachen, die in den letzten 100 Jahren registrierte leichte Erhöhung der Durchschnittstemperatur über den Landmassen der Erde von 0,74 Grad Celsius sei die Katastrophe. Dabei müssten alle, die sich ein Körnchen gesunden Menschenverstand bewahrt haben, hoffen und/oder beten, die Erwärmung möge noch möglichst lange weitergehen. Ein Gemeinwesen, in dem sich eine solche semantische Umweltverschmutzung ausbreiten kann, ist dem Untergang geweiht!

Genau besehen, ist der jüngste IPCC-Bericht übrigens weniger alarmistisch als sein Vorgänger von 2001. Doch wie viele von den lieben Journalisten-Kollegen, die ihre wichtigste Aufgabe darin sehen, den Menschen Angst einzujagen und Opferbereitschaft zu predigen, haben die 13 Seiten Text und 7 Seiten Grafiken des „Summary for Policymakers“ überhaupt studiert? Jedenfalls dürfte es ihnen nicht leicht fallen, den dort projizierten möglichen Anstieg der Durchschnittstemperatur um 2 bis 4,5 Grad Celsius bis zum Jahr 2100 und den damit vermutlich einhergehenden Anstieg des Meeresspiegels um wenige Dezimeter als Katastrophe zu verkaufen.

Was verbirgt sich also hinter dem Schlagwort „Klimawandel“? Gab es in den letzten Jahrzehnten überhaupt einschneidende Veränderungen im Wettergeschehen? Wurden nicht vielmehr natürliche Schwankungen, maßlos übertreibend, zu Vorboten eines „Umkippens“ des herkömmlichen „Klima-Systems“ umgedeutet? Gab es aber dennoch in den letzten Jahrzehnten, wie ich selbst glaube, signifikante Veränderungen im Wetterablauf, wie lassen diese sich dann erklären? Zuerst eine für manche etwas enttäuschende Antwort: Was sich genau hinter den seit den 70er Jahren beobachtbaren auffälligen Veränderungen in der atmosphärischen Zirkulation verbirgt, wissen wir noch nicht. Als sicher kann hingegen gelten, dass die der „Klimapolitik“ zugrunde liegende „offizielle“ Erklärung, die dem bei der Verbrennung fossiler Energieträger (Kohle, Erdöl und Erdgas) entstehenden Kohlendioxid (CO2) und damit uns Menschen die Hauptverantwortung zuspricht, unhaltbar ist. Denn diese stützt sich ausschließlich auf numerische (nicht analytische!) Computersimulationen, deren Übertragbarkeit in die Realität höchst zweifelhaft ist.

Für Atmosphärenforscher verschiedener Disziplin ist CO2 ein Spurengas, weil es gegenüber den Hauptbestandteilen der Gashülle der Erde (78 Prozent Stickstoff und 21 Prozent Sauerstoff) nur etwa einen Teil von 3000 ausmacht. Neben CO2 gibt es noch eine Reihe weiterer Spurengase, darunter extrem reaktionsträge Edelgase und vor allem gasförmiges Wasser (Wasserdampf) in sehr stark schwankender Konzentration. Nicht von ungefähr bezeichnen Ökologen die Erde als „Wasserplanet“. Etwa 71 Prozent ihrer Oberfläche sind von kilometertiefen Ozeanen mit Salzwasser bedeckt. Dieses absorbiert und speichert einen großen Teil der bei klarem Himmel eintreffenden Sonnenwärme. Bereits die oberen drei Meter der Meere enthalten mehr Wärme als die ganze Atmosphäre. Schon allein die Existenz dieses riesigen Wärmespeichers kann, neben der sehr viel schnelleren Rotationsgeschwindigkeit und des damit verbundenen Wechsels von Tag und Nacht, die unterschiedlichen Temperaturverhältnisse auf der Erde und ihrem Trabanten, dem Mond, zu einem beträchtlichen Teil erklären.

Aber auch das bei der Aufheizung der Meere durch Verdunstung in die Lufthülle gelangende, dann zu Wolken kondensierende und als Regen oder Schnee auf die Landmassen fallende Süßwasser ist ein Klimafaktor ersten Ranges und bekanntlich auch in anderer Hinsicht lebenswichtig. Der Kreislauf des Wassers ist der mit Abstand wichtigste Stoffkreislauf auf der Erde. An zweiter Stelle steht der Sauerstoff-Kreislauf. Und erst an dritter Stelle folgt der Kreislauf des Kohlenstoffs, bei dem das Kohlendioxid Ausgangs- und Endpunkt zugleich darstellt. Denn CO2, obwohl in der Luft nur in Spuren vorhanden, bildet die Grundlage für den Aufbau organischer Substanz (Biomasse) durch die pflanzliche Photosynthese. Dabei erweist sich die aktuelle atmosphärische CO2-Konzentration als deutlich unteroptimal, denn eine künstliche Anreicherung dieses Gases in Gewächshäusern führt zu einer deutlichen Steigerung der Photosyntheserate und damit der Rentabilität der Pflanzenzucht.

Kohlendioxid und Wasser haben als dreiatomige Moleküle Eigenschaften, die sich von denen der zweiatomigen Hauptbestandteile der Luft (Stickstoff und Sauerstoff) unterscheiden. Beide werden durch die vom aufgeheizten Erdboden in Form von Infrarotstrahlen (IR) reflektierte Sonnenenergie für winzige Bruchteile von Sekunden zu Schwingungen angeregt. Es ist aber noch längst nicht ausgemacht, ob diese Anregung zu einer zusätzlichen Aufheizung des Bodens durch Rückstrahlung („Treibhauseffekt“) oder nicht im Gegenteil zu einer Abkühlung durch eine Beschleunigung des Wärmetransports ins kalte Weltall führt. Da es in den feuchten Tropen tagsüber längst nicht so heiß wird wie in den trockenen Subtropen, scheint der kühlende Effekt des Wasserdampfes zu überwiegen. Experimentell lässt sich diese Frage aber nicht klären.

Immerhin zeigten spektroskopische Messungen schon in der ersten Hälfte des 20. Jahrhunderts, dass der mögliche Einfluss von CO2 auf das Verhalten der Atmosphäre gegenüber dem Einfluss des Wassers vernachlässigbar gering sein muss. Denn die IR-Absorptionsspektren beider Gase überlappen sich sehr stark. Es gibt ein „Fenster“, durch das Wärmeenergie ungehindert in den Weltraum entweichen kann, weil in diesem Spektralbereich keines der Spurengase IR-Strahlen absorbiert. Die außerhalb des „Fensters“ einzige vom Wasser noch frei gelassene Absorptionsbande (bei 15 Mikrometer Wellenlänge) war – nach spektroskopischen Messungen, die der Wiesbadener Chemiker Heinz Hug durchgeführt hat – schon bei einer CO2-Konzentration von 280 ppm, die als „vorindustrielles Niveau“ angenommen wird, weitgehend gesättigt. Nur in Randbereichen des Absorptionsspektrums der Atmosphäre könnte zusätzliches CO2 überhaupt noch etwas ausrichten. Konkret heißt das: Fast alles, was durch die Menschen zusätzlich in die Luft geblasenes CO2 theoretisch in der Atmosphäre anrichten könnte, wurde schon von H2O getan, das dort (in schwankenden Konzentrationen) ohnehin vorhanden ist. Deshalb hat das „Compendium of Meteorology“ der US Meteorological Society schon 1951 festgestellt, die 1896 vom schwedischen Chemiker Swante Arrhenius (als Erklärung für die Eiszeiten!) formulierte Hypothese eines steuernden Einflusses von CO2 auf die Durchschnittstemperatur der Erde könne ad acta gelegt werden.

An diesem Wissensstand hat sich seither nicht viel geändert. Um die CO2-Treibhaus-Hypothese zu retten, brachte der US-Ozeanograf Roger Revelle, der später zum Mentor des Öko-Kreuzzüglers Al Gore wurde, die Hypothese einer Verstärkung der geringen Wirkung von CO2 durch den Wasserdampf in die Diskussion. Auf dieser „positiven Rückkoppelung“ beruhen heute alle numerischen Simulationsmodelle, mit deren Hilfe Großrechner die Entwicklung der Klimaentwicklung in den nächsten hundert Jahren simulieren sollen. Bei diesen Modellen handelt es sich also in Wirklichkeit um Wasserdampfmodelle, was dem Publikum der Massenmedien meist nicht bekannt ist. Da Wasserdampf aber auch im Gegenteil (vor allem über die Kondensation zu Wolken) eine negative Rückkoppelung bewirken kann, ist diese Einseitigkeit kaum nachvollziehbar. Sie beruht, wie leicht demonstriert werden kann, auf einer mehr oder weniger bewussten politisch-religiösen Vorentscheidung: Nur Modellierer, die dem Zeitgeist folgend, von vornherein davon überzeugt sind, dass die Menschen die Hauptschuld am Klimawandel tragen, werden nichts dabei finden, die mögliche kühlende Wirkung des Wasserdampfes zu vernachlässigen, wenn nicht zu unterschlagen.

Ein weiteres grundsätzliches Manko der „Klimamodelle“, die den IPCC-Berichten zugrunde liegen, ist die nahezu vollständige Verdrängung des realen Wettergeschehens durch die Betrachtung von Korrelationen zwischen Mittelwerten von Wetterdaten und anderen Konstrukten. Aber wie aussagekräftig sind Mittelwerte aus Messdaten, die in Wetterstationen aufgezeichnet werden, die z. T. einige Tausend Kilometer voneinander entfernt liegen? Die Antwort liegt auf der Hand. Tatsächlich verbergen sich hinter dem errechneten (nicht gemessenen!) durchschnittlichen Temperaturanstieg der vergangenen 100 Jahre gegenläufige Entwicklungen, die vermutlich nicht auf eine einzige Ursache, den CO2-Anstieg, zurück geführt werden können. So ist die globale Durchschnittstemperatur der Erde zwischen 1940 und 1975, trotz einer in dieser Zeit weiter gehenden CO2-Zunahme, wieder gesunken und erst in den letzten Jahrzehnten wieder angestiegen.

Dabei gab es auffällige regionale Unterschiede. Die Südhalbkugel ist daran überhaupt nicht beteiligt. Und auf der Nordhalbkugel gibt es vor allem in Polnähe extrem gegenläufige Tendenzen. Das wurde erst in den 90er Jahren bekannt, weil Amerikaner und Russen die Temperatur- und Niederschlags-Messwerte der Arktis während des Kalten Krieges aus militärischen Gründen geheim hielten. So wissen wir erst seit wenigen Jahren, dass die Luft in der Nachkriegszeit nördlich von Norwegen und Alaska in mittlerer Höhe über dem Meeresspiegel im Schnitt deutlich wärmer geworden ist. Damit hängt offenbar die z. T. spektakuläre Schrumpfung des Packeises in diesen Gebieten zusammen. Das Arctic Council (ACIA), eine Art Untergliederung des IPCC, hat daraus im Jahre 2004 geschlossen, bis zum Ende des Jahrhunderts werde die Arktis im Sommer vollkommen eisfrei sein. Doch diese primitive Hochrechnung ist unbegründet, weil größere Teile der Arktis (insbesondere über Ostsibirien sowie Ostkanada und Nord-Grönland) im gleichen Zeitraum in Bodennähe deutlich kälter geworden sind. Im Großen und Ganzen hat sich die Arktis seit 1950 stetig abgekühlt. Das mussten vor kurzem zwei tapfere Frauen (Ann Bancroft und Liv Arnesen) zur Kenntnis nehmen, die in der Absicht, die Welt vor der globalen Erwärmung zu warnen, mitten im Winter zu einer Nordpol-Expedition aufgebrochen waren. Sie mussten ihr Unterfangen aber abbrechen, weil bei Temperaturen von bis zu minus 100 Grad Fahrenheit (-73°C) die Batterien ihres Equipment den Geist aufgaben.

Von den über dem größten Teil der Arktis liegenden Kaltluft-Seen lösen sich, wie Aufnahmen von Wettersatelliten seit dem Ende der 70er Jahre zeigen, in den letzten Jahrzehnten immer häufiger flache Kaltluftlinsen mit hohem Druck. Diese ziehen auf charakteristischen Bahnen Richtung Süden, weil sie Gebirgszüge von über 1000 Metern Höhe nicht überqueren können. Das bekommen vor allem die Nordamerikaner zu spüren, die auch in diesem Winter bis ins Frühjahr hinein wieder von einer Kältewelle nach der anderen heimgesucht wurden. Zur gleichen Zeit konnten sich die Westeuropäer über deutlich sinkende Heizkosten freuen, mussten dafür aber größtenteils Schmuddelwetter in Kauf nehmen, das von häufigen feucht-milden Südwestwinden herangetragen wurde. Bei diesen Winden, die entlang der norwegischen Berge bis in die Arktis vorstoßen können, handelt es sich, wie Satelliten-Aufnahmen zeigen, eindeutig um Warmluft, die durch die auf der Ostseite des Atlantik gen Süden ziehenden Kältehochs verdrängt wurde. Das Gleiche spielt sich über dem Pazifik ab. Die dort von sibirischen und mongolischen Kältehochs verdrängte Warmluft strömt auf amerikanischer Seite entlang der Rockies nach Alaska.

Das alles kann man, wie angedeutet, auf den immer besser aufgelösten und präzise datierten Satellitenaufnahmen anhand charakteristischer Wolkenbilder beinahe lückenlos verfolgen. Leider sieht man diese schönen (und obendrein kostenlos verfügbaren) Bilder in unseren TV- und Printmedien immer seltener. Warum wohl? Die öffentlich-rechtlichen Fernsehkanäle zeigen ihrem Publikum stattdessen Isobaren-Karten, mit denen Laien kaum etwas anzufangen wissen. Die meisten Tageszeitungen sind nicht viel besser. Die FAZ zeigt immerhin noch in Tiefblau die wandernden Kaltluftmassen. Die einzige mir bekannte deutschsprachige Tageszeitung, die ihre Wetterseite bis vor kurzem jeden Tag mit einen aussagekräftigen Satellitenfoto aufmachte, ist die NZZ. Dort wurden diese aber meist mit eigenartigen Kommentaren versehen. Oft fand sich darin kein Hinweis auf durchaus nicht unauffällige Kältehochs, die von der Grönlandsee herunter ziehen. Stattdessen stehen Tiefdruckwirbel im Vordergrund, die sich mithilfe der Erdrotation bilden, wenn Warmluft der anrückenden Kaltluft durch Aufsteigen ausweicht. Die Wetterfrösche erwecken den Eindruck, nicht die von der Arktis Richtung Äquator ziehenden Hochs, sondern Tiefs seien die Motoren der atmosphärischen Zirkulation.

Nach Ansicht des inzwischen leider zu früh verstorbenen französischen Meteorologen und Klimatologen Marcel Leroux ist diese Fehlinterpretation die Folge des sturen Festhaltens der staatlichen Wetterdienste an Theorien der atmosphärischen Zirkulation aus der ersten Hälfte des vorigen Jahrhunderts. Danach befindet sich der Motor der globalen Wettermaschine im Tropengürtel der Erde, d.h. in einem Tiefdruckband, auch meteorologischer Äquator genannt, das sich infolge des Aufsteigens feucht-warmer Luftmassen bildet. Die aufgestiegene Luft regnet und kühlt sich in Tropengewittern ab und sinkt in den so genannten Rossbreiten, abgelenkt durch die Erdrotation, als trockener Fallwind (Passat) wieder zu Boden. Diese Dynamik soll auch das Wettergeschehen in der gemäßigten Westwindzone stark prägen.

Marcel Leroux konnte schon in seiner Habilitationsschrift („Thèse d’état“) zeigen, dass diese Vorstellung nicht haltbar ist. Als Sohn eines bretonischen Marineoffiziers in Nordafrika aufgewachsen, absolvierte er seinen gesamten wissenschaftlichen Werdegang im tropischen Afrika. Für seine „Thèse d’état“ reiste Leroux ein Jahrzehnt lang kreuz und quer durch den schwarzen Kontinent, um alle verfügbaren historischen Wetterdaten (meist von Kolonialverwaltungen) zusammenzutragen und auszuwerten. Das Ergebnis war ein zweibändiger Klima-Atlas des tropischen Afrika, der 1983 von der WMO in Genf publiziert wurde und, da 2001 auf Englisch neu aufgelegt und um eine CD ROM ergänzt, noch heute als alternativloses Standardwerk gilt. Bei der Datenauswertung fiel Leroux auf, dass der meteorologische Äquator keine stabile Lage hat. Vielmehr wird er relativ oft von starken, je nach Jahreszeit von der Arktis oder der Antarktis heranrückenden Hochdruckgebieten nach Süden oder Norden verschoben. Leroux deutet u. a. die Trockenheit der Sahel-Zone als Folge einer solchen Verschiebung. Der Tropengürtel spielt nach diesem Befund also eher eine passive als eine aktive Rolle in der globalen Luftzirkulation.

Als Professor an der Universität Jean Moulin in Lyon konnte Leroux später durch die Auswertung einer Vielzahl von Satellitenfotos zeigen, dass die Motoren der Wettermaschine tatsächlich an den Polen und nicht am Äquator zu finden sind. Er konnte anhand dieser Bilder und durch den Vergleich von Wetterdaten zeigen, dass sich die (diskontinuierliche) atmosphärische Zirkulation auf der Nordhalbkugel seit den 70er Jahren deutlich beschleunigt hat. Das Wetter wechselt häufiger als früher, weil sich ein Hoch nach dem andern, immer begleitet von Tiefdruckwirbeln, nach Süden bewegt. Mitunter kommt es aber doch zu sehr stabilen Wetterlagen, wenn sich etliche kleinere Hochs zu einem Riesenhoch zusammenballen. Auf diese Weise entsteht das bekannte „Azorenhoch“ über dem Atlantik. Es handelt sich dabei aber nicht um eine autonome Wesenheit, sondern um eine statistische Größe, die nur die hohe Wahrscheinlichkeit anzeigt, mit der sich von der Labradorsee oder vom Europäischen Nordmeer herunter ziehende Kältehochs (Leroux und seine Schüler nennen sie „Mobile Polar Highs“, MPH) in diesem Gebiet vereinigen. Das gleiche gilt für die Bezeichnung „Island-Tief“, die nur andeutet, dass die vom Vordringen der MPH erzeugten Tiefdruckwirbel oft dorthin ziehen.

In den letzten Jahrzehnten sind nach Leroux’ Statistik die MPH nicht nur häufiger geworden. Gleichzeitig stieg auch ihr durchschnittlicher Druck. Und sie drangen immer weiter nach Süden vor, während die sie begleitenden Tiefdruckwirbel immer weiter nach Norden gelangten. Über die Tiefdruckrinne am Vorderrand der Hochs kann so warme Luft nicht nur aus den Subtropen, sondern sogar aus den Tropen bis in die Arktis gelangen. Auf der Südhemisphäre ist übrigens Ähnliches zu beobachten. Dort wird Warmluft von der Andenkette direkt auf die antarktische Halbinsel gelenkt. Dort schmilzt das Eis, während sich der antarktische Kontinent, im Ganzen genommen, weiter abkühlt. An der (geringen) Veränderung der Durchschnittstemperatur lässt sich diese Dynamik überhaupt nicht ablesen.

Die gelegentlichen Hitzewellen, die in den letzten Jahren in Westeuropa auftraten, wurden übrigens immer von Kaltlufteinbrüchen verursacht. Mehrere MPH stauten sich an der Alpenbarriere und ihre Luftmassen heizten sich dann infolge der starken sommerlichen Sonneneinstrahlung an Ort und Stelle auf. Das kann man gut in diesem sonnigen Frühjahr beobachten: Immer sind es Kaltlufteinbrüche, die bei uns für schönes Wetter sorgen. Häufigere Kaltlufteinbrüche könnten auch erklären, warum die durchschnittliche Oberflächentemperatur der Ozeane in den letzten Jahren nicht gestiegen, sondern nach Lyman und Mitarbeitern wahrscheinlich sogar leicht gesunken ist. Die Bestätigung dieses Trends steht freilich noch aus.

Leroux ist deshalb der Meinung, hinter der in einem Teil der Welt registrierten Erwärmung verberge sich in Wirklichkeit ein Abkühlungsprozess. Die beschriebene Beschleunigung der atmosphärischen Zirkulation sei ein Vorzeichen des langsamen Heranrückens der nächsten Eiszeit. Denn Geologen wissen, dass die globale Wettermaschine in der jüngeren Erdgeschichte zwischen zwei Gangarten, einer schnellen und einer langsamen, hin und her gependelt ist. Dabei blieben die langsamen, mit einer Erwärmung verbundenen Phasen eher Ausnahmesituationen. Die mit einer Abkühlung verbundenen schnellen Phasen währten etwa zehnmal länger.

Es kann ausgeschlossen werden, dass der CO2-Gehalt der Luft für dieses Auf und Ab direkt oder indirekt verantwortlich ist. Analysen von Eisbohrkernen von der Antarktis zeigen eindeutig, dass der CO2-Anstieg Erwärmungsphasen immer mit einer Zeitverzögerung von 800 bis 1000 Jahren folgte, also keineswegs als Ursache der Erwärmung in Frage kommt. Dieses Nachhinken des CO2-Anstiegs gegenüber dem Temperaturanstieg ist auch in der neueren Zeit beobachtbar. So wissen wir seit kurzem durch die Auswertung alter, aber verlässlicher CO2-Messungen mithilfe klassischer chemischer Analysemethoden durch den Freiburger Biologen Ernst Georg Beck dass dem Hitzejahr 1940 zwei Jahre später eine CO2-Spitzenkonzentration von 420ppm folgte. Heute versucht das IPCC den Menschen einzureden, die aktuelle CO2-Konzentration von 380 ppm sei bereits bedenklich.

Aus alledem lässt sich nur schließen: Kohlendioxid aus natürlichen Quellen und von Menschen gesteuerten Verbrennungsprozessen kann nicht Ursache des Klimawandels sein. Das heißt nicht, die Menschen hätten überhaupt keinen Einfluss auf ihr (regionales) Klima. Tatsächlich haben sie dieses seit grauen Vorzeiten tief greifend verändert, und zwar vor allem durch die Rodung von Wäldern, die Schaffung von Acker- und Weideland sowie nicht zuletzt durch die Anlage von städtischen Siedlungen und Stauseen.

Viel besser lässt sich der Wechsel von Kalt- und Warmzeiten nach Ansicht namhafter Astronomen mit natürlichen Variationen der Sonneneinstrahlung und des Magnetfeldes erklären, wobei jedoch berücksichtigt werden muss, dass sich hier astronomische und terrestrische Zyklen sehr unterschiedlicher Länge und Größenordnung (wie die Exzentrizität des Erdumlaufs um die Sonne, die Neigung der Erdachse, kürzere und längere Schwankungen der Sonnenaktivität sowie kosmische Einflüsse) in komplizierter Weise überlagern. Unter Umständen können Zyklen gegenläufige Einflüsse ausüben. Deshalb ist gegenüber Prognosen, die nur einen bekannten Zyklus berücksichtigen, Vorsicht geboten.

So deutet zur Zeit Vieles darauf hin, dass wir die Häufung warmer Sommer seit den 90er Jahren zum beträchtlichen Teil einer außerordentlichen Verstärkung des Magnetfeldes der Sonne im Laufe des 20. Jahrhunderts verdanken. Nach einer inzwischen schon halbwegs bestätigten Hypothese der dänischen Atmosphärenphysiker Henrik Svensmark und Eigil Friis-Christensen wird dadurch die Erde vor kosmischen Partikeln geschützt, die beim Eindringen in die Atmosphäre als Kondensationskeime für die Wolkenbildung wirken könnten. Gibt es weniger Wolken, steigen die sommerlichen Temperaturen. Umgekehrt kann es aber auch in den langen Winternächten bitter kalt werden. Da der hyperaktive Sonnenzyklus nun vorüber ist, erwartet der bekannte russische Astronom und Mathematiker Habibullo Abdusamatow (St. Petersburg) eine schon im nächsten Jahrzehnt beginnende Abkühlungsphase, eine „Kleine Eiszeit“, die um die Mitte des Jahrhunderts ihren Tiefpunkt erreichen soll. Aber auch die nächste „Große Eiszeit“ rückt näher, denn die Geologen sind sich im Prinzip einig, dass der Höhepunkt der gegenwärtigen Warmzeit längst überschritten ist. Welche Ursachen aber im Einzelnen hinter der beobachtbaren Beschleunigung der Luftzirkulation stehen, weiß noch niemand. Deshalb würde ich zur Zeit noch nicht wetten, dass es auf der Erde schon in zehn Jahren spürbar kühler sein wird.

Literatur

Ernst Georg Beck: 180 Years of Accurate CO2-Gas-Analysis of Air by Chemical Methods (Short Version), in: Energy & Environment Volume 18 No. 2/2007

Heinz Hug: Die Angsttrompeter. Die Wahrheit über die Gefahren aus der Umwelt. Signum Verlag (F.A. Herbig), München 2006. ISBN 3-7766-8013-X. 360 Seiten.

Marcel Leroux: Global Warming. Myth or Reality? The Erring Ways of Climatology. Springer-Praxis, Berlin-Heidelberg-New York 2005. ISBN 3-540-23909-X. 509 Seiten.

Marcel Leroux: Les échanges méridiens commandent les changements climatiques. Vortrag in der Académie des Sciences, Paris, 5. März 2007

John M. Lyman/Josh K. Willis/Gregory C. Johnson: Recent Cooling of the Upper Ocean, in: Geophysical Research Letters, Vol. 33, L 18604, doi: 10.1029/2006GL027033, 2006

Henrik Svensmark/Jens Olaf Pepke Pedersen/Nigel Marsh/Martin Enghoff/Ulrik Uggerhoj: Experimental Evidence for the Role of Ions in Particle Nucleation under Atmospheric Conditions, in: Proceedings of the Royal Society A, 2006, October 3rd

*) veröffentlicht 2007 in „eigentümlich frei“ (Lichtschlag-Medien, Grevenbroich)

Plädoyer für eine evolutionäre Ökologie

Claude Allègre: Ma vérité sur la planète ; Editions Plon, Paris 2007. ISBN: 978-2-259-20675-4. 240 S. € 18,-

Ma vérité sur la planèteDas Alfred-Wegener-Institut für Polar- und Meeresforschung (AWI) in Bremerhaven spielt eine wichtige Rolle in der Klimaforschung und wird infolgedessen nicht selten in den Massenmedien zitiert. Aber nur wenige von denen, die heute davon ausgehen, dass das letzte Wort über die Erklärung des aktuellen Klimawandels schon gesprochen ist und es geradezu für unmoralisch erklären, noch an der Schuld des Menschen zu zweifeln, scheinen bereit zu sein, Lehren aus dem Schicksal des Namensgebers des Bremerhavener Instituts zu ziehen. Unsere Schüler lernen, dass Alfred Wegener der Urheber der Theorie der Kontinentalverschiebung ist. Diese beruhte nicht zuletzt auf der durch den Augenschein gestützten Vermutung, dass Afrika und Südamerika vor vielen Millionen Jahren einmal zusammengehangen haben müssen. Weiterlesen

Energiepolitik ohne Konzept

Es gibt in Deutschland noch immer keine strategische Energiepolitik und folglich auch keine inhaltliche Koordinierung der Energieforschung. Sechs Chemiegesellschaften haben deshalb ein Positionspapier vorgelegt, um Forschern zu zeigen, wie sie zur Sicherung einer ökologisch sauberen und bezahlbaren Energieversorgung beitragen können. Sie können allerdings die von ihnen geforderte Abkehr vom Erdöl nicht begründen.

Windräder erzeugen unterm Strich mehr CO2 als sie vermeiden

Eine gerade erschienene Studie ehemaliger Shell-Mitarbeiter in den Niederladen mit dem Titel The hidden fuel costs of wind generated electricity rechnet vor: Deutsche Windräder benötigen mehr Energie und erzeugen mehr Kohlenstoffdioxid als sie vermeiden. (17. Dezember 2009)

==========================================================

Energie der Zukunft mit mehr Chemie

In Deutschland gibt es trotz pompöser „Energiegipfel“ keine Energiepolitik, die diesen Namen verdient. Darauf hat BASF-Chef Jürgen Hambrecht schon vor zweieinhalb Jahren hingewiesen. Ob die neue Bundesregierung unter Angela Merkel ein schlüssiges Gesamtkonzept wird erarbeiten können, ist jetzt noch nicht absehbar. Bislang wurde die Energieforschung nicht nur vom Bundesforschungsministerium, sondern auch vom Wirtschaftsministerium, vom Bundesumweltministerium und vom Landwirtschaftsministerium gefördert. Um diese Zersplitterung zu überwinden, hat die neue Bundesregierung für das kommende Jahr eine nationale Energieforschungsinitiative angekündigt. Sechs im Koordinierungskreis Chemische Energieforschung zusammengeschlossene Chemiegesellschaften (DBG-Deutsche Bunsengesellschaft für Physikalische Chemie, DECHEMA-Gesellschaft für Chemische Technik und Biotechnologie, DGMK-Deutsche wissenschaftliche Gesellschaft für Erdöl, Erdgas und Kohle, GDCh-Gesellschaft deutscher Chemiker, VCI-Verband der Chemischen Industrie und VDI-GVC-Gesellschaft Verfahrenstechnik und Chemieingenieurwesen) sahen deshalb den richtigen Zeitpunkt gekommen, um die Ergebnisse einer von ihnen erarbeiteten quantitativen Potentialanalyse verschiedener energietechnischer Innovationen in Form eines Positionspapiers zu veröffentlichen.

Die beteiligten Verbände hielten eine Quantifizierung ihrer Potentialabschätzungen für notwendig, um überblicken zu können, wo bei den Forschungsanstrengungen Prioritäten gesetzt werden müssen. Eine interaktive Excel-Tabelle im Internet (www.energie-und-Chemie.de) ermöglicht es, unterschiedliche Annahmen durchzurechnen und Interdependenzen zu berücksichtigen. Als Zeithorizont wurde das Jahr 2030 gewählt. Das Papier beginnt mit dem Reizthema Erdöl und der Feststellung: „Die konventionellen Kraftstoffe, das sind Ottokraftstoff (Benzin), Flugturbinenkraftstoff (Kerosin) und Dieselkraftstoff werden auf absehbare Zeit weiterhin die Grundlage der Mobilität unserer Gesellschaft bieten. (…) Auch Biokraftstoffe der zweiten Generation und aus den Rohstoffen Erdgas und Kohle werden bis 2030 voraussichtlich keine signifikante Rolle für die Erzeugung von Kraftstoffen spielen.“

Die Chemie könne unter anderem durch die Entwicklung neuer Katalysatoren für das Hydrotreating-Verfahren der Rohöl-Reinigung und neuer Hilfschemikalien für die Entölung der Lagerstätten wichtige Beiträge zur Verbesserung der Ausbeute von Rohölvorkommen leisten. Zurzeit liegt der durchschnittliche Entölungsgrad der Lagerstätten unter 40 Prozent. Die Autorinnen und Autoren des Positionspapiers gehen davon aus, dass der Anteil der tertiären Ölförderung mithilfe von geeigneten Chemikalien, der derzeit bei 4 Prozent liegt, mindestens verdoppelt werden kann.

Das Positionspapier geht leider nur kurz auf die Erschließung neuer Ölvorräte ein. Auch hier zeichnet sich erheblicher Forschungsbedarf ab. Denn in den vergangenen Jahren hat es sich gezeigt, dass man praktisch überall in der Welt Rohöl findet, wenn man nur tief genug bohrt. Förderungswürdig ist dieses Öl freilich nur, wenn der Ölpreis die damit verbundenen hohen Kosten rechtfertigt. Immerhin haben die Ergebnisse der Tiefenexploration (u. a. vor Brasilien und vor Sierra Leone im Atlantik oder im Golf von Mexiko) jenen Geologen Auftrieb gegeben, die seit längerem davon überzeugt sind, dass Erdöl nur zu einem Teil biotischen Ursprungs ist und zu einem Großteil im oberen Erdmantel beziehungsweise in der unteren Erdkruste aufgrund der dort herrschenden hohen Drücke und Temperaturen auf rein chemischem Wege ständig neu gebildet wird. Jedenfalls konnten Anton Kolesnikow, Vladimir G. Kutcherow und Alexander F. Goncharow von der Washingtoner Carnegie Institution, der Moskauer Lomonossow Universiät und des Königlich schwedischen Technologie Instituts in Stockholm in diesem Jahr experimentell bestätigen, dass Erdöl auch auf abiotischem Wege entstehen kann.

In welchem Verhältnis Neubildung und Verbrauch abiotischen Öls zueinander stehen, muss allerdings noch erforscht werden. Zurzeit scheint es jedenfalls keinen Grund zu geben, den Abschied vom Erdöl einzuleiten, denn es gibt keine Ölverknappung. „Fortschritte in der Chemie erleichtern den Abschied vom Öl“, lautet die Überschrift der Kurzfassung des Positionspapiers. Ebenso gut könnte man sagen, dass die Chemie hilft, das Erdöl noch möglichst lange als Energie- und Chemie-Rohstoff weiter nutzen zu können.

Anders als beim Erdöl gibt es bei Erdgas und Kohle nicht einmal scheinbare Verknappungssymptome. Beide Energieträger eignen sich auch für die Herstellung flüssiger Kraftstoffe. Das Positionspapier geht davon aus, dass das selbst in Deutschland wirtschaftlich interessant werden könnte. Vordringlich sei jedoch die Verbesserung der Technologie stationärer Kohle- und Gaskraftwerke. Die Internationale Energieagentur (IEA) schätzt, dass bis zum Jahre 2030 weltweit mindestens 75 Prozent aller neu gebauten Kraftwerke mit Kohle oder Gas befeuert werden. Für den Bau neuer Kraftwerkskapazitäten müssten bis dahin nicht weniger als 4 Billionen Euro zur Verfügung gestellt werden. Der Weltenergierat (WEC) erwartet eine breite Einführung von Technologien der CO2-Abscheidung aus Kohlekraftwerken (CCS) nicht vor 2020. Es erscheint als fraglich, ob CCS jemals weltweit zum Standard werden wird, da hierdurch die Investitionskosten für fossil befeuerte Kraftwerke, je nach der gewählten Kraftwerkstechnologie, noch einmal um 30 bis 100 Prozent ansteigen würden. Da kommen die durch Insider aus der Climate Research Unit (CRU) der University of East Anglia (Norwich) ins Internet gestellten Dateien mit kompromittierender Korrespondenz zwischen führenden Vertretern des Weltklimarates IPCC über Klimadaten-Manipulationen gerade recht, um erneut anzuzweifeln, ob CO2-Emissionen überhaupt verantwortlich für den Klimawandel sind.

Interessanter als die teure und obendrein nicht unbedingt sichere Endlagerung von CO2 könnte dessen photokatalytische Reduktion oder Hydrierung sein. Doch hier stehe die Forschung noch ganz am Anfang, sagt das Papier.

Aktuell ist die Chemie viel stärker bei der der Verbesserung des Wirkungsrades der Photovoltaik gefordert. Zu über 90 Prozent sind die bislang in Deutschland installierten Photovoltaik-Module aus kristallinen Siliziumwafern gefertigt. Dünnschicht-Solarzellen aus anderen Halbleitern gewinnen erst seit wenigen Jahren Marktanteile. Das Papier verschweigt nicht, dass es sich bei der Photovoltaik mit CO2-Vermeidungskosten von ungefähr 3.500 €/t CO2 um die mit Abstand teuerste Methode der CO2-Einsparung handelt. Das spezifische Investment je kW Durchschnittsleistung übersteigt bei Siliziumbasierten Solarmodulen in Deutschland (mit einer mittleren jährlichen Sonneneinstrahlung von nur 1.000 kWh/m2) über 40.000 Euro. (Zum Vergleich: Braunkohlekraftwerke erfordern 1.700 €/kW und erdgasbefeuerte GuD-Kraftwerke nur 700 €/kW.) Ohne die im deutschen Erneuerbare Energien Gesetz (EEG) für 20 Jahre garantierten hohen Netzeinspeisetarife für Solarstrom hätte die Photovoltaik noch heute kaum Chancen auf dem Markt. Für die Zukunft versprechen sich die Verfasser des Positionspapiers einiges von der organischen Photovoltaik (polymere Heterojunctions, Grätzel-Zellen und organisch-anorganische Hybridzellen).

Beim Thema Energiespeicherung warnen die Autoren des Papiers davor, einseitig auf Wasserstoff zu setzen. „Methan darf als Zukunftsoption nicht vernachlässigt werden. Es erscheint mir als beinahe idealer Energiespeicher, weil man damit die vorhandene Gasversorgungs-Infrastruktur nutzen kann. Aber die Methanchemie ist bei uns leider unterentwickelt“, unterstrich Prof. Ferdi Schüth, Direktor des MPI für Kohlenforschung in Mühlheim und Vorsitzender des Koordinierungskreises Chemische Energieforschung, bei der Vorstellung des Positionspapiers in Frankfurt am Main. Beim Einsatz von Methanol sieht das Positionspapier hingegen eher Nachteile. Elektrochemische Energiespeicher, zum Beispiel Lithium-Ionen- oder Natrium-Nickelchlorid-Batterien, eignen sich bislang nicht für den großtechnischen Einsatz. Auch bei deren Anwendung in Plug-in-Hybridfahrzeugen oder in Privathaushalten beziehungsweise als Ergänzung zu Pumpspeicher-Kraftwerken in „intelligenten“ Stromnetzen gebe es noch erheblichen Forschungsbedarf. Wahrscheinlich mache der Anteil des „fluktuierenden Stroms“ von Windrädern und Photovoltaikanlagen im Jahre 2030 schon über ein Viertel des gesamten deutschen Stromaufkommens aus. Um Netzzusammenbrüche zu vermeiden, muss dieser oft zur Unzeit anfallende Strom irgendwie abgepuffert werden. Elektro- beziehungsweise Hybridfahrzeuge böten sich als rollende Stromspeicher an.

Andreas Kreimeyer (BASF), der Vorsitzende des Ausschusses Forschung, Wissenschaft und Bildung im VCI, wies in Frankfurt auf Defizite in der elektrochemischen Forschung hin, die als wissenschaftliche Grundlage der Energiespeicherung benötigt wird. Der Fonds der Chemischen Industrie unterstützt deshalb gezielt elektrochemische Diplomarbeiten und Promotionsprojekte an den Hochschulen, um Professoren und Studenten anzuregen, sich mit diesem in jüngerer Zeit vernachlässigten Teil der Energieforschung zu beschäftigen. „Die Energieversorgung der Zukunft wird chemischer“, resümierte Kreimeyer.

Beim Thema effiziente Energienutzung beschäftigt sich das Positionspapier ausführlich mit der Brennstoffzellentechnik, insbesondere in Form virtueller Brennstoffzellen-Großkraftwerke durch die Vernetzung vieler dezentraler Brennstoffzellen-Blockheizkraftwerke mit Kraft-Wärme-Kopplung untereinander sowie mit anderen regenerativen Energiequellen. Das Papier schätzt deren Potential aber äußerst vorsichtig ein, da die Wirtschaftlichkeit dieser Technik stark von Annahmen über die Entwicklung des Preises für CO2-Zertifikate abhängt.

Unter dem Thema effiziente Energienutzung handelt das Positionspapier auch die Entwicklung von Leuchtdioden (LEDs und OLEDs) und neuer Leuchtstoffe ab. Tatsächlich gehören diese interessanten Neuentwicklungen wohl eher in die Rubriken Ästhetik oder Bequemlichkeit. Denn auf die Beleuchtung entfallen in Deutschland laut Energieflussbild nur 0,7 Prozent des gesamten Primärenergiebedarfs. Selbst wenn die Deutschen gänzlich auf Beleuchtung verzichteten, könnten sie dadurch ihren Energieerbrauch nicht spürbar verringern. Tatsächlich eröffnet die Anwendung der Nanotechnologie die Möglichkeit, maßgeschneiderte Materialien für die Herstellung von Leuchttapeten oder andere völlig neuartiger Leuchtmittel ohne lästige Wärmeerzeugung zu entwickeln. Dadurch könnte die Architektur revolutioniert werden.

Aufgaben für Chemiker warten auch bei Versuchen, Hochtemperatur-Supraleiter der zweiten Generation auf der Basis von Ytrium-Barium-Kupferoxid zu verbessern. Der Einsatz von Supraleitern ermöglicht zwar Verlustreduktionen von bis zu 60 Prozent bei Generatoren und bis zu 95 Prozent bei stationären Transformatoren und Induktionsheizungen. Kurz- und mittelfristig fällt die dadurch mögliche Reduktion des Primärenergieeinsatzes wegen der damit verbundenen hohen Kosten jedoch nicht ins Gewicht. Werden heute Supraleiter im Maschinenbau und in der Medizintechnik eingesetzt, ist nicht die erwartete höhere Energieeffizienz dafür ausschlaggebend, stellt das Papier nüchtern fest.

In der breiten Öffentlichkeit längst anerkannt ist hingegen der Beitrag der chemischen Industrie zur Entwicklung neuer Werkstoffe für die Wärmedämmung von Gebäuden. Ohne das im Einzelnen zu quantifizieren, gehen die Autorinnen und Autoren hier von negativen CO2-Vermeidungskosten aufgrund der durch die Dämmstoffe bewirkten Heizkostenersparnis aus. Dabei gibt es bei den Dämmstoffen selbst durchaus noch Entwicklungspotenzial: So zum Beispiel durch den Einsatz nanoporöser Schaumstoffe oder durch die Integration von Flammschutzfunktionen.

Nicht so leicht ist die Kosten-Nutzen-Abwägung bei der Entwicklung und dem Einsatz neuartiger Leichtbaustoffe im Maschinen-, Anlagen- und Fahrzeugbau. Bei einem für die Kfz-Flotte anvisierten Normalverbrauch von 4,5 Liter Treibstoff auf 100 Kilometer belaufen sich die CO2-Vermeidungskosten immerhin auf durchschnittlich etwa 450€/t CO2. Solange nicht experimentell demonstriert werden kann, dass CO2 wirklich umweltschädlich ist, wird nicht jeder freiwillig solche Kosten in Kauf nehmen.

Umso mehr kommt es darauf an, knappe Forschungsgelder und Investitionsmittel dort einzusetzen, wo sie Mensch und Umwelt den größten Nutzen bringen. Deshalb kann man Andreas Kreimeyer wohl nur zustimmen, wenn er fordert: „Die Bundesregierung sollte ihre geplante nationale Energieforschungsinitiative dazu nutzen, eine Energieforschungspolitik aus einem Guss zu gestalten.“

Edgar L. Gärtner

(erschienen in: Chemische Rundschau Nr. 12/2009 vom 8. Dezember 2009. VS-Medien, CH-Solothurn)

=============================================================================================

Einem Skandal auf der Spur von Edgar L. Gärtner

Mögliche Hintergründe der Aufregung um die Krümmel-Pannen

Die deutschen Betreiber von Kernkraftwerken bereiten sich auf einen möglichen „Ausstieg aus dem Ausstieg“ vor, denn sowohl die Union als auch die FDP haben versprochen, die unter der rot-grünen Bundesregierung ausgehandelte Laufzeitverkürzung für Kernkraftwerke wieder rückgängig zu machen, falls es in Berlin zu einer schwarz-gelben Regierung käme. Mit aufwändigen Zeitungsbeilagen wollten die betroffenen Stromkonzerne in diesem Sommer für eine Verlängerung der Laufzeiten für ihre längst abgeschriebenen und daher konkurrenzlos kostengünstigen Kernkraftwerke werben, zumal Meinungsumfragen darauf hindeuteten, dass sich immer mehr Deutsche, angesichts drohender weiterer Strompreissteigerungen, mit dieser Lösung anfreunden. Doch am 4. Juli, wenige Tage vor dem ursprünglich angesetzten Start der PR-Kampagne des Deutschen Atomforums, musste das vom schwedischen Staatskonzern Vattenfall betriebene norddeutsche Kernkraftwerk Krümmel, das nach einer zweijährigen Zwangspause wegen eines Transformatorbrandes gerade wieder ans Netz gegangen war, wegen eines erneuten Transformatorschadens schon wieder stillgelegt werden. Die Manager der deutschen Kernkraftbetreiber E.on, RWE und EnBW, sind nun sauer auf ihren nordischen Konkurrenten, der in Deutschland aus wettbewerbsrechtlichen Gründen die Kernkraftwerke des verblichenen Hamburgischen Stromkonzerns HEW übernommen hat.

In einem vom 28. Juli 2009 datierten Schreiben an Ernst Michael Züfle, den Chef der Nuklear-Sparte von Vattenfall in Deutschland, das vor kurzem auszugsweise im „Handelsblatt“ veröffentlicht wurde, schrieben Klaus-Dieter Maubach, der Chef von E.On Energie, Gerd Jäger, der für Kernenergie zuständige Vorstand von RWE Power, und Hans-Josef Zimmer, technischer Vorstand der EnBW: „Wir sehen Vattenfall (…) in der Pflicht, zu den Ereignissenn und Vorgängen in Krümmel öffentlich Stellung zu beziehen. Dies ist in den letzten Tagen nicht immer geschehen. Vielmehr mussten wir feststellen, dass sich der Vattenfall-Konzern in dieser Frage … der Diskussion entzieht.“ Hintergrund des wütenden Schreibens ist nicht nur ein erneuter Anlauf für eine Zeitungsbeilage des Atomforums, die nun – anders als ursprünglich geplant – in der heißen Phase des Wahlkampfes erschienen ist. Dort sollte nach Ansicht der deutschen Kernkraftwerk-Betreiber nicht nur Michael Züfle zu den Vorfällen in Krümmel Stellung beziehen – sondern am besten Vattenfall-Chef Lars Göran Josefsson persönlich. Denn Vattenfall habe mit seinem Verhalten bei den Vorfällen in Krümmel den Atomkraft-Gegnern eine „Steilvorlage“ geliefert. Ein nicht minder wichtiger Grund für die Wut der deutschen Strom-Manager sind aber Befürchtungen, die Politik werde Zugeständnisse in Sachen Kraftwerks-Laufzeiten mit hohen finanziellen Forderungen verbinden.

Was ich in meinem Buch „Öko-Nihilismus“ (auf Seite 19 unten) schon vor über zwei Jahren für wahrscheinlich gehalten habe, wird nun, wie das „Handelsblatt“ vom 28. August berichtete, von der Unions- und der FDP-Fraktion im Deutschen Bundestag ganz offen propagiert: Im Falle einer Laufzeitverlängerung für deutsche Kernkraftwerke nach einem schwarz-gelben Sieg bei den bevorstehenden Bundestagswahlen soll der Staat mindestens die Hälfte der beim Weiterbetrieb abgeschriebener Atomkraftwerke anfallenden Extragewinne abschöpfen und in die Entwicklung „besserer“, weil teurerer „erneuerbaren“ Energien investieren oder auch für die Entlastung der Stromkunden einsetzen. Es geht hier, nach Analysen der Landesbank Baden-Württemberg, schon bei einer Laufzeitverlängerung von nur zehn Jahren um Summen in zweistelliger Milliardenhöhe. Bei einer technisch durchaus möglichen Laufzeitverlängerung um 25 Jahre und einem angenommenen Strompreis von 80 Euro je Megawattstunde winkt E.on ein Extragewinn von fast 32 Milliarden Euro. RWE könnte mit 23 und EnBW mit fast 15 Milliarden Euro rechnen.

Doch was ist mit Vattenfall? In Schweden geht das Gerücht um, der Staatskonzern habe die eher harmlosen, weil im nichtnuklearen Teil des KKW Krümmel eingetretenen Pannen vielleicht mit Absicht provoziert, um seinen deutschen Konkurrenten einen Strich durch die Rechnung zu machen. Denn nach einem vom schwedischen Reichstag 1998 beschlossenen Gesetz muss der Staatskonzern in erster Linie als Instrument der schwedischen Politik agieren. Und diese kann kein Interesse an niedrigen Strompreisen in Deutschland haben. Nicht nur Schweden, sondern ganz Skandinavien sieht sich, im Unterschied zum Kontinent, mit wachsenden Stromüberschüssen und entsprechend sinkenden Strompreisen konfrontiert. Und dieser Strom wird fast zu 100 Prozent CO2-frei zu gleichen Teilen durch Wasser- und Kernkraftwerke erzeugt. Die skandinavischen Stromanbieter haben also vom CO2-Emissionshandel nichts zu befürchten. Sie bereiten sich darauf vor, ihre Stromüberschüsse, die sie zu äusserst günstigen Preisen generiert haben, kontinentalen Abnehmern zu teuren Marktpreisen anzubieten. Es könnte sogar so sein, dass Vattenfall sich aus dem gleichen Grund in Deutschland für die industriell unerprobte und teure Abscheidung und Endlagerung von Kohlenstoffdioxid aus den Abgasen von Stein- und Braunkohlenkraftwerken stark macht. Damit würden die Marginalkosten der Stromproduktion steigen. Im System des Börsenhandels von Elektrizität bestimmen die Marginalkosten die Strompreise. Je höher die Marginalkosten, desto höher auch der Marktpreis, zu welchem Vattenfall verkauft und kontinentale Anbieter einkaufen.

Dass Bundeskanzlerin Dr. Angela Merkel neben dem durchgeknallten Theoretischen Physiker Hans Joachim Schellnhuber vom Potsdam Institut für Klimafolgenforschung (PIK) ausgerechnet Vattenfall-Chef Josefsson zu ihrem Top-Berater in Sachen „Klimaschutz“ ernannt hat, zeigt meines Erachtens, was von der strategischen Kompetenz unserer politischen Klasse zu halten ist.

Literatur:

Edgar L. Gärtner: Öko-Nihilismus. Eine Kritik der Politischen Ökologie. Jena 2007

Internet:

Konkurrenten greifen Vattenfall an

Atomkonzerne sollen Milliarden zahlen

Interview mit Hans Joachim Schellnhuber

(7. September 2009)

Energiepolitik im Dienste ausländischer Interessen?

Von Edgar L. Gärtner

Einem Skandal auf der Spur (Fortsetzung)

Deutschland wird bald zum Stromimportland werden. Selbst nach Schätzungen der in diesem Zusammenhang unverdächtigen Deutschen Energieagentur (Dena) wird im Jahre 2020 eine Kraftwerksleistung von 12.000 Megawatt (MW) fehlen. Nach Hochrechnungen des Essener Stromkonzerns RWE wird Deutschland schon im Jahre 2015 netto mehr Strom importieren als exportieren. Sollte der Ausstieg aus der Kernkraftnutzung fortgesetzt und der Bau neuer Kohlekraftwerke nicht beschleunigt werden, droht uns nach dieser Rechnung bis 2020 eine Kapazitätslücke von 40.000 MW. Ein Bündnis aus insgesamt 140 Umweltschutzvereinen und kirchlichen Missions- und Hilfsrganisationen unter dem Namen „Klima-Allianz“ hat sich offenbar in den Kopf gesetzt, Deutschlands Stromversorgung noch rascher den politischen Zielen und Geschäftsinteressen ausländischer Staatskonzerne zu unterwerfen.

Anlässlich der von der „Klima-Allianz“ bejubelten Verfügung des Oberverwaltungsgerichts Münster, den bereits fortgeschrittenen Neubau des größten Kohlekraftwerks des E.on-Konzerns im westfälischen Datteln zu stoppen, konnte auch die deutsche Qualitätspresse nicht mehr umhin, auf die dubiose Finanzierung der „Klima-Allianz“ aufmerksam zu machen. So wies die WELT am 10. September auf Spenden von in der Schweiz und in den USA beheimateten Stiftungen hin. Etwas deutlicher wurde die Financial Times Deutschland, die am 18. September berichtete, der britischen Hedge-Fonds TCI habe den Kampf gegen Kohlekraftwerke im vergangenen Jahr mit nicht weniger als 500.000 € unterstützt. Das erinnert an die Machenschaften David Bondermans, des Chefs des Investment-Fonds Texas Pacific. Bonderman leitete vor zweieinhalb Jahren durch eine von ihm gesponserten NGO-Kampagne die Übernahme des texanischen Kohlekraftswerks-Betreibers TXU ein. Dadurch verhinderte er, dass TXU seine Pläne für den Bau neuer Kohlekraftwerke umsetzen konnte und erreichte, dass stattdessen die Interessen der Wind- und Gasindustrie Oberhand bekamen.

Inzwischen hat die in den USA erfolgreich erprobte Methode politischer Erpressung von Investoren, die der US-Professor Jarol B. Manheim in seinem 2004 erschienen Buch „Biz-War and the Out-of-Power Elite“ analysiert hat, auch in Europa Einzug gehalten. Neben den Interessen der russischen Gazprom geht es in Europa insbesondere um die Interessen der staatlichen Stromkonzerne Frankreichs und Schwedens. Der schwedische Internet-Fachinformationsdienst www.elbranschen.com teilt übrigens meine kürzlich an dieser Stelle geäußerten Vermutungen über eine geheime Agenda des schwedischen Staatskonzerne Vattenfall. Einiges spricht dafür, dass Vattenfall die „Störfälle“ im KKW Krümmel provoziert hat, um eine Verlängerung der Laufzeiten deutscher Atomkraftwerke nach der anstehenden Bundestagswahl zu verhindern. Denn dann bekäme Vattenfall die Chance, überschüssigen skandinavischen Strom aus Wasser- und Atomkraftwerken zu Höchstpreisen in Deutschland abzusetzen. Der schwedische Informationsdienst fragt bereits scherzhaft, ob Vattenfall (ähnlich wie Gazprom im Falle der Abwahl Gerhard Schröders) Angela Merkel für den Fall ihrer nicht gänzlich ausgeschlossenen Abwahl als Bundeskanzlerin einen Aufsichtsratsposten bereithält.

Internet:

Einem Skandal auf der Spur

30 Kohlekraftwerke bedroht

E.ons Kohlekrampfwerk

Vermutungen eines Schweden

(24. September 2009)

==============================================================================

„The Economist“ sieht in England die Lichter ausgehen

Das britische Wirtschaftsmagazin „The Economist“ vom 6. August analysiert schonungslos die energiepolitischen Illusionen der Labour Regierung unter Gordon Brown. Da Kohlekraftwerke als schmutzig abgelehnt werden, der Bau von Atomkraftwerken zu teuer und zu zeitaufwendig ist und die „erneuerbarer“ Wind- und Solarstrom nur sehr unregelmäßig und überdies ineffzient erzeugt werden kann, halten sich die Energieversorger an den Bau von Gas-Kraftwerken. Diese lassen sich zwar rasch und billig errichten, doch ihre Betriebskosten erscheinen als kaum kalkulierbar, da der wachsende Gasbedarf den Gaslieferanten Russland in eine mehr als komfortable Anbieter-Situation bringt. Freuen können sich darüber nur Wladimir Putin und seine Getreuen in der Kreml AG. (10. August 2009)

========================================================================

Wüstenstrom bedroht gesunden Menschenverstand

Kollegen der Tageszeitung „Die Welt“ haben am 14. Juli 2009 einen Fragen- und Antworten-Katalog zu dem am 13. Juli in München auf den Weg gebrachten Wüstenstrom-Projekt veröffentlicht, der den Anschein erweckt, er sei unhinterfragt einem PR-Folder der federführenden Münchner Rückversicherung entnommen worden. Denn bislang kannte ich von diesen Kollegen eher kritische oder skeptische Beiträge zum Problem der Energieversorgungssicherheit Deutschlands. Im Folgenden möchte ich auf jeden der 10 Punkte des Katalogs einzeln eingehen.

1. Ob die für die Erzeugung und den Transport von solarthermisch erzeugtem Strom in der Sahara bis zum Jahre 2050 vorgesehenen Investitionen von mindestens 400 Milliarden Euro angemessen sind, ist eine eher theoretische Frage. Tatsache ist, dass der gesamte Strombedarf Deutschlands selbst bei Berücksichtigung der hohen Stromsteuer und der EEG-Umlage für ungefähr 30 Milliarden Euro im Jahr gedeckt werden kann. Wird der begonnene „Atom-Ausstieg“ wie geplant fortgesetzt und entwickelt sich der CO2-Emissionshandel, dann werden sich unsere Stromkosten rasch verdoppeln. Ob das den „Wüstenstrom“ wettbewerbsfähig machen wird, ist völlig offen. Es ist lediglich absehbar, dass das Desertec-Projekt viel teurer werden wird als vorläufig angenommen. Da die Standorte der Parabolspiegel-Kraftwerke noch nicht gefunden sind, lässt sich nicht abschätzen, wie weit und in welcher Form der durch sie erzeugte Strom transportiert werden wird. Für die Münchner Rück sind aber letztlich die durch Destertec vermiedenen „Klimaschäden“ ausschlaggebend. Doch diese sind rein hypothetischer Natur. Viel spricht dafür, dass es bei einer fortgesetzten Erderwärmung mehr Gewinner als Verlierer gäbe, denn Historikern ist bekannt, dass im mittelalterlichen „Klimaoptimum“ der Wohlstand wuchs. Außerdem dürfte die Erderwärmung ab einem bestimmten Niveau zu einer fortschreitenden Ergrünung der Sahara führen. Es gäbe dann möglicherweise überhaupt keinen Platz mehr für „Wüstenkraftwerke.“

2. Klar ist, dass Solarstrom aus der Sahara heute nicht wettbewerbsfähig wäre. Das zumindest für die Durchleitung des Wüstenstroms benötigte EU-Land Frankreich setzt weiterhin auf preisgünstigen Atomstrom. Dieser würde auch in Zukunft deutlich günstiger sein als Solarstrom.

3. In der Tat sind die Argumente der Fotovoltaik-Lobby gegenüber Desertec schwach. Sie beruhen auf der Angst heutiger Subventionsempfänger, in naher Zukunft Konkurrenz von einer weiteren um Subventionen werbenden Lobby zu bekommen. Dennoch hat die Fotovoltaik-Lobby recht, wenn sie darauf hinweist, dass Solarstrom aus der Sahara in Deutschland nicht gebraucht wird. Denn es gibt hier neben sehr kostengünstig arbeitenden, weil abgeschriebenen Kernkraftwerken auch moderne Braunkohlekraftwerke, die Strom ähnlich kostengünstig liefern, solange dieser nicht durch den CO2-Emissionshandel und/oder Öko-Steuern künstlich verteuert wird. Somit bin ich bereits beim Punkt 4.

4. Was bringt die Kollegen bzw. die Münchner Rück dazu, zu behaupten, das Kohlezeitalter gehe unweigerlich zu Ende? Im Gegenteil spricht Vieles dafür, dass es gerade erst richtig beginnt. Nicht nur in China gehen Kohlekraftwerke im Wochenrhythmus in Betrieb. Und wer wollte behaupten, die Kohlevorräte der Erde gingen zur Neige? Es gibt allenfalls vorübergehende Nachschubprobleme, aber keine Verknappung von Kohle. Die bekannten Lagerstätten reichen noch für Jahrhunderte. Da nicht nachweisbar ist, dass das bei der Verbrennung von Kohle entstehende Kohlenstoffdioxid irgendeinen negativen Einfluss auf Wetter und Klima ausübt, besteht kein Grund, auf die Nutzung dieses Naturschatzes zu verzichten.

5. In der Tat würde uns Desertec abhängig machen von politisch höchst instabilen Ländern. Insbesondere in Algerien, das, rein technisch gesehen, die besten Standortbedingungen für solarthermische Kraftwerke böte, gibt die politische Entwicklung Anlass zu großer Sorge. Die politische Macht befindet sich dort in den Händen einer aus der nationalen Befreiungsbewegung FLN gegen die französische Kolonialmacht hervorgegangenen Filzokratie. Nicht von ungefähr hat der in Algerien aufgewachsene französische Literaturnobelpreisträger Albert Camus, trotz seines Engagements gegen den Kolonialismus, immer wieder davor gewarnt, die politische Macht in die Hände von „Banditen“ geraten zu lassen. Die in Algerien seit Jahrzehnten herrschende Cliquenwirtschaft hat verhindert, dass das mit Bodenschätzen aller Art gesegnete Land zu Wohlstand gelangt. Arbeitslosigkeit, Wohnungsnot und fortschreitende Armut bereiten den Boden für Terroristen des Al-Kaida-Netzwerkes, deren erklärtes Ziel die Wiederherstellung des Kalifats Al Andalus bis zu den Pyrenäen und darüber hinaus bis nach Südfrankreich ist.

6. Das Desertec-Project hat durchaus ein kolonialistisches Geschmäckle. Das wäre anders, wenn die Initiative von den nordafrikanischen Ländern ausgegangen wäre. Die wirtschaftliche Entwicklung in bislang armen Ländern beflügeln könnte das Projekt nur unter geeigneten politischen Rahmenbedingungen.

7. In der Tat sind die Transportverluste bei der ins Auge gefassten Hochspannungs-Gleichstromübertragung (HGÜ) im Prinzip deutlich geringer als bei Wechselspannung. Bisherige Erfahrungen beziehen sich aber ausschließlich auf die Punkt-zu-Punkt-Übertragung großer Strommengen vom Ort der Erzeugung zu einem Ort hohen Verbrauchs. Das Desertec-Projekt ist hingegen als Verbund einer Vielzahl von Solarthermie-Kraftwerken konzipiert. Da die Standorte dieser Kraftwerke noch nicht feststehen, ist die Länge der notwendigen Übertragungswege und somit auch die Höhe der Transportverluste überhaupt noch nicht abschätzbar. Es ist auch noch nicht geklärt, ob die erzeugte Elektrizität in Europa über ein noch nicht existierendes Gleichstromnetz oder über das vorhandene Wechselstromnetz verteilt werden wird.

8. Sandstürme scheinen ein eher geringes Problem zu sein, zumal sich die Parabolspiegel mithilfe ihrer ohnehin vorhandenen Nachführ-Motoren im Ernstfall aus dem Wind drehen lassen.

9. In der Tat würde Desertec zur Zementierung der Abhängigkeit der Stromverbraucher von zentralistischen Versorgungssystemen beitragen. Es gäbe durchaus sichere dezentrale Alternativen: etwa kleine Nuklear-Batterien beziehungsweise Hochtemperatur-Reaktoren oder auch Blockheizkraftwerke mit Stirling-Motoren, die man im Keller von Ein- oder Mehrfamilienhäusern aufstellen oder in deren Vorgärten oder Hinterhöfen vergraben könnte. Solche dezentralen, entsprechend individueller Bedürfnisse steuerbaren Energieversorgungstechniken würden durch Kontinente übergreifende Versorgungsstrukturen höchstwahrscheinlich gehemmt.

10. Das Desertec-Projekt lebt von dem vor allem in Deutschland verbreiteten gutmenschlichen Wunschdenken. Dessen Grundlage sind historisch bedingte Schuld-Komplexe und eine damit zusammenhängende Verlierer-Mentalität. Im Unterschied zu Idealen können Utopien, sobald sie zu totalitären Fiktionen geworden sind, durchaus Realität werden – allerdings nur als Farce.

Edgar L. Gärtner (16. Juli 2009)

==================================================================

Stromarmut in Deutschland von Edgar L. Gärtner

Der Solar-Boom beschert den Stromverbrauchern eine Kostenlawine und vernichtet Arbeitsplätze.

In Deutschland hängen bekanntlich etwa sieben Millionen Arbeitslose oder Inhaber von Mini-Jobs ganz oder teilweise am Arbeitslosengeld 2 (Hartz IV), davon etwa die Hälfte dauerhaft. Der monatliche Basissatz von ALG2 beträgt je Erwachsener neuerdings € 359,-. Hinzu kommen die Kosten für Wohnungsmiete, Heizung und Wasser, die in der Regel bis zu einem örtlich unterschiedlichen Deckelbetrag von der Kommune übernommen werden. In jeden Fall müssen die ALG2-Empfänger den Strom für Kochen, Beleuchtung, Kommunikation und Unterhaltung aus dem Regelsatz von € 359,- begleichen. In der Stadt Frankfurt werden für Haushalte ohne elektrische Warmwasseraufbereitung monatlich lediglich € 16,- für „Haushaltsenergie“ angesetzt. Da die Stromkosten für Privathaushalte in Deutschland im europäischen Vergleich mit fast 22 ct/kWh besonders hoch sind, müssen ALG2-Empfänger ihren Jahresverbrauch auf etwa 750 kWh begrenzen, wenn sie nicht ihre Ernährung einschränken wollen. Das entspricht weniger als der Hälfte des durchschnittlichen Stromverbrauchs deutscher Einpersonenhaushalte, der zurzeit bei etwa 1.700 kWh/a liegt. Wer von ALG2 abhängt, muss also, ohne Hunger in Kauf zu nehmen, selbst seine Internet-Nutzung stark einschränken.

Bundesumweltminister Sigmar Gabriel ist sich durchaus bewusst, dass sich hier sozialer Sprengstoff ansammelt. Sein Ministerium beteiligt sich deshalb an der Finanzierung einer Studie des Frankfurter Instituts für sozial-ökologische Forschungen (ISOE) und das Heidelberger ifeu Institut für Energie- und Umweltforschung. Im Auftrag der Caritas möchten diese erforschen, wie man ALG2-Empfängern am besten helfen könnte, an für sie unbezahlbare stromsparende Haushaltsgeräte der neuesten Generation zu kommen. Welche Scheinheiligkeit sich dahinter verbirgt, wird deutlich, wenn man erfährt, dass die hohen deutschen Strompreise zu 40 Prozent aus diversen Steuern und Zwangsabgaben bestehen. Darunter befindet sich auch die durch das Erneuerbare Energien Gesetz (EEG) im Jahre 2000 eingeführte Umlage für die Einspeisung nicht marktfähiger Strommengen aus Windkraftanlagen (WKA), Biogasanlagen und Photovoltaik-Modulen ins öffentliche Stromnetz.

Bis zur Jahrtausendwende zeichnete sich Deutschland durch eher moderate Strompreise aus. Diese wurden garantiert durch das große Gewicht älterer Braunkohle- und abgeschriebener Kernkraftwerke im deutschen Stromerzeugungs-Mix. Bei beiden Kraftwerkstypen lagen die Stromerzeugungskosten unter 2 ct/kWh. Steinkohlekraftwerke, die eine Mischung aus billig importierter Importkohle und hochsubventionierter heimischer Kohle nutzten, lagen mit knapp 5 ct/kWh auf einem mehr als doppelt so hohen Kostenniveau – und damit etwa gleichauf mit Wasserkraftwerken, deren Beitrag zum deutschen Strom-Mix seit vielen Jahren deutlich unter 5 Prozent bleibt, weil keine neuen, für die Anlage von Stauseen geeigneten Standorte verfügbar sind. Auch der Anteil von Erdgas an der Stromerzeugung blieb bis zum Ende des 20. Jahrhunderts bescheiden.

Als dann, entsprechend den EU-Vorgaben, der deutsche Strommarkt (im Prinzip) für den Wettbewerb geöffnet wurde, sank der Strompreis für Industriekunden zunächst auf etwa 6 ct/kWh und der mittlere Strompreis für Privataushalte auf 14 ct/kWh. Doch nach der Jahrtausendwende begannen die Strompreise wieder stetig zu steigen. Im vergangenen Jahr mussten Industriekunden schon wieder fast 13 ct/kWh und Endverbraucher fast 22 ct/kWh berappen. Der Hauptgrund für diese Entwicklung liegt im EEG mit seiner 20-jährigen Abnahme- und Preisgarantie für „grünen“ Strom.

Was nach den Erfahrungen mit Preis- und Abnahmegarantien auf den europäischen Agrarmärkten zu erwarten war, trat auch hier ein: Institutionelle und private Anleger investierten massiv in die Erschließung „erneuerbarer“ Energien, zunächst vor allem in Windparks. Insgesamt etwa 22.000 WKA steuern inzwischen schon 6,3 Prozent zur deutschen Bruttostromerzeugung von insgesamt 639 TWh (Milliarden Kilowattstunden) für einen garantierten Preis von 9 ct/kWh bei. Um die extrem unstetige Stromerzeugung der WKA ausgleichen zu können, müssen entweder Kohlekraftwerke im unwirtschaftlichen Stand-by-Betrieb weiterlaufen oder rasch an- und abschaltbare Gasturbinen bereitstehen. Deshalb ist der Gas-Anteil am deutschen Stromerzeugungs-Mix parallel zur Vervielfältigung der Zahl der WKA gestiegen: Während der Windstrom-Anteil zwischen 1990 und 2007 von Null auf 40 TWh zunahm, stieg der Gas-Anteil an der Stromerzeugung von 36 auf 75 TWh oder 13 Prozent (für durchschnittlich 7 ct/kWh). 83 Prozent des gesamten deutschen Erdgasbedarfs wurden im Jahre 2007 importiert, etwa die Hälfte davon aus Russland. Der Ausbau der Windkraft hat also die Importabhängigkeit der deutschen Energieversorgung verstärkt. Das gilt zwar nicht für den gleichzeitig geförderten Ausbau der Biomasse-Nutzung, die inzwischen mit 3,6 Prozent zur Stromerzeugung beisteuert. Doch trägt auch sie mit einem garantierten Stromabnahmepreis von 14 ct/kWh spürbar zur Verteuerung der Elektrizitätsversorgung bei.

So hat sich neun Jahre nach der Verabschiedung des EEG die Preisstruktur der deutschen Stromproduktion bereits deutlich verschoben. Die durchschnittlichen Stromerzeugungskosten stiegen von 3,5 ct/kWh im Jahre 2003 auf 5,61 ct/kWh im Jahre 2008. Ein weiterer Grund für diese Entwicklung ist das nahende Auslaufen der Kernenergie-Nutzung, die ebenfalls im Jahre 2000 beschlossen wurde, sowie der Start des europäischen CO2-Emissionshandels. Aus diesem Grund beginnen inzwischen sogar Braunkohlekraftwerke ihre Vorteile einzubüßen.

Wichtigster Kostentreiber dürfte in den nächsten Jahren aber wohl die Photovoltaik sein. Seit 2004 erhielten private Betreiber von Solarmodulen eine garantierte Stromeinspeisungsvergütung von bis zu 57,4 ct/kWh mit einer jährlichen Degression von 5 Prozent. Seit Beginn dieses Jahres wurde der Garantiepreis nach zähen Verhandlungen mit der Solarlobby auf 43 ct/kWh gesenkt und die Degression auf 8 bzw. 9 Prozent erhöht. Selbst nach der hinter dem EEG stehenden umstrittenen Begründung hätte der Garantiepreis nach einhelliger Einschätzung der Fachleute viel stärker, und zwar mindestens auf 21 ct/kWh gesenkt werden müssen, um Einsparungseffekten Rechnung zu tragen. Denn es gibt zurzeit weltweit eine enorme Überproduktion von Solarzellen, die zu einem Preiskrieg zwischen chinesischen, japanischen, amerikanischen und europäischen Herstellern geführt hat. Der Preis je Silizium-Modul ist seit dem letzten Herbst von € 3,50 je Watt Leistung auf € 2,30 je Watt gefallen. Der US-Marktführer First Solar bietet seine Dünnschicht-Module aus Cadmiumtellurid, die allerdings einen deutlich größeren Flächenbedarf haben, inzwischen schon für einen Dollar je Watt Leistung an.

Wegen dieses Preisverfalls wird es in den nächsten Jahren wohl zu einem Solar-Boom kommen, während Windkraft-Projekte wegen der Krise mit beträchtlichen Finanzierungsproblemen zu kämpfen haben. Schon für dieses Jahr erwarten Experten in Deutschland einen Kapazitätszuwachs von bis zu 2,5 Gigawatt. Werden die gesetzlich garantierten Abnahmepreise nicht deutlicher abgesenkt, droht den deutschen Stromkunden eine Kostenlawine ungeahnten Ausmaßes. Schon für die bis Ende 2008 installierten Photovoltaik-Module, die lediglich maximal 0,6 Prozent des deutschen Strombedarfs decken, müssen sie nach Berechnungen des Bonner Volkswirts Dieter Damian über 20 Jahre insgesamt 45 Milliarden Euro zahlen. Das bedeutet 563 Euro je Bürger, Kinder und Greise eingeschlossen! Schon im Jahre 2015 lägen die aufsummierten Kosten der Photovoltaik zwischen 133 und 169 Milliarden Euro. Und im Jahre 2020 könnten sie im schlimmsten Fall schon die Schallmauer von 300 Milliarden Euro durchbrechen. Das wären deutlich mehr als 3000 Euro zusätzliche Stromkosten je Bundesbürger!

Damians unveröffentlichte Berechnungen wurden im Prinzip bestätigt von Manuel Frondel und Mitarbeitern vom Rheinisch-Westfälischen Institut für Wirtschaftsforschung (RWI Essen). Auch diese Autoren errechneten bis 2015 reale Zusatzkosten der Photovoltaik von über 100 Milliarden Euro. Damian sieht in den wiederholten Hinweisen Gabriels und der Solarlobby auf bis zu 280.000 Arbeitsplätze, die angeblich mithilfe des EEG geschaffen worden seien, einen üblen Propaganda-Trick, weil die mit viel statistischer Kreativität hochgerechneten Beschäftigungseffekte immer nur mit den jährlichen durch das EEG verursachten Kosten verglichen würden und nicht mit den über 20 Jahre auflaufenden Kosten. Das RWI hat schon im Jahre 2004 vorgerechnet, durch das EEG würden schon ab 2010 deutlich mehr Arbeitsplätze vernichtet als neu geschaffen. Wenn überhaupt, fördere das EEG nur die Beschäftigung im Ausland.

Prof. Dr. Ing. Helmut Alt von der Fachhochschule Aachen hat durchgerechnet, was geschähe, wenn der deutsche Stromerzeugungs-Mix entsprechend den Vorstellungen von Andrea Ypsilanti (SPD) im hessischen Landtagswahlkampf umgebaut würde. Bei einem kompletten Verzicht auf die Kernenergie, einer Erhöhung des Windkraftanteils auf 20 und einer Verzehnfachung des Photovoltaik-Anteils auf 6 Prozent würden sich die Kosten der Stromerzeugung in Deutschland verdoppeln. Das könnte nicht ohne Einfluss auf die Beschäftigung bleiben. Doch zur „Stromarmut“ könnte es auf diesem Weg auch im wörtlichen Sinne kommen. Wird die genehmigte Laufzeit der noch arbeitenden 17 deutschen Kernkraftwerke nicht verlängert, würde Deutschland schon im Jahre 2015 zu einem Stromimportland, weil infolge der Finanzkrise und des Widerstandes „grüner“ Gruppierungen vor Ort inzwischen auch der Neubau von Kohlekraftwerken ins Stocken geraten ist.

Internet:

Im Zuge steigender Energiepreise wächst die „Energiearmut“

Billig-Solarzellen revolutionieren die Strombranche

Neue Hoffnung für Solarstrom

Solaranlagen-Herstellern droht überfällige Auslese

Literatur:

Manuel Frondel, Nolan Ritter und Christoph M. Schmidt: Photovoltaik: Wo viel Licht ist, ist auch viel Schatten, in: List Forum für Wirtschafts- und Finanzpolitik, Bd. 34, Heft 1/2008

====================================================================

Der Kampf gegen Windmühlen wird überflüssig

Ich bin stolz auf mich, denn ich konnte im letzten Sommer eine meiner Schwestern davon abhalten, ihre Ölheizung durch eine scheinbar modernere und nachhaltigere Gasheizung zu ersetzen. Von einem Freund in der Schweiz mit zuverlässigen Insider-Informationen versorgt, hatte ich etwa zur gleichen Zeit in Printmedien wie „Die Welt“, „Neue Zürcher Zeitung“ und „Wall Street Journal“ darauf aufmerksam gemacht, dass es Wirtschaftskreisen, die sich für den Bau riesiger Windparks an Land und auf hoher See stark machen, in Wirklichkeit darum geht, die Abhängigkeit Deutschlands und ganz Westeuropas von russischem Erdgas zu verstärken. Ich hatte auch auf Bestrebungen, ein internationales Gas-Kartell nach dem Vorbild der OPEC zusammenzubringen, aufmerksam gemacht und davor gewarnt, dass schon in diesem Winter von langer Hand vorbereitete Erpressungsversuche gestartet werden würden. Nun ist alles so gekommen, wie ich es vorausgesehen hatte. Gestern hat ein Wirtschaftsredakteur der „Welt“, der meinen Warnungen zunächst skeptisch gegenüber gestanden hatte, in der „Welt am Sonntag“ meine Sicht der Dinge voll und ganz bestätigt. Am 4. Februar hat der Kollege Daniel Wetzel nachgelegt, indem er eine Studie der Unternehmensberatung A.T. Keearney mit dem Titel „Von der Finanzkrise zur Energiekrise“ vorstellt. Diese Studie macht nicht nur deutlich, dass das amtliche Ziel, den Anteil „erneuerbarer“ Energien bis zum Jahre 2020 auf 20 Prozent zu steigern, völlig illusorisch ist, sondern zeigt auch, dass steigende Kapitalkosten auch den Bau klassischer Kohlekraftwerke erschweren. Deshalb gehe Deutschland auf eine Stromerzeugungslücke und auf eine drastische Verteuerung der Elektrizität zu.

Auf die Genugtuung, Recht behalten zu haben, hätte ich allerdings gerne verzichtet. Alle Warnungen sind aber für die Katz, wenn die ganze politische Klasse im festen Glauben, etwas Gutes zu tun, mit offenen Augen, aber dennoch blind, weil nicht sehen wollend, den wirtschaftlichen Selbstmord vorbereitet. Ehrlich gesagt, fühle ich mich zurzeit gegenüber der raschen Ausbreitung der postmodernen Geisteskrankheit Nihilismus ziemlich hilflos. Makabererweise wird die angebrochene tiefe Wirtschaftskrise, nach deren Ende von der Wirtschaftswelt, wie wir sie kennen, nicht mehr viel übrig bleiben dürfte, nun zum verlässlichsten Bündnispartner im Kampf gegen den um sich greifenden Realitätsverlust. Die Mandate-Pipelines der Investmentbanken, die sich mit der Finanzierung von Windparks und anderen „grünen“ Großprojekten befassen, leeren sich, wie man hört, wegen der sich verschärfenden Kreditklemme zusehends. Kein Wunder, dass die Lobbyisten der „Erneuerbaren“, deren Geschäftsmodelle ohnehin weitestgehend auf Fiktionen und Subventionen beruhen, nun nach zusätzlicher Staatsknete rufen.

Ohne eine Rückbesinnung auf die christlichen Wurzeln Europas werden demgegenüber wahrheitsbasierte Geschäftsmodelle aber kaum Chancen haben. Denn un- wenn nicht antichristlicher Liberalismus ist auch nur eine Form von Nihilismus. Nicht zufällig wurde die ökologistische Ersatzreligion, auf die sich heute die Nihilisten aller Parteien berufen, hauptsächlich über (links-)liberale Netzwerke verbreitet. Freilich wird es dem säkularen Europa nicht leicht fallen, zum christlichen Glauben zurückzufinden. Wer nicht glauben kann, der soll zumindest so tun, „als ob es Christus gebe“, rät deshalb der italienische Atheist und Popper-Schüler Marcello Mera in seinem neuen Buch „Warum wir uns Christen nennen sollten – Liberalismus, Europa und Ethik“ (Ed. Mondadori, 2008). Mit diesem Thema werde ich mich im angebrochenen Krisenjahr wohl hauptsächlich beschäftigen. (5. Februar 2009)

Internet:

Offshore kämpft mit der Finanzkrise

Die Finanzkrise entwickelt sich zur Energiekrise

Auch veröffentlicht unter dem Titel „Die Krise als Bündnispartnerin“ auf ef-magazin online.

===========================================================

Roland Tichy über den grünen Selbstbetrug

WiWo-Chefredakteur Roland Tichy schreibt im seinem Editorial vom 14. Februar 2009: „Ausblendet wird, dass Windräder die brutalste Landschaftszerstörung seit Erfindung des Betons sind und unterm Strich kein CO2 sparen.“

=====================================================================

Windräder bringen nichts für CO2-Ziel

Nun merken auch die GRÜNEN, dass die Verwandlung Deutschlands in einen Vogelscheuchenpark klimapolitisch völlig wirkungslos ist. Verantwortlich machen sie dafür aber nicht die lediglich ins Gigantische hochgezüchtete Uralt-Technik der Windräder, deren Wirkungsgrad mit wachsender Größe sinkt, sondern den europäischen Emissionshandel auf der Basis fester CO2-Quoten für jede nationale Volkswitrtschaft. Wird mehr Strom durch Windkraftanlagen erzeugt, werden CO2-Zertifikate frei. Die Stromkonzerne können die freigewordenen Zertifikate gewinnbringend an Länder wie Polen veräußern, deren Stromerzeugung größtenteils auf Kohlekraftwerken basiert. Unterm Strich wird dadurch selbstverständlich keine einzige Tonne CO2 eingespart. Obendrein ist der Preis der CO2-Zertifikate wegen der Wirtschaftskrise stark eingebrochen. Die Zukunft des europäischen Emissionshandelssystems ETS steht in den Sternen. Um es zu retten, müsste eiegentlich das deutsche das deutsche Gesetz zur Förderung Erneuerbarer Energien ersatzlos gestrichen werden. Doch da stellt sich eine Lobby quer, die vorgibt, nicht auf Profit, sondern auf die Rettung der Welt hinzuarbeiten. (10. Februar 2009)

===========================================================

Das Desaster der deutschen Energiepolitik im Internet:

CO2-Speicherung ist wirtschaftlich nicht machbar. Deshalb rufen die Energieriesen jetzt nach dem ohnehin schon bankrotten Staat

Durcheinander in der Ukraine

Konrad Schuller analysiert Moskaus Angriffe auf die Souveränität der Ukraine

Ungereimtheiten des Gasstreits mit der Ukraine

Deutschland zieht den Kürzeren im europäischen Emissionshandel

CCS noch lange nicht marktreif

Deutsche Energiepolitik: Vom Dilemma zum Desaster?

Die Neue Zürcher Zeitung vom 23. August 2008 kann es sich leisten, die Sackgasse, in die die deutsche Energieversorgung zu geraten droht, ohne politische Rücksichtnahme auf der ersten Seite zu analysieren. Ich empfehle dringend die Lektüre dieses Artikels, der ohne meine Mitwirkung entstanden ist.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Bedrohliche Gasabhängigkeit von Russland

Energiepreise: Die Ohnmachtpolitik des Westens

In der Neuen Zürcher Zeitung analysiert Peter Robejsek, Dozent in Wedel bei Hamburg, unvoreingenommen die kritische Lage des Westens im Kampf mit autoritären kapitalistischen Regimes, die über die entscheidenden Rohstoffvorkommen verfügen. Pflichtlektüre für alle, die sich auf unsere nicht ganz gemütliche Zukunft vorbereiten wollen!

Interview mit dena-Chef Stefan Kohler in der „Wirtschaftswoche“

Man kann nicht gleichzeitig aus Kohle und Kernkraft aussteigen. Diese nicht neue erkenntnis versucht Stefan Kohler seinen politischen Freunden nahe zu bringen. Würden keine neue Kohlekraftwerke gebaut, müsste die Laufzeit der KKW verlängert werden, denn Wind und Sonne seien nun mal von Natur aus unzuverlässige Energiequellen, die ein konventionelles backup benötigen. Schon ab 2015 können in Deutschland die Lichter ausgehen, weil dann auch im angrenzenden Ausland keine ausreichenden Kapazitäten für die Steigerung von durch Deutschland mehr vorhanden sein werden. Kohler verschweigt, dass die massive Förderung der Windkraft durch das binnenmarktswidrige deutsche EEG die Wurzel aller Schwierigkeiten im deutschen Energieversorhungssystem ist. Kein Wort auch darüber, dass ein gutes Backup der unsteten Stromlieferung der Wind- und Solarkraftwerke unter den gegebenen Bedingungen nur durch Gasturbinen geleistet werden kann. Er darf nicht durchblicken lassen, dass hinter dem deutschen Windkraft-Boom die Interessen der von seinem Parteifreund Gerhard Schröder vertretenen Gas- und Gasturbinen-Verkäufer stehen (3. August 2008).

„Heuschrecke“ Blackstone investiert in Nordsee-Windpark

Da deutsche Banken wegen der damit verbundenen hohen finanziellen und technischen Risiken bislang um die von der Bundsregierung gewünschten riesigen Offshore-Windparks einen großen Bogen machten, freut sich Bundesverkehrs- und Bauminister Tiefensee nun, dass die US Private Equity Firma Blackstone hier als Investor einsteigen will. Blackstone-Chef Schwarzmann, der in New York das größte Geburtstagsfest aller Zeiten feierte, wird wissen, warum er sich auf einmal für Windräder interessiert…

Das Wind-Gas-Kartell

von Edgar Gärtner

Der 80-jährige texanische Öl- und Gasmilliardär T. Boone Pickens möchte sich ein Denkmal setzen, indem er seine Landsleute mit Tausenden von Windrädern beglückt. Nun hat er die ersten 667 Windräder mit einer Gesamtkapazität von 1.000 Megawatt für zwei Milliarden Dollar beim „grünen“ US-Mischkonzern General Electric (GE) bestellt. Damit möchte der anscheinend vom Saulus zum Paulus gewandelte Geschäftsmann mithelfen, die hohe Abhängigkeit seines Landes von Ölimporten zu vermindern.

Was auf den ersten Blick wie der philanthropische Größenwahn eines Senilen anmutet, ist vermutlich Ausfluss einer höchst gerissenen Geschäftsstrategie. Waren frühere Windkraft-Investoren vielleicht noch wirklich davon überzeugt, mit ihrer guten Tat die Welt retten zu helfen, so geht es den heutigen in der Regel um etwas ganz anderes. Es hat sich herumgesprochen, dass jedes Kilowatt installierte Windleistung durch eine entsprechende Leistung einer Gasturbine ergänzt werden muss, um die Unstetigkeit des Windes auszugleichen. Wer sich heute für Windräder stark macht, dem geht es also höchstwahrscheinlich eher darum, Gasturbinen und/oder Gas zu verkaufen. In der Tat: Zu Pickens’ Firmengruppe gehört die außerordentlich erfolgreiche Gas-Explorationsfirma XTO-Energy.

Auch bei der „Ecomagination“-Kampagne von GE liegt das Gas-Interesse auf der Hand. GE bietet inzwischen seine Windmühlen besonders preisgünstig an, um Bestellungen von Gasturbinen zu pushen. Bei Gasturbinen ist GE unangefochten Weltmarktführer und verdient damit viel mehr als auf dem umkämpften Markt für Windräder. Darüber kann sich selbst Rex Tillerson, der Chef des Öl-Giganten Exxon freuen. Obwohl Tillerson gutmenschliche Wadenbeißer auf die Palme bringt, weil er nicht viel von Investitionen in „erneuerbare“ Energien hält und fortwährend wiederholt, dass Öl sein Kerngeschäft bleibt, hat auch er längst kapiert, dass mit Erdgas viel mehr zu verdienen ist. Dort investiert Exxon neuerdings kräftig.

Sein europäischer Wettbewerber Royal Dutch Shell hat sich, kaum bemerkt von der Öffentlichkeit, längst in einen Gas-Konzern verwandelt, der – je nach Standort – eng mit staatseigenen Lieferanten wie Gasprom (Russland) oder Sonatrach (Algerien) kooperiert. Inzwischen sieht sich die EU in der Energiepolitik einer geschlossenen Front von Gaslieferanten, einer Art Gas-OPEC, gegenüber, zu der neben den genannten Konzernen auch das Emirat Quatar und die Öl- bzw. Gas-Konzerne Chevron, BP und Totalfina gehören.

Kürzlich verlautete auf dem World Petroleum Congress (WPC) in Madrid, schätzungsweise 88 Prozent der in den kommenden 20 Jahren in der EU installierten Kraftwerkskapazitäten entfielen voraussichtlich auf kombinierte Gas- und Dampfturbinen (CCGT). In Spanien sind solche Turbinen mit 21 Gigawatt Gesamtkapazität bereits zur wichtigsten Stromquelle geworden. Das ist kein Zufall, denn Spanien ist nach Deutschland das EU-Land mit der höchsten Windkraft-Kapazität. Diese erreichte Ende 2006 11.000 Megawatt. Bei schätzungsweise 2.000 Volllaststunden im Jahr entspricht das einer Elektrizitäts-Produktion von 23 Terawattstunden. Um diese sehr unregelmäßig anfallende Strommenge im Netz abzupuffern, eignen sich nur rasch an- und abschaltbare Gasturbinen.

Einen zusätzlichen Auftrieb erhalten die Gasverkäufer durch den europäischen CO2-Emissionsrechte-Handel. Sobald die Emissionsrechte, wie vorgesehen, ab 2013 ersteigert werden müssen, macht der Emissionshandel Investitionen in die energetische Nutzung der reichlich verfügbaren Braun- und Steinkohlevorräte uninteressant. Der Vormarsch des Gases in der Stromproduktion der EU führt zur fatalen Konsequenz, dass es schon bald keine echte Wahlmöglichkeit zwischen leitungsgebundenen Energieträgern mehr geben wird. Die wichtigste Alternative zum Einsatz von Erdgas in Turbinen ist übrigens Kerosin, das zurzeit, bezogen auf die enthaltene Wärmeenergie, etwa doppelt so viel kostet wie Rohöl. Dadurch zeichnet sich der Korridor der zukünftigen Entwicklung des Gaspreises ab.

Statt in Europa wird die weltweit zu günstigen Preisen verfügbare Kohle nun ausgerechnet in den Öl- und Gasförderländern verstärkt genutzt. Russland baut Kohlekraftwerke, um das immer teurer werdende Gas für den Export zu reservieren. Auch das Emirat Dubai baut für die eigene Stromversorgung Kohlekraftwerke, weil dessen Wirtschaftsstrategen die eigenen Öl- und Gasvorräte dafür zu schade erscheinen. Für die Energiepolitik Deutschlands und der meisten EU-Länder gibt es nach alledem nur ein Urteil: Dümmer geht’s nimmer! (14. Juli 2008)

Am 24. Juli 2008 in etwas abgespeckter Form in DIE WELT erschienen.

**********************************************************************************************************************

Vorreiter = Verlierer?

Ist jemals in der deutschen Geschichte ein Vorreiter zum Sieger geworden? Die Geschichte des Vorreiters in der Schlacht von Tannenberg und andere historische Beispiele helfen Ihnen vielleicht, diese Frage zu beantworten. Auch die von Dr. Angela Merkel und ihren Vorgängern im Bundeskanzleramt gewählte Vorreiter-Rolle im „Klimaschutz“ dürfte die Reihe negativer historischer Erfahrungen fortsetzen. Das lässt eine Studie des Stromkonzerns RWE erahnen. (13. Juli 2008)

**********************************************************************

Die Deutschen entdecken wieder den Reiz der Kernkraft. Doch diese hilft nur kurzfristig

Winand von Petersdorff berichtet in der Frankfurter Allgemeinen Sonntagszeitung vom 6. Juli 2008 über die Ergebnisse einer im Auftrag der Atomlobby durchgeführten Blitzumfrage. Danach sprechen sich 60 Prozent der befragten Männer und immerhin 35 Prozent der (vermutlich mit weniger gesundem Menschenverstand ausgestatteten) Frauen für eine Verlängerung der unter Bundeskanzler Gerhard Schröder im „Atomkonsens“ mit der Energiewirtschaft vereinbarten Restlaufzeiten alter Kernkraftwerke aus. Dieser Wandel im Meinungsbild ist gut nachvollziehbar. Denn die längst abgeschriebenen Atommeiler liefern für etwa 2,5 Eurocent je Kilowattstunde konkurrenzlos billigen Strom.

Ob es dadurch wirklich zu einer „Renaissance“ der Kernenergie kommt, ist eine andere Frage. Deren Beantwortung hängt davon ab, ob sich private Investoren für den Neubau von Kernkraftwerken finden werden. Dafür gibt bislang keine Anzeichen. Als die britische Labour-Regierung vor wenigen Monaten die Kernenergie wieder offiziell für politisch korrekt erklärte, ließen die eingeladenen Investoren sofort verlauten, sie würden hier nur einsteigen, wenn sich auch der Staat massiv beteilige.

Immerhin könnte eine Verlängerung der Laufzeit bereits existierender KKW für zwei Jahrzehnte unsere Grundlastversorgung sichern. Um das auch längerfristig zu erreichen, käme es aber darauf an, mit dem CO2-Treibhaus-Dogma und der damit verbundenen Verteufelung des Kohlenstoffdioxids wie der Kohle als Brennstoff Schluss zu machen und in Deutschland zig moderne Braun- und Steinkohlekraftwerke zu errichten – und zwar ohne die von der Politik geforderte Abscheidung und Endlagerung des Verbrennungsabgases CO2 (bekannt unter dem Kürzel CCS), die wegen der damit verbundenen erheblichen Wirkungsgrad-Einbuße die zurzeit preisgünstige Kohleverfeuerung unnötig verteuern würde.

Fährt Deutschland jedoch fort, die Erschließung der unsteten Windenergie durch die geplante Anlage von 30 riesigen Windrad-Parks in Nord- und Ostsee voranzutreiben, dann müssten die Investitionen zur Sicherung der Grundlastversorgung durch ebenso massive Investitionen in rasch an- und abschaltbare Gasturbinen für windarme Zeiten ergänzt werden, was die Abhängigkkeit Deutschlands von russischem Erdgas enorm vergrößern würde. Alexej Miller, der Chef des mächtigen russischen Gasprom-Konzerns, freut sich bereits auf das infolge des Ausbaus der Windkraft in Deutschland winkende zusätzliche Geschäft. Das auf Preisvergleiche spezialisierte Verivox-Portal rechnet wegen der Bindung des Gaspreises an den Rohölpreis bereits für den kommenden Winter mit einer Verdoppelung der Heizkosten für Privathaushalte. Andere Experten rechnen sogar damit, dass der Gaspreis wegen des wachsenden Bedarfs an Regelenergie für die unregelmäßige Einspeisung von Windstrom ins deutsche Netz schon bald den Ölpreis weit hinter sich lassen wird. Da erscheint die Forderung von Bundesverkehrsminister Wolfgang Tiefensee, die Pläne für die Errichtung von Offshore-Windparks müssten schleunigst umgesetzt werden, um Deutschlands Abhängigkeit von Energieimporten zu vermindern, in einem anderen Licht. Als Investor für die Offshore-Windparks, um die deutsche Banken bislang wegen der damit verbundenen unwägbaren Havarie-Risiken einen großen Bogen gemacht haben. bietet sich neuerdings die „Heuschrecke“ Blackstone an. Vor diesem Hintergrund erscheint Tiefensees Vorstoß als blanker Hohn, wenn nicht als bewusste Irreführung der Deutschen im Dienste der Kreml-AG und des Finanzkapitals. Solange am CO2-Treibhaus-Dogma nicht gerüttelt wird, wird es für die wachsenden Probleme der Energieversorgung wohl keine vernünftigen Lösungen geben.

(Unter dem Titel „Her mit der Kohle“ in Kurzform auch in DIE WELT vom 11. Juli 2008 erschienen.)

**************************************************************

Der hohe Ölpreis hat nichts mit einer Verknappung zu tun

Unter der Überschrift „Theorien vom knappen Öl sind Märchen“ brachte die Online-Ausgabe der FAZ am 1. Juli 2007 eine interessante Übersicht über die weltweite Entwicklung der Rohölvorräte. Viele der schon lange bekannten Vorkommen wurden bislang nur unzureichend ausgebeutet, da es günstiger war, neue Vorkommen zu erschließen, als die alten optimal zu nutzen. Die jüngste Entwicklung der Rohölpreise ändert die Ausgangslage.(1. Juli 2008)

***************************************************************

„Klimaschutzpaket“ – Abkassieren ohne Gegenleistung

Was der “Klimaschutz” von der Freiheit übrig lässt

Klima 2055. Fakten – Illusionen – Visionen
von Lutz Peters, Olzog Verlag, München 2007, 176 Seiten
Preis: EUR 24,90 ISBN-13: 978-3789282041

Klima 2005 - Fakten - Illusionen - VisionenDer Hamburger Betriebswirt mit Verbindungen zu einem Hersteller von synthetischem (CO2-neutralen) Diesel hat auf der Basis der offiziellen Lehrmeinung über die Ursachen des Klimawandels ein Szenario über unsere Energieversorgung im Jahre 2055 gebastelt. Es bleibt unerfindlich, warum diese düstere Vision in einem bislang als liberal bekannten Verlag erscheinen musste. Denn für Freiheit ist darin kein Platz. Peters geht wie selbstverständlich davon aus, dass Energie in 50 Jahren so teuer sein wird, dass es keine Privatautos und keinen Ferntourismus mehr gibt. Nur reiche Geschäftsleute können es sich leisten, mit Wasserstoff-getriebenen Hyperschall-Flugzeugen die Welt zu umrunden, um sich mit Wissenschaftlern zu Klima-Konferenzen zu treffen. Peters plädiert mit Leidenschaft für eine Renaissance der Atomkraft – vor allem in Form des inhärent sicheren Hochtemperatur-Reaktors. Dieser eignet sich für die extrem energieaufwändige Erzeugung von Wasserstoff. Dessen Einsatz als Treibstoff werde aber auch in 50 Jahren noch völlig unwirtschaftlich sein, betont Peters. Dennoch gebe es dazu keine Alternative, weil der Netto-CO2-Ausstoß der Menschen bis dahin auf Null gebracht sein müsse, um allmählich wieder zum „vorindustriellen“ CO2-gehalt der Luft von 280 ppm gelangen zu können. Andernfalls werde der Golfstrom, den er für den „Klimamotor“ hält, absaufen. Peters scheint nicht zu verstehen, dass Wetter hauptsächlich durch die Zirkulation von Luftmassen unterschiedlichen Drucks gemacht wird und nicht durch Meeresströmungen. Er scheint nicht zu wissen, dass es außer der über 100 Jahre alten verstiegenen Hypothese eines schwedischen Chemikers keinerlei Hinweis darauf gibt, dass CO2 das Wetter beeinflusst. M.E. zeigt das Buch von Peters vor allem eines: Die Diskussion über eine Energiepolitik mit dem Ziel einer sicheren und bezahlbaren Energieversorgung sollte sauber von der noch lange nicht abgeschlossenen Debatte über mögliche Ursachen des Klimawandels getrennt werden.

Edgar Gärtner (veröffentlicht in: eifrei 76/Oktober 2007)