Nachhaltige Begriffsverwirrung um „Erneuerbare“



 Beim Schlagwort „erneuerbar“ bekommen die meisten Deutschen leuchtende Augen. Glaubt man Meinungsumfragen, so hätten 80 bis 90 Prozent der Deutschen gerne so rasch wie möglich eine Energieversorgung, die zu hundert Prozent auf „Erneuerbaren“ beruht. Da hilft es wenig darauf hinzuweisen, dass es nach den Gesetzen der Physik in der irdischen Welt überhaupt keine erneuerbare Energie geben kann, weil jede Form hochwertiger, zur Arbeitsleistung tauglicher Energie sich nach getaner Arbeit in nutzlose, das heißt diffuse Abwärme verwandelt. Aber die Unterscheidung zwischen erneuerbaren und nicht erneuerbaren Ressourcen hat sich inzwischen so fest im allgemeinen Sprachgebrauch eingebürgert, dass man meinen könnte, sie gehe auf den Schöpfer selbst zurück. Weiterlesen

Sisyphus im Dienste der Umwelt: Chemischer Pflanzenschutz

Von Edgar L. Gärtner

Chemische Pflanzenschutzmittel (Pestizide) gelten heute als Problemstoffe, deren Entwicklung, Herstellung, Vermarktung und Anwendung strengen gesetzlichen Vorschriften unterliegt. Gerade ist die Europäische Union wieder einmal dabei, mit der Verordnung EG 1107/2009, die im Juni 2011 in Kraft treten wird, die Zu-lassung von Pflanzenschutzmitteln neu zu regeln, um noch strengeren Umwelt-schutz-Anforderungen gerecht zu werden. Das Inverkehrbringen vieler hochwirk-samer, aber potenziell gesundheits- oder umweltschädlicher Substanzen wird dann von vornherein gar nicht mehr erlaubt sein, selbst wenn diese bislang sicher gehandhabt wurden. Weiterlesen

Warnung vor Ausfall des GPS wegen Sonneneruption

Während die Welt noch im Bann des Tsunami mit folgender Nuklear-Havarie in Japan steht, bahnt sich bereits neues Unheil an. Anfang September 2005 bemerkte ein Doktorand der amerikanischen Cornell Universität eher zufällig, dass koronare Massenausbrüche der Sonne (Flares), die von großen Sonnenflecken angetrieben werden, in gefährlicher Weise die Funktion von GPS-Empfängern stören können. Der Doktorand namens Alessandro Cerruti untersuchte während einer vergleichsweise schwachen Sonneneruption in Puerto Rico mithilfe eines GPS-Scintillometers Unregelmäßigkeiten der irdischen Ionosphäre. Hätte er seine Messungen nachts durchgeführt, wäre ihm gar nichts aufgefallen. Doch im Sonnenlicht sank die Stärke des GPS-Signals während 15 Minuten auf etwa die Hälfte. Cerruti schloss aus seiner Beobachtung, dass stärkere Sonneneruptionen, wie sie im Maximum des elfjährigen Sonnenfleckenzyklus zu erwarten sind, GPS-Signale leicht über 90 Prozent abschwächen können, was bedeutet, dass die Satelliten-Signale von GPS-Empfängern nicht mehr vom Hintergrund-Rauschen unterschieden werden können. Das hängt damit zusammen, dass die Sonneneruptionen eine große Bandbreite starker elektromagnetischer Wellen erzeugen, die gerade in den vom Global Positioning System benutzen 1,2- und 1,6-Gigahertz-Bändern am stärksten sind. Weiterlesen

Precaution or Arbitrariness?

The “precautionary principle” leaves open the question of whether preventive measures are also subject to cost-benefit criteria or not. Even non-monetary evaluations of the costs and benefits of actions to prevent hypothetical threats appear all too often more than doubtful, especially when they show that screening is only available at the cost of individual freedom. In real life people often have to decide between two evils. Which one is the lesser?

Prevention is not Always Better than The Cure

by Edgar L. Gärtner

Lessons about Precaution from the Swine Flu Vaccine Fiasco

The French government under the ever-energized President Nicolas Sarkozy became aware at the beginning of the year that it was threatened to sit on more than 90 million doses of Swine flu vaccine, hastily ordered last year to face an allegedly advancing pandemic. Only five out of currently more than 60 million French people got vaccinated to date against the exaggerated threat of a planetary swine flu pandemic. According to estimates by physicians, at the same time more than 20 million French people got immunized against the new flu variant free of charge, i.e. by responding to infection with barely perceptible slight flu symptoms. More than one billion euros seemed to be set in the sand. In the German federal states, the situation is similar but not quite as bad as in France. Since the ordered batches are in part not yet produced, France and Germany managed to cancel at least part of their orders. Especially in France the following questions remain unanswered: Why almost 100 million vaccines were ordered – three times more than what would have been necessay for a reasonable coverage of the population? Why did the government invest simultaneously on a vast storage of the controversial flu drug Tamiflu (one third of total world reserves!)? Why were expensive gas masks purchased, but only available for top officials and managers?

I’m not looking for responses like those given by libertarians and conspiracy theorists, whereby the virus itself H1N1 and his propagation is imputed to worldwide machinations of pharmaceutical companies GlaxoSmithKline (GSK), Sanofi-Pasteur and Novartis. I restrict myself rather to the official justification of action by the “precautionary principle”. This decision scheme was invented in Germany at the beginning of the 70s and became known worldwide after the 1992 “Earth Summit” in Rio de Janeiro under the following definition: “Where there are threats of serious or irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation.” (Principle 15 of the Rio Declaration). Subsequently, this principle was introduced into the Maastricht Treaty, the Lisbon Constitutional Treaty and the French Constitution. As Nicolas Sarkozy has himself set upon overrun the Germans with preventive rhetoric, he gave his officers orders to try hard to follow the principle consistently. But just by doing that they have created the problems they are now facing. Because unlimited provision is an absurd idea. Those who constantly concentrate on precaution, forget to live. The precautionary principle is useful only insofar as it is not consistently applied. Healing is much more important than prevention, even though the welfare state’s advertising is mindlessly repeating the opposite.

The above-quoted definition of the “precautionary principle”, namely, leaves open the question of whether preventive measures are also subject to cost-benefit criteria or not. Widespread is the view that cost considerations are not justified when it comes to human life. If this argument was valid, there would be neither life nor accident insurance. Underlining this I do not deny that the monetary evaluation of life issues must remain very restricted. But even non-monetary evaluations of the costs and benefits of measures to prevent hypothetical threats appear all too often more than doubtful, especially when they show that screening is only available at the cost of freedom. There are exceptions like private retirement plans or provisions for maintenance and repair costs, as well as precaution measures against harmful events, whose probability can be realistically estimated. But even in these cases it is often not enough to weigh between the advantages and disadvantages of economically justifiable protection measures. In real life instead, people often have to decide between two evils. Which one is the lesser?

Such decisions, if they are not spontaneously taken from the gut, can in general not be justified without any reference to religious belief. As long as Christianity was prevailing in Europe this was no problem. Later, Christian Humanism was successively replaced by Ecologism, a synthetic mix of knowledge and unfounded beliefs with a clear misanthropic, if not nihilist tendency. No wonder that allegedly preventive actions and investments, justified by the “precautionary principle” more and more turn out to be economically disastrous.

Internet:

Revisiting the Swine flu lies and hysteria

France’s Swine Flu Fiasco

Financial Time on France’s Vaccine Flop

The Rio Declaration on Environment and Development (15 January 2010)

==========================================================================================

Precaution or Arbitrariness?

Plasticizers in Political Crossfire

By Edgar Gärtner

This study has been made possible by the financial support of the AgPU – Working Group on PVC and the Environment, Bonn

The EU ban on plasticizers in toys

Despite the enormous health benefits brought by the use of DDT, which provided an extremely effective insecticide and was instrumental in the fight against malaria, a total ban was imposed on its use in 1972 on the basis of unsubstantiated health and environmental threats. International bans have since been introduced on other substances and, once in place, they are virtually impossible to reverse.

Similarly, unfounded suspicions and accusations led the EU to impose a total ban on the use in children’s toys of three plasticizers employed in the manufacture of PVC (DEHP, DBP and BBP). It also has prohibited the use of three additional plasticizers (DIDP, DNOP and DINP) in babies’ toys intended to be put in the mouth. This is not the EU’s first attempt to impose a substance ban motivated primarily by politics – as opposed to a decision made on sound scientific principles. Yet this case forms a precedent which would serve to create lasting, fundamental, and possibly irreversible flaws in EU policies on technology and the environment.

Only one of the substances, DINP, is currently in general use in children’s toys. This material has been subjected to a thorough risk assessment in the EU and again in the US, and has been found to be quite safe. Industry has spent over 130 million Euros in total to assess the health and environmental risks of plasticizers such as DEHP. A core reason for these tests was these plasticizers’ widespread use in medical equipment. All have now been in such longstanding use that if there had been any harmful side effects from their application these would have long since come to the fore. The EU now forces manufacturers of pacifiers, plastic ducks and baby equipment to switch to alternative plasticizers, which have not been investigated as thoroughly, have often not been tested for these applications and are often considerably more expensive.

Adipates are one possible substitute. Their possible impact on human health and the environment to appear to be slight, but so far they have not been subjected to such exhaustive examinations as have the six banned substances. Other alternatives, although extant for some time, have a high migration tendency, and are clearly much less suitable for these applications.

Citrate esters, touted by environmental groups as more environmentally and health-friendly, migrate from treated materials so quickly that these objects easily become brittle. Toys manufactured using citrate esters as plasticizers will therefore put children at risk of swallowing broken-off fragments. Are we therefore justified in substituting a (theoretical) health risk with the much more concrete risk of a child choking?

Greenpeace activists, on whose arguments the EU’s actions were based, don’t appear to be losing any sleep over such questions. In fact, they are demanding that toy manufacturers abandon the use of PVC altogether. According to them, soft PVCs in toys should be replaced with rubber. However, the effect of heat during the vulcanization process of rubber results in carcinogenic nitrosamines, and the substitution of organic for petroleum-based rubber will simply substitute a new, ‘natural’, set of carcinogens.

This raises the question of who decides which materials may be used: Greenpeace? The EU Commission? Science? Nature? And just who is ‘Nature’? Aren’t humans also part of nature, including the average consumer who weighs up product choices and then consciously chooses PVC? Wouldn’t it be better to choose the winner out of several competing market-based solutions?

As I see it, the debate over the advantages and risks of plasticizers boils down to one question: “Can safe and sustainable solutions be developed through the interaction between inventors and the needs and wishes of consumers?”

Mankind has been using plasticizers since the Stone Age, when plant oils were worked into stiff animal pelts to make soft leather. With the advent of different types of soft PVC in the twentieth century, researchers found that PVC performed better when combined with phthalates than with other materials on the market. Plasticizers are used to achieve desired qualities such as flexibility, flame retardation or low-temperature resistance.

In hindsight, it is clear that modern industry would not have been able to develop without both the development of synthetic plastics, and, secondly, inexpensive plasticizers that improve the processing ability and durability of natural materials. However, this development required a long and somewhat painful process of trial and error. And, had this been hampered by bureaucratic ‘precautionary measures’, it simply would not have taken place.

PVC began to lose its innocence in 1961 as experiments carried out on rats in the US showed clear indications of the highly carcinogenic potential of the vinyl chloride monomer (VCM), used to manufacture PVC. Even in low concentrations, VCM provoked a rare form of liver cancer. In the early 1970s, numerous workers exposed to VCM developed various conditions including liver cancer. Strict measures and exposure limits were immediately introduced. However, an undercurrent of fear took hold in the public’s mind that PVC products could leech out insidious poisons. And this same fear has most probably since attached itself to plasticizers as well.

In subsequent decades, this undercurrent grew. In the American biologist Barry Commoner’s book The Closing Circle – Nature, Man, and Technology (1971), PVC plasticizers play a similar villainous role to the (unfounded) accusations weighed against the insecticide DDT in Rachel Carson’s Silent Spring (1962). Pressure from environmentalists came to a head following the escape of the ‘super-poison’ dioxin into the environment at the chemical plant at Seveso, Northern Italy in July 1976.

The accusation of being carcinogenic has been levelled in general against plasticizers used in PVC, and particularly against DEHP. In the early 1980s, DEHP was classified as ‘potentially carcinogenic’ by the International Agency for Research on Cancer (IARC) on the basis of experiments on rodents which showed a tendency to develop liver tumours following exposure to high doses. It was later proven that humans and higher mammals are not at risk because they metabolize DEHP differently. The IARC has since reclassified DEHP as “not classifiable as to its carcinogenicity to humans.”

The German Parliament created a special Enquete Commission to investigate the influence of chemicals on humans and the environment. The Commission also covered chlorine and PVC. The findings from the first phase were published in 1994 (pages 362–364):

„…following years of intensive debate, PVC is today far and above the most researched materials in respect of its environmental impact. (…) the commission cannot recommend the substitution of other materials for PVC without sound economic or ecological reasons to support this. Any such substitution would carry the risk of creating new problems – and would possibly lead to a worsening of the overall situation vis-à-vis the present.“

How risk assessment became a political issue

In 1993, the EU issued the 793/93/EEC Directive analyzing the risks associated with around 100,000 ‘old’ chemicals – substances registered prior to September 1981 in line with the (then) EEC’s Dangerous Substances Directive (67/548/EEC). In 793/93/EEC, Article 15 now called for the testing of substances arousing particular suspicion. Later that year, they also published a priority list of 134 substances. This list included phthalates used as plasticizers for PVC. Four further PVC plasticizers appeared in the two subsequent priority lists. If decades of suspicion had not already fallen on these substances, then nobody would have been able to fathom just how phthalates found their way onto this list. It would suggest that their inclusion owed less to scientific scrutiny than it did to political pressures.

Given that environmental groups and political parties were already on the warpath; firms, industry associations and scientists targeted in this attack had no other choice but to play ball. They were confident, though, that the toxicological and ecological risk assessments would bear out their own conclusions. However, well before the risk assessment had been completed, the debate on these materials was forced by pressure from media campaigns and the protestations of environmental groups.

The health and environmental risks for Di-butyl-phthalate (DBP) were tested by the EU in 1994. DBP is only used in small quantities as a plasticizer in PVC. The toxicologists found that DBP posed no health risk to consumers, even when it was smeared directly on the skin. In test-tube experiments (though not in animal experimentation) DBP showed a weak oestrogen-producing effect (‘feminizing’) and was therefore characterized as “possibly affecting fertility” and given a Category Two (“harmful to fertility”) rating. In addition, DBP was found to cause potential harm to vegetation.

In 1995, the EU tested Di(2-ethylhexyl)phthalate (DEHP) which had previously been the standard plasticizer for PVC, which had appeared in the second list of high-risk chemicals (noted above). This risk assessment has only recently been completed and has proven a tug of war between the various stakeholders. During this assessment process, a group of doctors specializing in occupational and community medicine published new research findings which suggested a completely new assessment of the legacy of DEHP in the broader population. The German Federal Institute for Risk Assessment’s (BfR) and the CSTEE’s (European Commission Scientific Committee on Toxicity, Ecotoxicity and the Environment) conclusions from this study, needed to be revised on the back of studies conducted in Erlangen on volunteers, even before the CSTEE’s published its findings.

CSTEE’s final Risk Assessment Report does not exclude the possibility that DEHP absorption could have a potential impact on occupational health. Both adults and children could theoretically suffer health damage as a result of the use of DEHP in medical apparatus. Toddlers are put at risk through sucking toys containing DEHP. On these grounds, the report supports the EU’s pronounced ban on materials and calls for strict workplace protection measures. And on the back of experiments on rats, DEHP joined DBP in being designated as “impairing fertility” and was also given a Category Two rating, and has been totally banned from use in toys.

In 1995, it was the turn of Diisononyl phthalate (DINP) and Diisodecyl phthalate (DIDP) to be assessed. Both were increasingly important standard plasticizers for PVC also placed on the EU’s second priority list. However, the risk assessment of these materials was much less controversial than that of DEHP, and the political conclusions drawn from this study seem all the more baffling as a result. The EU toxicologists have not found the slightest exposure risk for these substances – not even in their use in babies’ toys. In the case of DIDP, they only found a theoretical risk for its universal use in children’s toys. This conclusion was confirmed in April 2006 by the EU Commission in the EU’s Official Journal. The EU has nevertheless imposed a ban on the use of both plasticizers in children’s toys.

In 1997, Butylbenzyl phthalate (BBP) was assessed. This plasticizer is used in tubes, cables, artificial leather and food packaging. On the results of animal experiments, it was given a Category Two “harmful to fertility” rating. The obligatory fish test used in assessing environmental risks had to be abandoned as BBP proved to biologically degrade much more rapidly in the environment than other phthalates discussed. That these plasticizers find their way into the food chain is a myth. The opposite is the case: the concentration of these phthalates declines as organisms higher in the food pyramid break these substances down in their digestive systems and excrete them.

In order to understand the dichotomy between the scientific risk assessments and their political evaluation we have to look back once again to the 1990s. In November 1997, well before the EU completed its risk assessments, Greenpeace published the following warning:

Greenpeace has carried out random tests on 23 toys manufactured by Mattel, Fisher Price, Tyco and Safety First. In 12 of these toys, the amount of plasticizers given off exceeds the recommended limit of 3mg per cm2 surface area as set by the Federal Institute for Consumer Health Protection and Veterinary Medicine (BgVV).

The Working Group on PVC and the Environment (AgPU), in conjunction with Mattel, and three recognized independent analysis institutes, set out to refute Greenpeace’s findings. It quickly became clear that Greenpeace had not been able to measure any phthalate emissions but instead has measured the total amount of volatile organic compounds (TVOC). Greenpeace was tacitly going on the assumption that the amount of TVOC was equivalent to the phthalate emissions. It was however known that TVOC normally stems from solvent emissions. But the laboratory contracted by Greenpeace had not even set this according to the then valid measurement standards.

All three of the laboratories commissioned by AgPU and Mattel established that the amount, if any, of DEHP and DINP emissions from children’s toys was too small to be measured. It was also evident that the EU had no generally accepted method to simulate the sucking out of phthalates from babies’ toys. However, the offer by the PVC and toy industries to develop a joint verification process was met with the following reply by Greenpeace spokesperson Judit Kamthak:

„in your communication of 28 January 1998 you suggest a joint verification process. In our opinion this is not necessary and would take the discussion backwards. In addition, we do not believe that this path would corroborate Greenpeace’s migration findings.“

Not just the toy industry but also a significant section of the press shook their heads at this.

Greenpeace continued its reply with a big campaign, timed to interfere with the pre-Christmas sales period, using the slogan “no environmental poisons in our babies’ mouths”. Parental concern for their children’s wellbeing turned broader segments of the population against PVC and its additives. To this end, activists for the fundraising organization even dug up the IARC’s carcinogenic suspicions regarding phthalates made in 1982 – although these had long since been refuted.

Unfortunately, they managed to impress the health authorities of a number of EU member states and parts of the EU Commission. The Bundesanstalt für gesundheitlichen Verbraucherschutz und Veterinärmedizin (BgVV), predecessor of the German Federal Institute for Risk Assessment, warned in December 1997 against babies’ toys containing plasticizers, without concrete evidence of these exceeding the designated exposure limits. Scandinavian countries and Austria demanded an immediate ban on phthalates. In Germany, many major department stores removed toys made from soft PVC from their shelves. The following year, much of Europe introduced national bans on soft PVC in babies’ toys.

The EU Council for Consumer Protection ordered the CSTEE to establish scientifically-based limits for the Tolerable Daily Intake (TDI) for phthalates for both adults and children. The CSTEE established the NOAEL (No Observable Adverse Effect Level) for the six most often used phthalates and determined their TDI, for which they set the baseline for the safety margin at 100. For DINP, the plasticizer most often used in PVC toys, CSTEE set the TDI at 0.15 milligrams a day per kilogram of body weight. Toxicologists in the Netherlands attempted to estimate if this level could be reached by toddlers weighing 8 kg chewing and sucking on a ten cubic centimetre piece of soft PVC for three hours a day. This proved difficult; as discussed there was no EU-wide established methodology to measure plasticizer migration. The permitted safety margin between the NOAEL and the TDI was only 75 for DINP and not 100. For DEHP, which is not permitted for use in toys, it only reached 19. In April 1998, the CSTEE could not exclude the possibility that the TDI could be significantly exceeded given unfavourable circumstances (particularly active toddlers who get poor quality PVC between their teeth).

CSTEE took the view that this did not pose a serious threat. Following a proposal from the Health Ministry of the Netherlands, the committee supported tackling the issue of the compromised safety margin through introducing limits on plasticizer migration for various types of PVC. The EU States’ universally-accepted Risk Assessment Report set the safety margin at 220 and did not believe any threat was posed.

The European Parliament and the relevant EU Directorate General took quite a different view and chose to adopt the Precautionary Principle. In April 1999, the EU amended the EU Directive 76/769/EEC to include a ban on phthalates in toys for children under the age of three. The EU Committee for Product Safety decided, after fierce debate, in December 1999 (right in the midst of the pre-Christmas sales) to adopt Greenpeace’s arguments. The Committee recommended that the EU Commission impose an immediate ban, in the form of an Emergency Decree, on all toddlers’ toys containing phthalates. In line with this, the DINP, DEHP, DBP, DIDP, DNOP or BBP content has been limited to 0.1% of their weight in toys which are designed for toddlers up to the age of 36 months.

These emergency measures were limited to three months and were supposed to bridge the gap prior to appropriate amendments to the EU Directive 76/769/EEC being brought in. That there was no scientific basis for this action did not stop this Emergency Decree being renewed every three months right up to Summer 2004, a total of nineteen times. In the meantime, the EU’s Joint Research Centre (JRC) carried out a risk assessment. This established no discernible risks for either DINP or DIDP that would warrant any restrictions on their use – not even in toddlers’ toys. Only DBP came out of the study badly. But this substance is not used in toys.

In 2003, the JRC’s Institute for Health and Consumer Protection wrote:

„The end products containing DINP (clothes, building materials, toys and baby equipment) and the sources of exposure (car and public transport interiors, food and food packaging) are unlikely to pose a risk for consumers (adults, infants and newborns) following inhalation, skin contact and ingestion.“

In September 2004, the EU Council on Competition decided to go along with the Dutch proposal to ban DINP, DIDP and DNOP from all toys and objects that children under three years could put in their mouths; and to impose a total ban on the use of DEHP, DBP and BBP in toys. This was a big step up from the Commission’s original decision which was only aimed at toys such as babies’ soothers or pacifiers which are intended to be put in the mouth. Through this action, the EU Council on Competition had put one over on the European Parliament. On 6 July 2005, the proposal had the second reading in the European Parliament (five years after the first reading!). MEPs voted with an overwhelming majority in favour of the commission’s tighter proposals. If the EU Council does not stop the procedure, the new Directive will come into force in autumn 2006. Since the EU Commission itself has in the meantime, in a communication published on 11 April 2006, confirmed the conclusions that the JRC drew in 2003, it seems difficult to explain to the public why a substance classified as safe can nevertheless be mandatory excluded from certain applications.

The European Council for Plasticizers and Intermediates (ECPI) sees the decision to also include the extensively researched plasticizer DINP in the ban, a dangerous parallel in REACh (Registration, Evaluation and Authorization of Chemicals). The risk assessment for DINP, which cost the industry more than 10 million Euros, was simply ignored. ‘Intrinsic’ characteristics of these materials served as the deciding factor and assumptions were extrapolated from this, but real appraisals were not conducted. Through this, the EU Commission, either deliberately or otherwise, encouraged the blanket demonisation of an entire group of substances. And, in doing so, it encouraged those who believe that they can improve the world through outlawing all materials and production methods that do not fit in with their narrow and ultimately religious-based concept of nature.

If they don’t stop it, they’ll go blind…

As was to be expected, this ban on phthalates escalated into calls for further bans. TV and mass circulation magazines brought out sensationalist reports on the supposed health dangers of plasticizers.

In 2001, Stern magazine carried a cover story on blow up dolls and other sex toys made from soft PVC. Author Gerd Schuster put forward that those men who used these phthalate-containing products to achieve sexual satisfaction were putting their potency at risk.

The Frankfurt based Öko-Test Magazin really took the prize for running scare stories on plasticizers. Almost every month, the magazine’s editors discovered suspect phthalates in everyday objects and ran a consumer scandal story on these, often taken up by other media. In July 2002, the summer-themed headline “throwing the baby out with the bath water” threw the spotlight on children’s paddling pools. Of course, the laboratories which undertook this analysis found high concentrations of phthalates in all the brands they examined, and in some they also found organotin compounds. According to the editors, that should have been enough to put the children and their parents off playing in paddling pools.

The Vienna-based cancer researcher Professor Wilfried Bursch examined the published findings of the Öko-Test under the worst case scenario of young children drinking the paddling pool water or sucking and chewing on the sides of the paddling pool to see if these posed a serious health risk to children. Bursch came to the conclusion that reaching the current TDI limits would be highly unlikely. He reproached the Öko-Test editors with having contented themselves with the very presence of suspect substances and to not have actually considered if the amounts found actually posed a health risk. The industrial study group AgPU and the VKE German Plastics Manufacturers Association calculated that a 1 year old child weighing 10kg would have to drink at least 167 litres of pool water per day for an entire lifetime to approach the TDI level for DEHP.

In January 2003, the Federal Institute for Risk Assessment (BfR) officially confirmed this estimate. “The BfR has found that the levels of phthalates, butyltins, tributyltins and other organotin compounds contained in plastic found by Öko-Test through the normal use of paddling pools represent no health threat to small children.”

In August 2002, Öko-Test played the same game with inflatable arm bands and also plastic beach sandals (‘flip-flops’). Once again, the magazine contented itself with the presence of the substances demonized by Greenpeace, and did not attempt to ascertain at the outset whether these substances could be taken up into the human body in amounts which would give rise to concern – despite the fact that a calculation model for the take up of DEHP into the human body through skin contact had already been established in the US in 1984. Dr. Sabine Lindner of AgPU performed calculations using the American model as a basis and employing the figures published by Öko-Test in 2002. Her conclusion: “A person would need to walk around in flip flops for 15,000 hours a day in order to absorb the lifetime TDI through their skin.”

A scientific study on 20 adolescents led by Khodayar Rais-Bahrami appeared in Environmental Health Perspectives. These adolescents had been born prematurely and had been placed on respirators and fed artificially through soft PVC tubes and thus had come into contact with high doses of DEHP. This study came to the following conclusion:

„Our results imply that adolescents who have been exposed to considerable amounts of DEHP as premature babies show no discernible influences on their growth rate and sexual maturity as a result of this exposure. (…) Their male and female sexual functions showed no deviation from the norm.“

A study by the University of Rochester, also published in Environmental Health Perspectives (May 2005), claimed that there was a clear link between the concentration of plasticizer-metabolites in the urine of 85 pregnant women one (possible) predictor of later male infertility noted in their male offspring. However, these metabolites did not include those for DEHP, and the Statistical Assessment Service (STATS) at George Mason University in Washington DC found serious flaws in the research methodology and the statistical analysis of University of Rochester’s findings.

Disempowering the consumer

The refusal to recognize that almost nothing in this world is gained for free has taken widespread hold of the EU powers-that-be in their interpretation of the Precautionary Principle. They have interpreted the Precautionary Principle similarly to the universally adopted “Rio Declaration” made at the end of the UN Conference on Environment and Development in 1992. This is the source of oft quoted “Where there are threats of serious and irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation.”

This is surely going too far. Even the old proverb “an ounce of prevention is worth a pound of cure” implies curbs on preventive measures: the seventeenth ounce of prevention will be a wasted effort. This prevention-cure calculation becomes even more difficult when, as is often the case in science, the costs of the cure are far from certain. Taken to extremes, Rio’s Precautionary Principle would condemn us to inertia in order to avoid all risks. Indeed, shortly before the Rio Summit numerous Nobel Prize winners warned in the ‘Heidelberg Appeal’ against a surge in irrationalism.

Above all, environmental and other groups wanted the application of the Precautionary Principle to not only be limited to cases where full scientific certainty regarding environmental threats had not been established, but to have the Principle used in a way that would reverse the burden of proof. The 1992 UN report did not establish just how serious a threat needs to be in order to justify draconian measures. Suspicion alone counted in principle as sufficient reason to justify costly precautionary measures or production bans. Using that logic, chocolate would need to be banned – any competent chemist could combine chocolate with everyday ingredients to manufacture dangerous explosives.

As a reaction to this illogic, the EU Commission issued a paper in 2000 indicating that the Precautionary Principle should not be involved in risk assessment, but rather should play a part in the decision-making processes for risk management. The Principle should not be subverted either through vague suspicions, or through capricious misrepresentations with protectionist ulterior motives.

But the Commission could not establish in which cases the Precautionary Principle should be applied and in which it should not. The Commission’s papers said simply:

„An assessment of the potential consequences of inaction and of the uncertainties of the scientific evaluation should be considered by decision-makers when determining whether to trigger action based on the Precautionary Principle.“

Taken to extremes, the Precautionary Principle contradicts the age old insight that all human behavioural choices imply an element of risk and incur costs. Therefore the good needs to be weighed up against the bad. If an individual, a company, or the state decides against particular actions on the grounds of caution, or chooses to prohibit such actions, that does not mean that in doing so they are reducing the risks and the costs. Taking any particular risk out of an equation necessarily means accepting another one; someone who decides to stay home for fear of having an accident on the way to work has decided to accept the risk losing his job. A person who tries to avoid all risk will wrap themselves in a cocoon, and miss out on life altogether.

The lesser evil is most often evident only in hindsight. Whether or not someone agrees with (or likes), the idea, the fact remains that the discovery process is affected by market forces – i.e. we need to include market forces in our approach, even if we find the idea abhorrent. This does not, however, mean that we must, or indeed should, remove the Golden Rule from our decision making processes.

Risk assessments cannot be divorced from prevailing cultural, socio- economic and political contexts: your attitude to risk will depend on whether you are a man or a woman, young or old, living in poverty or extremely wealthy, an individualist or a collectivist. However, even with these caveats, the weighing up of good and bad consequences leads to an assessment according to clear criteria. By comparison, the strategy of minimizing evils is not based on rational thinking.

Should the EU Commission’s decision regarding the ban on the use of plasticizers in babies’ toys, which largely disregards both scientific fact and reason, become the accepted principle behind new legislation, then the EU would undoubtedly shift further towards the behaviour of an authoritarian state – where scientific research and findings are overruled by political pressure.

Fortunately, the Treaty of Maastricht already requires that all EU Directives are subjected to a comprehensible cost/benefit analysis to establish whether they are commensurate with the underlying legal principles. This was reinforced in February 2000, when, in order to avoid market intrusions prompted by arbitrary suspicions and the bad-mouthing of products and materials, the European Commission stated that employing the Precautionary Principle would always require a sound scientific risk assessment.

In 2001, the EU published a White Paper which set out the blueprint for a new Chemicals Policy. Among other things, the White Paper decided to call a halt to the separate treatment for Old and New substances. The Paper also examined their unprecedented regulations project REACh (Registration, Evaluation and Authorization of Chemicals), which applies to millions of substance applications and tried to determine, on a cost/benefit basis, whether REACh was actually justified.

The EU Commission ordered a study by the London-based consultancy Risk and Policy Analysts, which predicted that REACh would cost between 1.7 and 7 billion Euros in the first eleven years of its introduction, but that the EU stood to gain a possible cost saving (following the expected fall in occupation-related cancers) of up to 54 billion Euros over the next 30 years. However, these figures appear to be plucked from thin air, as around 80% of all occupation-related cancers in the EU stem from the asbestos legacy. This example shows the importance to effective risk management of input from occupational health specialists and other experts.

The position of the Green lobby appears to be that political application of the Precautionary Principle and the aims of sustainable development are core drivers for new innovations. But how do they know which materials are inherently safe and which have a lasting impact on the environment … when even water can be deadly under certain circumstances? Do the Greens and their political friends consider themselves better able to judge what will prove itself on the open market than market participants themselves? The Greens seem perfectly happy with the authoritarian undercurrents inherent in their position.

Unfortunately, some people cling to the erroneous belief that the expansion of knowledge implies that there is an end – a point where society has attained ‘ultimate knowledge’. This is not the case. The accumulation of knowledge can even lead to total confusion.

However important science may be as a reconnaissance and early warning system for society, the most important source of information in a market economy is not science but the market itself. This information is not transferred without cost, but rather set against the cost of the risks undertaken. Both PVC and tested plasticizers have not proven themselves to be harmful, while their attractive cost / price ratio means they have won in a fiercely competitive market. Millions of consumers who, on the basis of sound human reason freely weigh up costs and benefits, could scarcely be wrong. Clearly, putting pressure on the market by pushing forward alternative materials on the back of product bans or market subsidies constitutes a clear case of consumer disempowerment.

The average consumer from the silent majority does not need such incentives or help with decision-making in an open marketplace. This is demonstrated by the fact that in open competition PVC has easily won through on a number of sustainability criteria such as durability, energy and resources efficiency according to 21 key indicators of the German National Environmental Sustainability Plan set out in 2002. (This is far from my endorsement of this plan; as this cannot be sustainable as long as it fails to include, except for liberalization of international trade barriers, any further moves towards the development of economic freedom.)

Future perspectives

When discussing innovations through the filter of sustainable development, we need to ask if there are any sound reasons not to use proven products. As we have already indicated, innovation cannot be a goal in and of itself. In evolution in the natural world, attributes that have proven useful are not abandoned unless dictated by need; there are many cases of survival features that have remained unaltered over millions of years existing alongside far more recent developments. This is true not least of the genetic code which has been maintained virtually unchanged over the course of evolution from the simplest micro-organisms right up to the most highly developed land plants and mammals.

Today there are many interesting alternatives to phthalate plasticizers such as adipines and alkyl sulfonic acid. These materials are already often mixed with phthalates used in various products, as they improve specific qualities such as flame retardation, or flexibility at cold temperatures. But these substances do not necessarily present fewer problems than phthalates. A few of these such as chlorinated paraffins are even poisonous or carcinogenic. For example, DEHA, used in food packaging and regarded as harmless, has been replaced by some adipates which demonstrate a higher degree of volatility and migration. Similarly, citric acid esters and their derivatives have been increasingly used in toys and food packaging, despite the disadvantages of their higher price and lower microbial resistance.

The plastics industry currently has great hopes for Di-isononyl-cyclohexan-1.2-dicarboxylat (DINCH) a substance developed through computer modelling by BASF in co-operation with customers from other industries. This substance is somewhat more expensive than DEHP, and it can also be almost seamlessly substituted for DEHP without the need to rebuild production plants. DINCH also does not include any of the aromatic hydrocarbons defined as suspect by toxicologists so we can expect it to have a much more benign toxicological profile. BASF has confirmed this in a far reaching programme of tests. These tests indicate that DINCH does not affect the development of sexual organs or fertility, nor does it harm the environment. DINCH has a rate of migration which is 8 times lower than that of DEHP, although it has disadvantages such as higher volatility.

The quest for innovation or substitution in the case of these alternative plasticizers cannot be pursued without consideration of the costs, as we would end up substituting the proven with the unproven through ideologically driven wishful thinking. Society needs to pursue fulfilment of consumer demands in a way that balances benefits against the costs to the economy, the environment, and to health.

Our proven sound basis for rational decision-making would clearly be lost if materials or indeed entire product lines and production methods were to be condemned lock, stock and barrel without a rational cost / benefit analysis.

The history of technology shows us that we can seldom regard any solution to a problem as permanent; legs were complemented by horses, then wheels, then rail. It goes without saying that “good will be superseded by better” in the case of plasticizers. Already it has been demonstrated that in the near future the manufacture of not only hard PVCs but a very broad range of soft PVCs will be possible without the use of special plasticizers.

The American research company Teknor Apex has succeeded in manufacturing polyolefin elastomers. These compounds can be used to make highly elastic and soft PVC manufactured parts without the addition of plasticizers, but are 80% more expensive. Their use will initially be limited medical or specialized technical applications, where the use of plasticizers is a disadvantage and cost is not the deciding factor. Should it become possible to manufacture these compounds more cheaply, then they could take over in a number of markets. However, there is no reason for the artificial acceleration of their market introduction as long as they prove themselves sufficiently against market competition. In short: Current standard plasticizers will probably be replaced one day. What is important is that they are replaced by something really better and not by something declared political correct before being tested by the competition between different solutions on the market.

Conventional plasticizers could also see possible competition from nanotechnology. Nanotechnology has already proved itself in number of cases as a cost-effective physics-based replacement to existing chemical solutions. It is not inconceivable that nanotechnology could soon provide original proposals to solve the problem of plasticizers that we could scarcely dream of today. The name “nanotechnology” also highlights the fact that new solutions to problems could also carry new risks, as nanotechnology is already primarily regarded in the media as “the technology of risk”. No such intelligent technology would free humans from the torment of choice – the weighing up of relative evils.

(Translated by Amanda Oliver, London)

Vorsorgen oder gut leben?

Vorbeugen ist nicht immer besser als heilen

von Edgar L. Gärtner

Was der Flop der H1N1-Impfung über das Vorsorgeprinzip lehren könnte

Die französische Regierung unter dem allzeit unter Strom stehenden Staatspräsidenten Nicolas Sarkozy wurde zum Jahreswechsel gewahr, dass sie auf über 90 Millionen Dosen eines im letzten Jahr, angesichts einer gerüchteweise anrückenden Schweinegrippen-Pandemie, eilig bestellten Anti-H1N1-Impfstoffes sitzen zu bleiben drohte. Nur fünf von zurzeit etwa 60 Millionen Franzosen haben sich bis dato gegen die zur planetaren Gefahr aufgebauschte Sommergrippen-Variante impfen lassen. Nach Schätzungen von Medizinern haben sich gleichzeitig über 20 Millionen Franzosen völlig umsonst beziehungsweise lediglich um den Preis kaum spürbarer leichter Grippesymptome immunisiert. Mehr als eine Milliarde Euro, die der hochverschuldete französische Wohlfahrtsstaat für die Bekämpfung einer hypothetischen Pandemie-Gefahr locker gemacht hat, scheinen in den Sand gesetzt. In den deutschen Bundesländern sind die Verhältnisse ähnlich, aber nicht ganz so schlimm wie in Frankreich. Da die georderten Chargen zum Teil noch gar nicht produziert sind, versuchen Frankreich und Deutschland jetzt, zumindest einen Teil ihrer Aufträge noch zu stornieren. Speziell in Frankreich wirft das folgende Fragen auf: Wieso wurden fast 100 Millionen Impfstoff-Portionen bestellt – dreimal mehr, als für eine vernünftige Durchimpfungsrate der Bevölkerung erforderlich gewesen wäre? Warum legte die Regierung gleichzeitig einen riesigen Vorrat des umstrittenen Grippe-Medikaments Tamiflu (ein Drittel der weltweiten Gesamtvorräte!) an? Warum wurden teure Atemmasken angeschafft, die nur für Spitzenbeamte und Manager zur Verfügung standen?

Ich suche jetzt die Antwort bewusst nicht auf der von Verschwörungstheoretikern gelegten Fährte, wonach das Virus H1N1 selbst und die damit verbundene weltweite Aufregung auf Machenschaften der Pharma-Konzerne Glaxo Smith Kline (GSK), Sanofi-Aventis und Novartis zurückgehen soll. Ich halte mich vielmehr an die offizielle Begründung der Maßnahmen durch das „Vorsorgeprinzip“. Dieses ist Anfang der 70er Jahre in Deutschland erfunden und 1992 auf dem „Erd-Gipfel“ von Rio weltweit bekannt gemacht worden. “Drohen schwerwiegende oder bleibende Schäden, so darf ein Mangel an vollständiger wissenschaftlicher Gewissheit kein Grund dafür sein, kostenwirksame Maßnahmen zur Vermeidung von Umweltverschlechterungen aufzuschieben”, lautet der Grundsatz 15 der Rio-Deklaration. Inzwischen hat dieses Prinzip Eingang in den Maastricht-Vertrag, in den Lissaboner Verfassungsvertrag und in die französische Verfassung gefunden. Da Nicolas Sarkozy sich in den Kopf gesetzt hat, die Deutschen mit Vorsorge-Rhetorik zu überholen, gaben sich seine Beamten größte Mühe, das Prinzip konsequent umzusetzen. Doch gerade dadurch haben sie die Probleme geschaffen, vor denen sie jetzt stehen. Denn unbegrenzte Vorsorge ist absurd. Wer ständig nur vorsorgt, der verpasst das Leben. Wenn überhaupt, ist das Vorsorgeprinzip nur insoweit hilfreich, als es nicht allzu konsequent angewandt wird. Heilen ist viel wichtiger als Vorbeugen, auch wenn ein von der wohlfahrtsstaatlichen Werbung gedankenlos wiederholtes Sprichwort das Gegenteil behauptet.

Die oben zitierte Definition des Vorsorgeprinzips lässt nämlich die Frage offen, ob Vorsorgemaßnahmen auch Kosten-Nutzen-Kriterien unterliegen sollen beziehungsweise dürfen. Verbreitet ist die Meinung, Kostenabwägungen erübrigten sich, wenn es um Menschenleben gehe. Wäre dieses Argument stichhaltig, gäbe es weder Lebens- noch Unfallversicherungen. Dabei möchte ich nicht in Abrede stellen, dass der monetären Bewertung von Lebensaspekten enge Grenzen gesetzt sind. Aber auch bei einer nichtmonetären Bewertung erscheint der Nutzen von Maßnahmen zur Abwendung hypothetischer Gefährdungen allzu oft mehr als fraglich, zumal es sich nicht selten zeigt, dass Vorsorge nur um den Preis der Aufgabe von Freiheit und Wohlstand, wenn nicht gar des Seelenheils zu haben wäre. Ausnahmen bilden lediglich private Vorsorgeaufwendungen wie etwa die Anlage von Vorräten für den Winter, Rücklagen für das Alter oder für Reparaturen sowie äußere Gefahren beziehungsweise Schadereignisse wie etwa Erdbeben in Gebieten, in denen Platten der Erdkruste aufeinander stoßen, deren Eintrittswahrscheinlichkeit einigermaßen realistisch abschätzbar ist. Aber auch in diesen Fällen genügt es oft nicht, zwischen Vor- und Nachteilen wirtschaftlich vertretbarer Schutzmaßnahmen abzuwägen. Im wirklichen Leben geht es stattdessen nicht selten um Entscheidungen zwischen zwei Übeln. Welches davon ist das kleinere?

Solche Entscheidungen, sofern sie nicht spontan „aus dem Bauch heraus“ getroffen werden, kommen in der Regel nicht ohne mehr oder weniger bewusst religiöse Begründung aus. Denn es geht dabei um die Frage nach dem Sinn des Lebens – eine Frage, die von keiner Wissenschaft und keinem formalen Kosten-Nutzen-Vergleich beantwortet werden kann. Als religiöse Begründung dient anstelle des historisch bewährten christlichen Humanismus in Europa inzwischen aber mehr und mehr die letztlich selbstmörderische Öko-Ersatzreligion (Öko-Nihilismus). Kein Wunder, dass mit dem „Vorsorgeprinzip“ immer häufiger Maßnahmen und Investitionen gerechtfertigt werden, deren volkswirtschaftliche Rendite eindeutig negativ ist.

Internet:

Der enorme Schaden der Pandemie, die keine war

Schweinegrippe kostet Länder 400 Millionen Euro

Grippe A (H1N1): la France peine à écouler ses vaccins

La France s’inquiète pour son surplus de Tamiflu et de masques

H1N1: un coût de plus d’un milliard d’euros

Edgar L. Gärtner: Öko-Nihilismus. Eine Kritik der Politischen Ökologie (veröffentlicht am 2. Februar 2010 in der NZZ)

===========================================================================================

Der Nihilsmus der europäischen Chemikalienpolitik

In einem Vortrag, den ich im Jahre 2007 auf dem European Freedom Summit in Berlin gehalten habe, zeige ich, welche seltsamen Blüten das schlecht definierte „Vorsorgeprinzip“ in der Chemikalienpolitik der EU (REACh) treibt.

Literatur:

Edgar Gärtner: Vorsorge oder Willkür, Instituts Verlag, Köln 2006

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Keine Rechtssicherheit ohne Eingrenzung des Vorsorgeprinzips

Trotz Verbesserungen im Detail enthält die Chemikalienpolitik der EU weiterhin einen fundamentalen Webfehler: Das ihr zugrunde liegende Vorsichtsprinzip ist nirgends definiert.

Das Europaparlament hat am 17. November in Strassburg einen als „historisch“ gelobten Kompromiss über die Ausgestaltung der REACh-Verordnung gefunden: Die Registrierung der in Mengen bis zu 100 Tonnen hergestellten Stoffe soll aufgrund einer vorab getroffenen Absprache zwischen der konservativen, der sozialistischen und der liberalen Fraktion im EP (u. a. durch den Verzicht auf die Prüfung der Reproduktionstoxizität) erleichtert werden. Durch die Einführung einer „Opt-out-Option“ bei der Verpflichtung zum Austausch von Testdaten nach dem OSOR-Prinzip („One Substance – One Registration“) und durch die Bildung von Verwendungs- und Expositionskategorien bei der Erstellung der Sicherheitsberichte sollen die Kosten der Stoffprüfung und der Versuchstierbedarf gesenkt werden. Hier bleiben aber Probleme der Datensicherheit und des Schutzes geistigen Eigentums vor allem mittelständischer Unternehmen nach wie vor ungelöst (siehe CR 6/2005).

Gleichzeitig beschloss eine Koalition aus Sozialisten, Liberalen und Grünen, die Zulassung von Stoffen, entsprechend dem Votum des EP-Umweltausschusses, zu erschweren. Zulassungen für das Inverkehrbringen und die Verwendung „besonders besorgniserregender Stoffe“ sollen von der EU-Kommission grundsätzlich auf fünf Jahre befristet werden, „sofern keine geeigneten Alternativstoffe oder –technologien vorhanden sind, die Verwendung dieser Stoffe aus sozioökonomischen Gründen gerechtfertigt werden kann und sich die Risiken aus ihrer Verwendung angemessen beherrschen lassen.“ (Änderungsantrag 15)

Die Industrie hofft, dass dieser Teil des Straßburger Kompromisses vom EU-Ministerrat korrigiert wird. Umweltkommissar Stavros Dimas hat versichert, die Kommission wolle keine generelle Substitutionspflicht, wie sie Organisationen wie der WWF oder Greenpeace fordern. Die befristete Zulassung von Stoffverwendungen soll flexibel gehandhabt werden. Ob diese Korrekturen der Industrie aber mehr Rechtssicherheit bringen werden, ist sehr fraglich. „Garant der Rechtssicherheit für Unternehmen“ soll nach dem im EP durchgegangenen Änderungsantrag 17 die neue Europäische Agentur für chemische Stoffe (ECA) in Helsinki sein. Dieser soll „die Gesamtverantwortung für das Management der neuen Chemikalienpolitik“ übertragen werden. Unternehmen oder EU-Mitgliedsstaaten, die Stoffbewertungen der ECA anzweifeln, tragen die Beweislast.

Wie Joachim Kreysa von der EU-Kommission im Oktober auf einem Seminar der Fresenius-Akademie in Mainz ausführte, sollen in Helsinki bis zu 700 Toxikologen und andere Experten der Chemikaliensicherheit mit der Prüfung der von den Unternehmen vorgelegten Daten beschäftigt sein. David Owen von Shell fragte in Mainz, wo diese Experten kurz- und mittelfristig herkommen sollen, wenn schon heute Toxikologenmangel herrscht.

Selbst wenn dieses Problem gelöst wäre, bliebe ein großer Unsicherheitsfaktor: Die Interpretation des umstrittenen „Precautionary Principle“ (Vorsichts- oder Vorsorgesorgeprinzip) im Sinne einer Beweislastumkehr. Der Vorsorge-Grundsatz wurde Ende Juli 1992 im Vertrag von Maastricht (Artikel 130r, Abs. 2, heute: Artikel 174,2) erstmals in die europäische Gesetzgebung aufgenommen. Allerdings finden sich im Maastrichter Vertrag selbst weder eine Definition noch Ausführungsbestimmungen für die Anwendung des Prinzips. Aus dem Text geht nur hervor, dass das Vorsorgeprinzip bei drohenden Umweltschäden gelten soll. Gefahren für die menschliche Gesundheit wurden nicht explizit erwähnt.

Die Väter der EU interpretierten das Vorsorgeprinzip also zunächst ähnlich wie die wenige Wochen zuvor von der UN-Konferenz über Umwelt und Entwicklung einstimmig angenommene “Rio-Deklaration”. Dort steht der oft zitierte Satz: „Drohen schwerwiegende oder bleibende Schäden, so darf ein Mangel an vollständiger wissenschaftlicher Gewissheit kein Grund dafür sein, kostenwirksame Maßnahmen zur Vermeidung von Umweltverschlechterungen aufzuschieben.“

Dieser in vorläufiger Form bereits im deutschen Wasserhaushaltsgesetz von 1957 enthaltene und später im deutschen Bundesimmissionsschutzgesetz von 1974 ausformulierte Grundsatz scheint auf den ersten Blick vom gesunden Menschenverstand diktiert zu sein. Er erinnert an die Formel „Vorbeugen ist besser als heilen.“ In diesem Satz steckt aber auch viel Gedankenlosigkeit. Denn obwohl Vorsorge für Notfälle oder für das Alter ein Grundelement jeglicher vernünftigen Lebensführung und Wirtschaftstätigkeit darstellt, ist die Formel, wie leicht einsehbar ist, keineswegs für alle Situationen geeignet. Wer allen Risiken aus dem Wege gehen möchte, der verdammt sich selbst zur Untätigkeit. Deshalb ist es bedenklich, eine vernünftige individuelle Handlungsmaxime zu einem universellen Rechtsgrundsatz zu machen. Nicht von ungefähr hatten kurz vor der Rio-Konferenz zahlreiche Nobelpreisträger im „Heidelberger Appell“ vor einem neuen Irrationalismus gewarnt.

So einigten sich die in Rio de Janeiro versammelten Staatslenker und Interessenvertreter auf eine eher gemäßigte Formulierung des Vorsorge-Grundsatzes, in der anklingt, dass Vorsorgemaßnahmen sich auch rechnen müssen. In der ebenfalls in Rio verabschiedeten Klimarahmenkonvention wird deshalb der Begriff „cost-effective“ klar im Sinne wirtschaftlicher Verhältnismäßigkeit interpretiert. Es heißt dort: „In Fällen, in denen ernsthafte oder nicht wiedergutzumachende Schäden drohen, soll das Fehlen einer völligen wissenschaftlichen Gewissheit nicht als Grund für das Aufschieben solcher Maßnahmen dienen, wobei zu berücksichtigen ist, dass Politiken und Maßnahmen zur Bewältigung der Klimaveränderungen kostengünstig sein sollten, um weltweite Vorteile zu möglichst geringen Kosten zu gewährleisten.“ Der Grundsatz 12 der Rio-Deklaration fordert überdies: „Umweltbezogene handelspolitische Maßnahmen sollen weder ein Mittel willkürlicher oder ungerechtfertigter Diskriminierung noch eine verdeckte Beschränkung des internationalen Handels darstellen.“

Somit hat die Rio-Konferenz, genau besehen, den Geltungsbereich des Vorsorge- bzw. Vorsichtsprinzips bereits stark eingegrenzt, indem sie darauf bestand, Vorsorgemaßnahmen gleichzeitig den Grundsätzen der ökonomischen Verhältnismäßigkeit und der Nichtdiskriminierung beziehungsweise der Ablehnung von Protektionismus zu unterwerfen.

Diese Interpretation des Vorsorgeprinzips setzte sich aber in den folgenden Jahren kaum durch. Vor allem Umweltverbände sowie grüne und rote Parteien wollten die Anwendung des Prinzips nicht nur auf Fälle beschränkt wissen, in denen noch keine völlige wissenschaftliche Gewissheit über drohende Umweltschäden bestand, sondern interpretierten es im Sinne einer generellen Umkehr der Beweislast. Sie sahen im Vorsorge-Grundsatz eine juristische Revolution, die mit der Unschuldsvermutung („in dubio pro reo“) Schluss macht. Diese war nicht zufällig zu einem Grundpfeiler des Römischen Rechts und der darauf aufbauenden modernen Rechtsordnungen geworden. Nun aber sollte die Industrie vor der Markteinführung von Produkten beweisen müssen, dass diese absolut sicher sind.

Darauf läuft das Anfang 1998 von verschiedenen internationalen Umweltverbänden und ihnen verbundener Forscher verabschiedete „Wingspread Consensus Statement on the Precautionary Principle“ hinaus. Es heißt dort: „When an activity raises threats of harms to human health or the environment, precautionary measures should be taken even if some cause and effect relationships are not fully established scientifically.” Von wirtschaftlicher Verhältnismäßigkeit oder von Nichtdiskriminierung ist hier keine Rede. Schon der Verdacht soll im Prinzip als Begründung für kostspielige Vorsorgemaßnahmen oder Produktverbote genügen. Schokolade müsste danach zum Beispiel verboten werden, weil jeder Chemiker daraus gefährlichen Sprengstoff herstellen könnte.

Angesichts der Tatsache, dass extreme Interpretationen des Vorsorgeprinzips auch in Europa Schule machten und der Grundsatz selbst im Maastrichter Vertrag nicht definiert worden war, sah sich die EU-Kommission Anfang 2000 veranlasst, dem Vorsorgeprinzip eine spezielle „Communication“ zu widmen. Darin stellte die Kommission klar, dass dieses den Grundsatz der Verhältnismäßigkeit einschließt und keineswegs auf ein Null-Risiko abzielt. Das Vorsorgeprinzip solle nicht bei der Risikoabschätzung zur Geltung kommen, sondern lediglich Bestandteil des Entscheidungsprozesses im Risikomanagement sein und sich nicht auf vage Vermutungen oder willkürliche Unterstellungen mit protektionistischen Hintergedanken, sondern nur auf wissenschaftlich identifizierte und abgeschätzte Risiken beziehen, forderte das Papier.

Aber die Kommission konnte nicht klären, in welchen Fällen das Vorsorgeprinzip angewandt werden sollte und wann nicht. Im zitierten Papier heißt es dazu lediglich: „An assessment of the potential consequences of inaction and of the uncertainties of the scientific evaluation should be considered by decision-makers when determining whether to trigger action based on the precautionary principle.” Den politischen Entscheidungsträgern und dem Europäischen Gerichtshof (EuGH) soll es also überlassen bleiben, wie sie mit den Ungewissheiten umgehen, die bei der wissenschaftlichen Risikoabschätzung nicht ausgeräumt wurden. Das Dokument deutet nicht einmal an, wann eine Ungewissheit groß genug sein soll, um Vorsorgemaßnahmen zu rechtfertigen.

Kein Wunder, dass es auch in den folgenden Jahren bei EU-Entscheidungen, bei denen das Vorsorgeprinzip eine Rolle spielte, wie Kraut und Rüben zuging. Der Umweltjurist Gary E. Marchant und der Umweltmediziner Kenneth L. Mossman, beide Professoren an der Arizona State University, haben 60 Entscheidungen von Instanzen des EuGH, in denen das Vorsorgeprinzip eine Rolle spielte, unter die Lupe genommen und nachgewiesen, dass der Grundsatz sehr selektiv und widersprüchlich ausgelegt wurde (Gary E. Marchant/Kenneth L. Mossman: Arbitrary & Capricious. The Precautionary Principle in the European Union Courts, published by the International Policy Network, London 2005. In einem Teil der Urteile wurde das Vorsorgeprinzip auch auf „potentielle“ Risiken angewandt, während es sich nach anderen nur auf bereits klar identifizierte Gefahren beziehen soll. In einigen Fällen (so zum Beispiel im Streit um Antibiotika-Zusätze im Tierfutter) sprachen sich Politiker und Richter für das Verbot Jahrzehnte lang bewährter Produkte aus, obwohl die zuständigen wissenschaftlichen Beratergremien die Frage nach der Existenz ernsthafter Risiken klar verneint hatten. In anderen Fällen (insbesondere beim Kampf gegen die Rinderseuche BSE) setzten sich Politik und Justiz über den Rat der Fachleute hinweg, indem sie ernsthafte Infektionsrisiken für Menschen zunächst herunter spielten. Es liegt auf der Hand, dass die EU-Institutionen mit beiden extremen Auslegungen nur Wasser auf die Mühlen solcher letztlich von nihilistischen Motiven getriebenen Gruppierungen leiteten, die das Vorsorgeprinzip – explizit oder implizit – seit längerem mit der Forderung nach einem Null-Risiko und einer Umkehr der Beweislast verbinden.

Was Umwelt- und Verbraucherschutzverbände und mit ihnen immer mehr um Wählerstimmen buhlende Politiker in jüngster Zeit in der Auseinandersetzung um die Ausgestaltung der neuen EU-Chemikalienpolitik fordern, klingt zwar zunächst sehr sympathisch: Damit die Verbraucher nicht unfreiwillig zu Versuchskaninchen der Industrie werden, soll diese vorab beweisen, dass die von ihr angebotenen Produkte unschädlich sind. Dabei wird jedoch vergessen oder unterschlagen, dass es uns Menschen grundsätzlich nicht möglich ist, die Abwesenheit von Risiken zu erkennen. Stringent beweisen können wir immer nur deren Existenz. Abgesehen von Zufällen, findet man dabei in der Regel nur, wonach man sucht. Wird kein Risiko gefunden, heißt das noch lange nicht, dass es überhaupt keines gibt. Die Öffentlichkeit kann also vernünftigerweise von der Industrie nur fordern, dass sie vor der Vermarktung neuer Produkte allen plausiblen Risikovermutungen nachgeht, Vorkehrungen trifft, um nachgewiesene Risiken zu minimieren und sich verpflichtet, zusätzliche Sicherheitsmaßnahmen einzuleiten, sobald beim Gebrauch eines Produktes unvermutete Risiken auftreten. In diesem Sinne ist das Vorsorgeprinzip in modernen Industrieländern längst zum Standard geworden.

In verabsolutierter Form widerspricht der Grundsatz jedoch der uralten Einsicht, dass alle menschlichen Wahlhandlungen Risiken bergen und Kosten verursachen und deshalb einer Übelabwägung bedürfen. Entscheidet ein Einzelner, eine Firma oder der Staat, bestimmte Handlungen aus Gründen der Vorsicht zu unterlassen oder zu verbieten, heißt das keineswegs, dass sie damit auch ihre Risiken und Kosten insgesamt vermindern. Wer ein Risiko ausschließen will, nimmt damit vielmehr automatisch ein anderes in Kauf. Werden auf Verdacht Stoffverwendungen verboten, gehen mit der Einschränkung der wirtschaftlichen Freiheit unweigerlich Innovations- und Wachstumschancen verloren und das Risiko der Verarmung wächst. Wer überhaupt kein Risiko eingehen möchte, geht also in Wirklichkeit das allergrößte Risiko ein.

Um Eingriffe in den Markt aufgrund willkürlicher Verdächtigungen und Verunglimpfungen von Stoffen und Produkten auszuschließen, hat deshalb die Europäische Kommission in der zitierten „Communication“ vom Februar 2000 klargestellt, die Anwendung des Vorsorge-Prinzips bedürfe in jedem Fall einer wissenschaftlich fundierten Risiko-Abschätzung. Ohnehin fordert schon der Vertrag von Maastricht, alle EU-Verordnungen einer nachvollziehbaren Kosten-Nutzen-Abwägung (Gesetzesfolgenabschätzung) zu unterwerfen, um überprüfen zu können, ob sie dem Rechtsgrundsatz der Verhältnismäßigkeit genügen.

Deshalb musste die EU-Kommission ihrem Anfang 2001 in Form eines „Weißbuches“ veröffentlichten Entwurf einer neuen Chemiepolitik von vornherein eine Kosten-Nutzenabschätzung zur Seite stellen, um begründen zu können, ob ihr bislang beispielloses, weil Millionen von Stoffwendungen umfassendes Regulierungsprojekt REACh überhaupt gerechtfertigt scheint. Unter der damaligen Umweltkommissarin Margot Wallström ließ die EU-Kommission von der Londoner Unternehmensberatung Risk and Policy Analysts Ltd. (RPA) und der schwedischen Statistikbehörde ermitteln, dass die Stoffregistrierung nach REACh in den ersten 11 Jahren zwischen 1,7 und 7 Milliarden Euro kosten würde. Dem stünden wegen des zu erwartenden Rückgangs berufsbedingter Krebserkrankungen mögliche Kosteneinsparungen im Gesundheitswesen von bis zu 54 Milliarden Euro in den kommenden 30 Jahren gegenüber.

Doch diese Rechnung erscheint nach Ansicht von Angela Logomasini vom Washingtoner Competitive Enterprise Institute (CEI) völlig aus der Luft gegriffen, weil in der EU etwa 80 Prozent aller Fälle von Berufskrebs auf Asbest-Altlasten zurückgehen und höchstens 360 von insgesamt über 32.331 beruflich bedingten Krebsfällen im Jahr auf den Kontakt mit Chemikalien in irgendeiner Form zurückgeführt werden können. Nach den klassischen Arbeiten von Richard Doll und Richard Peto, die auch von der WHO gestützt werden, gehen ohnehin nur 2 Prozent aller Krebsfälle auf Umwelteinflüsse zurück. Nur durch die absehbare Vertreibung von Firmen und Arbeitsplätzen in außereuropäische Länder werde es die EU schaffen, die Zahl berufsbedingter Erkrankungen zu vermindern, vermutet Logomasini in einer unter dem Titel „REACh: Teuer für die Welt, selbstmörderisch für Europa“ auch auf deutsch erschienen Studie über die wahren Kosten von REACh.

In dem im September 2005 im Rahmen der britischen EU-Ratspräsidentschaft vorgelegten Kompromissvorschlag heißt es denn auch im Art. 1.3 etwas vorsichtiger als im REACh-Entwurf der Kommission von 2003: „This Regulation is based on the principle that it is up to manufacturers, importers and downstream users to ensure that they manufacture, place on the market or use such substances that do not adversely affect human health or the environment. Its provisions are underpinned by the precautionary principle.“ Hier verweist der Textvorschlag in einer Fußnote ausdrücklich auf die Klarstellung in der erwähnten „Communication“ der EU-Kommission aus dem Jahre 2000.

Doch gelang es damit nicht, die Mehrheit der EU-Parlamentarier auf den Boden der Tatsachen zurück zu bringen, zumal dort der Inhalt des Vorsorgeprinzips nicht näher bestimmt wurde. Im Artikel 52 der vom EP in erster Lesung angenommenen REACh-Fassung heißt es über Sinn und Zweck der Stoffzulassung: “The aim of this Title is to ensure that substances of very high concern are replaced by safer alternative substances or technologies, where available. Where no such alternatives are available, and where the benefits to society outweigh the risks connected with the use of such substances, the aim of this Title is to ensure that the use of substances of high concern is properly controlled and that alternatives are encouraged. Its provisions are underpinned by the precautionary principle.” Käme das durch, hätte die Politik einen Freibrief für willkürliche Eingriffe in die Wirtschaft in der Hand.

Schon in diesem Sommer setzte sich das EP offen über wissenschaftlichen Sachverstand hinweg, als es unter Berufung auf das Vorsorgeprinzip sechs PVC-Weichmacher in Kinderspielsachen verbot, obwohl kostspielige Risikoabschätzungen nach den Regeln der Kunst beim derzeit gebräuchlichsten PVC-Weichmacher DINP überhaupt keine und bei anderen Weichmachern nur geringe Risiken ausgemacht hatten. Aufgrund des so geschaffenen Präzedenzfalles hängt das Vorsorgeprinzip nun wie ein Damoklesschwert über allen Stoffzulassungsverfahren. Die Produktion und Dokumentation Tausender von Testdaten nützt den Unternehmen wenig, wenn die Politik am Ende dem Druck lautstarker Interessengruppen nachgibt. Da die Hersteller nie beweisen können, dass die von ihnen angebotenen Produkte 100 Prozent sicher sind, wird ihnen nahe gelegt, auf die sichere Seite zu gelangen, indem sie bewährte durch zweifelhafte, aber politisch korrekte Stoffe ersetzen. Im Falle der Spielsachen beispielsweise durch den Ersatz von PVC durch Gummi, obwohl dieser, bedingt durch die Vulkanisierung, immer krebserregende Nitrosamine enthält. Hauptsache: Politisch korrekt.

Edgar Gärtner (2005)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Literatur:

Edgar Gärtner: Vorsorge oder Willkür, köln 2006

Öko-Nihilismus-Debatte

Über zwei Jahre sind nun seit dem Erscheinen meines grundlegenden Buches „Öko-Nihilismus. Eine Kritik der Politischen Ökologie“ vergangen. Von den politisch korrekten Massenmedien weitgehend totgeschwiegen, hat es in Fachmedien und im Internet lebhafte Debatten provoziert. Die Aussagen dieses Buches, von manchen als zu radikal oder als zu pessimistisch eingestuft, sind durch aktuelle Entwicklungen voll bestätigt worden.

Edgar Gärtner: Öko-Nihilismus. Eine Kritik der Politischen Ökologie. CFACT Europe, Thuss & van Riesen Medienverlag, Jena 2007. ISBN 978-3-00-020598-9. Preis Euro 24,50

Erhältlich bei Amazon.de

factum-magazin: Gegen die Vergötzung der Natur

Das in der Schweiz erscheinende christliche Familienmagazin factum bringt in seiner Ausgabe 5/08 unter dem Titel „Die überhitzte Prognose“ eine kritische Auseinandersetzung des Journalisten Thomas Lachenmaier mit dem nihilistischen Menschenbild der „Klimapolitik“ und stellt eine Reihe bekannter „Skeptiker“ vor. So den Mainzer Medienforscher Prof. Mathias Kepplinger, den tschechischen Staatspräsidenten Václav Klaus und meine Wenigkeit.

Hier das Interview, das ich Thomas Lachenmaier gab:

factum: In ihrem Buch kritisieren sie die politische Ökologie als eine

nihilistische Weltanschauung, die das Gute postuliert und am Ende doch

nur Verhängnis bringt. Wie lautet ihr Vorwurf?

Gärtner: So genannte Gutmenschen vergessen, dass alles im Leben seinen Preis hat.

Etwas Gutes muss oft mit üblen Nebenwirkungen erkauft werden. Die Menschen müssen sich dann nicht nur zwischen einer guten Tat und einer Sünde entscheiden, sondern zwischen zwei Übeln. Solche Entscheidungen in Form einer bewussten rationalen Abwägung treffen zu wollen, bringt die Menschen schnell ins Schwitzen. Zum Glück für unser seelisches Wohlbefinden erfolgen solche Entscheidungen meist unbewusst. Dabei spielen Glaubensinhalte und tief verwurzelte Überzeugungen eine wichtige Rolle. Die Abkehr von den christlichen Wurzeln des Humanismus und das dadurch entstandene Defizit unhinterfragter Glaubensinhalte macht meines Erachtens viele Europäer unfähig, in verschiedenen Entscheidungssituationen das kleinere Übel auszumachen.

factum: Haben Sie dafür ein Beispiel?

Gärtner: Das beste Beispiel dafür ist zurzeit die so genannte Klimapolitik. Damit die Durchschnittstemperatur der Erde nicht um mehr als zwei Grad Celsius von einem als normal erklärten globalen Mittelwert abweicht, setzt sie über die gewollte Verteuerung von Energieträgern und Nahrungsmitteln nicht nur unsere Freiheit und unseren wirtschaftlichen Wohlstand aufs Spiel, sondern ist letzten Endes sogar bereit, dem Ziel des Temperaturmittelwertschutzes (ich sage bewusst nicht Klimaschutz) größere Teile der Menschheit zu opfern. Bekanntlich haben Vordenker der Ökologiebewegung wie Paul Ehrlich in den USA oder Herbert Gruhl in Deutschland in den 70er Jahren offen die Schrumpfung der Weltbevölkerung auf anderthalb Milliarden Menschen gepredigt. Das zeigt, dass sie den christlichen Gott, der keine Menschenopfer fordert, weil Jesus Christus das mit seinem Opfergang ein für allemal aus der Welt geschafft hat, durch einen Götzen ersetzt haben.

factum: Die meisten Wissenschaftler gehen davon aus, dass der

CO2-Ausstoss die Ursache für die Klimaerwärmung ist. Aber es gibt auch

renommierte Wissenschafter, die anderer Meinung sind und Studien, die

andere Rückschüsse zulassen. Sie verfolgen als Wissenschaftsjournalist

die Debatte intensiv. Was ist ihr Eindruck von der wissenschaftlichen

Auseinandersetzung?

Gärtner: Eine wissenschaftliche Auseinandersetzung, die diesen Namen verdient, gibt es über die Frage nach den Ursachen des Klimawandels schon seit Jahren nicht mehr. Ein internationales Netzwerk von Top-Bürokraten und Versicherungsmanagern hat es mithilfe sogenannter Nichtregierungsorganisationen geschafft, den „Weltklimarat“ IPCC mit dem klaren Auftrag zu versehen, den Menschen, genauer: ihren industriellen Errungenschaften die Schuld am Klimawandel zuzuschieben. Sie können das nachlesen in dem vor einigen Jahren erschienenen Buch „The Carbon War“, in dem der Ex-Greenpeace-Mann Jeremy Leggett erstaunlich offen schildert, wie es dazu kam, dass der industrielle Ausstoß von Kohlenstoffdioxid (CO2) zur einzig relevanten Ursache des Klimawandels erklärt wurde. Die wissenschaftliche Debatte, die eigentlich nie stattgefunden hat, gilt damit als abgeschlossen. Der Mainzer Medienforscher Mattias Kepplinger hat zusammen mit seiner Mitarbeiterin Senja Post durch die direkte Befragung aller in Deutschland mit Klimaforschung befassten Wissenschaftler herausgefunden, dass in Wirklichkeit nur eine Minderheit von ihnen von der offiziellen Erklärung überzeugt ist. Die andern müssen schweigen, um ihre Karriere nicht zu gefährden.

factum: Wie beurteilen Sie die Folgen des weltweiten Handelns gegen den

Klimawandel?

Gärtner: Zunächst einmal grundsätzlich: Wir Menschen können meines Erachtens gegen den Klimawandel nichts unternehmen. Denn hier sind Kräfte am Werk, die unsere Einflussmöglichkeiten weit übersteigen. Als Humanist wehre ich mich einerseits dagegen, die Menschen klein zu machen, zu erniedrigen. Andererseits sollten wir es aber auch vermeiden, in Größenwahn zu verfallen. Das Christentum schützte uns bislang in gewissem Maße gegen diese Versuchung. Die Säkularisierung hat solche Hemmschwellen zum Teil wieder beseitigt.

Dass die Menschen das Klima lediglich lokal und regional beeinflussen können, und zwar vor allem durch die Umwandlung von Wald in Acker- oder Weideland und durch den Bau großer Städte, aber keinen nennenswerten Einfluss auf die globale Entwicklung ausüben, zeigt meines Erachtens die Entwicklung der bodennahen Durchschnittstemperatur in den vergangenen zehn Jahren: Obwohl der CO2-Ausstoß – vor allem infolge des Wirtschaftsbooms in Asien – kräftig anstieg, ist die Mitteltemperatur der Erde konstant geblieben, wenn nicht sogar gesunken.

Aber es wurde für den vorgeblichen Klimaschutz schon sehr viel Geld ausgegeben, das natürlich an anderer Stelle fehlt. Es gäbe auf der Welt, wie der dänische Statistikprofessor Björn Lomborg zu wiederholen nicht müde wird, sicher viel dringendere Probleme wie zum Beispiel die Versorgung der Armen mit sauberem Trinkwasser und sanitären Einrichtungen. Diese wäre für einen Bruchteil der Summen zu haben, die der „Klimaschutz“ heute schon kostet. Ich sehe hier nicht nur ein wirtschaftliches, sondern auch ein moralisches Problem und wundere mich, wie leicht es den angeblichen Klimaschützern gelingen konnte, in unseren Massenmedien die moralische Oberhoheit zu erlangen.

factum: An den Empfehlungen des Weltklimarates (IPCC) orientieren sich

Regierungen in der ganzen Welt. Es gibt weltweit wohl kein zweites

beratendes Gremium, dessen Aussagen so weitreichende poltische Folgen

hat. Wie beurteilen Sie den Einfluss dieses Gremiums?

Gärtner: Das Gremium besteht nur zu einem kleinen Teil aus Forschern, sondern überwiegend aus Funktionären, die von ihren jeweiligen Regierungen entsandt werden und ist insofern Ausdruck der Tatsache, dass die Politik selbst in die Hände von Bürokraten gelangt ist, dass es wirkliche Politiker vom Schlage eines Winston Churchill heute gar nicht mehr gibt. Es ist immer problematisch, wenn sich die Politik auf Wissenschaft beruft. Wohin das führt, kann man am Beispiel der Eugenik studieren. Diese wurde ja nicht nur von den Nazis, sondern von Linksparteien in allen Teilen der Welt vertreten und praktisch umgesetzt. Grundlage der großen Politik sollten der gesunde Menschenverstand und eine klare Feindbildbestimmung sein. Ich habe den Eindruck, das Feindbild der Bürokraten, die sich heute Politiker nennen, ist das Leben selbst.

factum: Wie konnte es dazu kommen, dass sich die Politik nicht mehr vom „gesunden Menschenverstand“ leiten lässt?

Gärtner: Die jüdische Philosophin Hannah Arendt hat in ihrer 1000 Seiten starken Untersuchung über Elemente und Ursprünge totaler Herrschaft nachgezeichnet, dass die Politik der großen europäischen Mächte in dem Maße den Bezug zum gesunden Menschenverstand der kleinen Leute verloren hat, wie sie imperialistisch wurde. Die ausgebeuteten und geknechteten Menschen in den Kolonien hatten, im Unterschied zum Proletariat in den „Mutterländern“, keine Möglichkeit, sich über Wahlen oder außerparlamentarische Protestaktionen Gehör in den Parlamenten zu verschaffen. Infolgedessen koppelte sich die politische Klasse in den Metropolen immer mehr vom Denken und Fühlen normaler Menschen ab.

factum: Untersuchungen zeigen, dass viele Menschen bereit sind, aus

Gründen des Klimaschutzes persönliche Opfer auf sich zu nehmen. Wie

beurteilen sie das?

Gärtner: Gute Marktstudien zeigen vor allem, dass es mit der Opferbereitschaft der kleinen Leute bislang, Gott sei Dank, nicht weit her ist. Eine Mehrheit findet Öko-Steuern und Klimaschutz-Zuschläge zwar sympathisch, aber kaum jemand möchte sie gerne bezahlen. Ich möchte da auf eine Studie verweisen, die im letzten Herbst im Auftrag der ARAG-Rechtschutzversicherung durchgeführt wurde.

factum: Sie sind in einem christlichen Elternhaus aufgewachsen. Wie

beurteilen Sie vor diesem Hintergrund die Produktion von Treibstoff aus

Getreide?

Gärtner: Ich habe in der Tat gelernt, das tägliche Brot nicht als selbstverständliche „Commodity“ zu betrachten, sondern darum zu beten, dafür zu danken und es nicht zu verschwenden. Getreide nur anzubauen, um es zu verfeuern, halte ich für einen Frevel. Ich weiß nicht, was in den Köpfen derer vor sicht geht, sie so etwas anordnen. Bei uns in Deutschland ist es leider gelungen, die katholische Bischofskonferenz wie den Rat der Evangelischen Kirchen EKD und mit ihnen viele Gläubige für solcher Art „Klimaschutz“ zu mobilisieren. Als Begründung musste die biblische Forderung, die Schöpfung zu bewahren, herhalten. Aber gehören das CO2, ohne das kein pflanzliches Leben auf der Erde möglich ist, und die Menschen, die es umso mehr emittieren, je intensiver sie leben, etwa nicht zur Schöpfung?

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Interview von Regina Károlyi (Media-Mania.de)

Media-Mania.de: Gleich zu Beginn eine Frage zum Titel Ihres Buchs: Sind Menschen, die sich für Umwelt- und Klimaschutz einsetzen, in Ihren Augen Nihilisten? Diese Menschen haben doch ein konkretes Ziel vor Augen.

Edgar L. Gärtner: Der Begriff „Nihilismus“ war früher bekannter. Heute gibt es viele Leute, die sich darunter nichts vorstellen können. Ich werde stets danach gefragt. Wenn ich irgendwo auftrete, fange ich immer damit an, zu erklären, was Nihilismus überhaupt ist.

Bei Wikipedia findet man eine Definition des Nihilismus, die nahelegt, Nihilisten würden an gar nichts glauben. Das ist natürlich nicht der Fall. Die Nihilisten glauben durchaus an etwas, und zwar an etwas Gutes, an das absolut Gute. Dabei vergessen sie aber, abzuwägen. Im normalen Leben, das weiß jeder, muss man täglich „Nebenwirkungen“ in Kauf nehmen. Wenn man morgens aus dem Haus und zur Arbeit geht, muss man bereits abwägen, denn man könnte ja unterwegs umkommen. Das ganze Leben ist eine Abwägung. Diese Sichtweise ist den Nihilisten relativ fremd, sie sehen nicht, dass alles einen Preis hat. Im Extremfall geht das so weit, dass Klimaschützer den größten Teil der Menschheit opfern würden, um die globale Durchschnittstemperatur konstant zu halten. Es gibt Aktivisten, die sagen, wir müssen auf null CO2-Ausstoß kommen. Aber solange es Menschen gibt, werden diese immer CO2 produzieren. Wenn man null Emissionen haben will, muss man also auf Milliarden von Menschen verzichten. Zitate belegen, dass manche Leute bereit sind, so weit zu gehen. Das ist zwar nicht die Mehrheit, aber diese Einstellung existiert.

Media-Mania.de: Wie kamen Sie als ausgebildeter Ökologe dazu, sich dem Öko-„Mainstream“ zu widersetzen?

Edgar L. Gärtner: Man macht einen Lernprozess durch. Ich bin zur Ökologie gekommen, als diese noch etwas Ungewöhnliches war. In der ersten Phase meines Studiums habe ich sehr viel Biochemie gemacht, das war damals „in“. Die Biochemiker haben die Struktur der Enzyme enträtselt. Heute erledigen das Computer. Aber damals musste man es mühsam Schritt für Schritt herausbekommen. Und dann gewann an unseren Universitäten ganz langsam die Ökologie an Bedeutung.

Als ich studierte, wurde an der Frankfurter Universität die erste Professur für Ökologie eingerichtet. Jemand, der sich für Ökologie interessierte, war also damals, zu Beginn der 70er, alles andere als „Mainstream“. Man war Pionier, man musste sich durchsetzen und hatte dabei nicht das Gefühl, dass man daraus eine Religion machte. Man ging ziemlich pragmatisch ‚ran. Ich war ja damals in Frankfurt, und zu dieser Zeit war der Main tot – na gut, nicht tot, tot ist ein Gewässer nie. Ich habe den Main selbst analysiert, es gab darin jede Menge Pilze und Bakterien, aber kein höheres Leben. Niemand wäre damals auf die Idee gekommen, da hineinzuspringen, das war eine ganz eklige Brühe.

Damals haben wir uns engagiert, wir hatten auch Bürgerinitiativen, wir kämpften für Kläranlagen. Ich weiß noch, nach einigem Hin und Her hat dann Hoechst angefangen, Kläranlagen zu bauen. Die existierten noch gar nicht, als ich mit dem Studium anfing. Insofern war das schon eine andere Situation als heute. Ab den 70ern wurden nach und nach Investitionen getätigt, und irgendwann gab es im Main wieder Fische. Seit etwa fünfzehn oder zwanzig Jahren gibt es am Main sogar wieder Berufsfischer, was viele Leute gar nicht wissen. Der Main ist also wiederhergestellt und möglicherweise sogar in besserem Zustand, als er vorher war.

Die Menschen haben aber immer noch den Eindruck, dass die Umwelt extrem gefährdet sei, und schimpfen auf die Industrie. Sie sehen darin nicht Hersteller von Produkten, die unser Leben angenehmer machen; sie sehen in der Industrie etwas Böses, das die Umwelt kaputt macht. Und dieser Eindruck hat überhaupt nichts mehr mit der Realität zu tun. Die Realität ist, dass der Main heute wieder weitgehend sauber ist. Eigenartigerweise nimmt das kaum jemand wahr.

Media-Mania.de: Sie kritisieren sowohl die Nachhaltigkeitspolitik als auch das Vorsorgeprinzip. Müssen wir denn nicht, auch im Sinne unserer Kinder, nachhaltig mit den natürlichen Ressourcen umgehen? Und, was die Vorsorge angeht: sicherlich haben Sie auch eine Haftpflicht-, Berufsunfähigkeits- oder ähnliche Versicherung? Wenn der Einzelne sich schon gegen Unwägbarkeiten absichert, sollten das dann nicht erst recht Regierungen tun, die für sehr viele Menschen verantwortlich sind?

Edgar L. Gärtner: Das Versicherungsprinzip und der Gedanke der Vorsorge sind ja etwas Wichtiges. Ich treibe persönlich selbstverständlich auch Vorsorge, als Freiberufler Altersvorsorge, natürlich auch eine Lebensversicherung, Unfallversicherung, Berufsunfähigkeitsversicherung, Haftpflicht und Berufshaftpflicht.

Das kostet einen natürlich Geld. Nun sind wir schon beim Thema Geld: Es gibt durchaus einen Punkt, wo die Prämien so teuer werden, dass einem nichts mehr zum Leben bleibt. Und das ist das Problem beim Vorsorgeprinzip, das man von der Vorsorge abgrenzen sollte. Das Vorsorgeprinzip wurde 1992 auf der Rio-Konferenz definiert. Diese Definition ist unscharf und interpretationsbedürftig. Der Begriff „Kosten“ taucht zwar darin auf, es wird aber nicht explizit gesagt, dass man das Prinzip der Verhältnismäßigkeit respektieren muss. Das heißt, die Kosten müssen in einem vernünftigen Verhältnis zum Nutzen stehen. Ich habe eine ganze Zitatesammlung, die zeigt, dass manche nur noch an Vorsorge gedacht haben und nicht mehr an die Kosten. So zum Beispiel der damals in der EU federführende österreichische Umweltminister Josef Pröll, der das Vorsorgeprinzip im Jahre 2006 wie folgt auslegte: „Wenn Du Dir nicht sicher bist, welche Auswirkungen etwas hat, lasse die Finger davon.“ Hätten sich die Menschen immer danach gerichtet, hätten sie weder das Feuer gezähmt noch das Rad erfunden!

Sobald die Kosten den Nutzen überschreiten, wird es völlig irrational. Niemand würde eine Versicherung bezahlen, die ihn so viel kostet, dass ihm nichts mehr zum Leben bleibt.

In Amerika ist es schon so weit, dass sich viele Leute bewusst gegen eine Versicherung entscheiden. Die Deutschen sind ja nach Auskunft der Versicherungsfachleute meistens eher überversichert. Das ist unsere Mentalität. Es gibt andere Länder, wo man das etwas anders sieht. Man wägt immer ab: Erst kommt das Leben, dann die Vorsorge, und kein vernünftiger Mensch würde am Leben sparen um der Vorsorge willen.

Die aktuelle Wellnessbewegung ist in dieser Hinsicht auch interessant. Da machen viele Menschen ständig Diät, Gymnastik und so weiter, um ihre Gesundheit zu erhalten, aber leben überhaupt nicht mehr richtig, freuen sich nicht mehr, trinken nicht mal mehr einen und heben sich ihre Gesundheit sozusagen fürs Alter auf. Neulich hat ein bekannter Psychiater gesagt: „Auch wer gesund stirbt, ist definitiv tot.“ Das ist das Problem.

Media-Mania.de: Umwelt- und Klimaschützer möchten Einfluss auf die Politik nehmen. Die „Klimaskeptiker“, auch Sie, werfen diesen um das Wohl des Planeten besorgten, engagierten Menschen vor, eine Art neuer Religion gegründet zu haben. Wie ist das zu verstehen?

Edgar L. Gärtner: Ich habe ja selbst diese Entwicklung mitgemacht; ich habe einige Jahre für den WWF gearbeitet, der sich für den Artenschutz engagiert hat. Dann kam diese, nennen wir’s mal Mode, mit dem Klimaschutz. Nach harten verbandsinternen Diskussionen hat der Verband dann umgeschaltet, und es haben sich die Leute durchgesetzt, die sagten: „Wenn wir keinen Klimaschutz machen, wird uns Greenpeace beim Spendenaufkommen endgültig abhängen.“ Opportunismus also.

Es gab eine Zeit zu Anfang der 70er-Jahre, ich habe das ja von Anfang an mitverfolgt, da war das Klima eine ganz vage Geschichte. Damals waren die meisten davon überzeugt, dass wir uns auf die nächste Eiszeit vorbereiten sollten. Dann, in der zweiten Hälfte der 70er, hat sich Schritt für Schritt die Überzeugung durchgesetzt, dass die Erwärmung die größere Gefahr sei. Aber damals wurde immer noch diskutiert, da hat man auch mal Daten verglichen – so viele gab es noch nicht, die Satellitenbeobachtung begann ja erst in den späten 60ern. Es war also alles noch offen. Irgendwann gab es einen eindeutig feststellbaren Umschlag, wo Fakten eigentlich nicht mehr zählten.

Die Datenlage ist, objektiv betrachtet, so unsicher, dass man eigentlich nichts ausschließen kann. Es kann in den nächsten zwanzig Jahren kühler werden, es kann aber auch weiter wärmer werden, kein Mensch weiß das so genau. Irgendwann hat sich diese Diskussion verselbstständigt: Auf einmal hat die Politik offiziell nur noch auf Erwärmung gesetzt, und hier nun wird es religiös, wird es zur Staatsreligion. Man nimmt also Einwände nicht mehr zur Kenntnis, etwa die Tatsache, dass es seit fast zehn Jahren nicht mehr wärmer wird. Das ist eindeutig, das haben Satelliten gemessen, auch die Bodenmessungen haben das festgestellt.

Media-Mania.de: Wobei Stefan Rahmstorf [vom Potsdam-Institut für Klimafolgenforschung, Anm. Media-Mania.de] ja sagt, die Satellitenmessungen seien unzuverlässig …

Edgar L. Gärtner: Das stimmt nun gerade nicht, unzuverlässig sind die Bodenstationen. Das ist mittlerweile bekannt, weil sie oft in Gegenden stehen, wo in der Nachkriegszeit Veränderungen vorgenommen wurden. So gibt es Stationen, die einmal auf dem freien Feld standen, und mittlerweile befinden sie sich in dicht bebauten Gebieten. Die Temperatur auf einem Parkplatz mit Asphalt kann nicht die gleiche sein wie über einem freien Feld. Die Bedingungen für die Bodenstationen haben sich also über die Jahre geändert. Man kann die Daten, die dort gemessen wurden, gar nicht mehr vergleichen.

Die Satelliten sind Hightech. Sie haben sensible, sehr präzise Messinstrumente, die nur richtig geeicht werden müssen, das ist richtig. Dahingehend muss man investieren. Diesbezüglich hat man auch Korrekturen vorgenommen. Beispielsweise hat man zunächst nicht zur Kenntnis genommen, dass die Satelliten nicht stationär auf derselben Umlaufbahn bleiben, während sie um die Erde kreisen, sondern die ärgerliche Tendenz haben, etwas abzusinken. Also hat man inzwischen die nötigen Korrekturfaktoren eingeführt. Trotzdem zeigen die Messungen in den letzten zehn Jahren keinen Anstieg.

Ich beobachte, dass es Leute gibt, die davon keine Notiz nehmen, weil sie offenbar ein fest gefügtes Weltbild haben. Das ist aber die Charakteristik von Ideologie im Vergleich zur Wissenschaft. Wissenschaft ist ja immer etwas Vorläufiges. Wir Menschen haben zwar Vernunft, ich sage aber immer: Das Licht der Vernunft ist eigentlich nur eine Funzel. Man darf die Vernunft nicht überschätzen, wir sind nicht wirklich in der Lage, mit unserem Gehirn die Welt zu durchschauen. Sie ist so kompliziert, dass wir immer nur einen kleinen Ausschnitt erkennen können.

Wenn Sie z. B. als Chemiker/-in etwas im Labor machen, dann bekommen Sie das ganz gut in den Griff, weil Sie ja alle Randbedingungen konstant halten können. Und wenn es keine Einflüsse gibt, die Sie übersehen haben, können Sie mit Ihrem Experiment wirklich eine Aussage machen. In der freien Natur ist das so nicht möglich, sie ist einfach zu komplex, und man muss sich immer bewusst machen, dass wir nur beschränkte Möglichkeiten haben, diese komplexe Welt wirklich zu erkennen.

Wichtig ist, was man messen kann, und sobald Menschen Computermodellen mehr glauben als Messungen, bin ich alarmiert, weil ich weiß, dass ein Computermodell, selbst wenn es mit größtmöglicher Sorgfalt gemacht ist, nur den jeweils aktuellen Erkenntnisstand abbilden kann: einen winzigen Ausschnitt aus der unendlichen Komplexität. Nicht nur die Luft-, sondern auch die Meerestemperatur ist übrigens in den letzten zehn Jahren nicht gestiegen, sondern eher leicht gesunken.

Media-Mania.de: Von meiner subjektiven Wahrnehmung her waren die Sommer ab 2003 allerdings extrem warm.

Edgar L. Gärtner: Es ist da schon was dran. Ich kann mich erinnern, dass es in den 60ern und 70ern Sommer gab, in denen man froh war, wenn man mal zwei Tage ins Schwimmbad konnte; manche Sommer waren absolut verregnet. Und ich habe bemerkt, dass es in den 90ern, gerade in der zweiten Hälfte der 90er, eine Reihe von sehr schönen Sommern gab. Ich mache mir darüber gar keine Sorgen, sondern freue mich darüber, wenn es wärmer ist, und ich wäre auch froh, wenn es so bliebe. Der letzte Sommer war allerdings daneben.

Media-Mania.de: Sie wohnen ja nicht auf einem Atoll …

Edgar L. Gärtner: Sie meinen den Meeresspiegelanstieg. Man beobachtet einen seit hundert Jahren ziemlich konstanten Meeresspiegelanstieg. Das ist auch bekannt, es gibt in den Häfen offizielle Pegel, die man per Anruf abfragen kann, und in letzter Zeit wird dort sogar eine Verlangsamung des Anstiegs beobachtet. Für den von Al Gore in seinem Film postulierten Anstieg des Meeres um sechs Meter gibt es heute keinerlei Anhaltspunkte.

Media-Mania.de: Durch den Ökologismus – die ins Pseudoreligiöse abgleitende Spielart der Wissenschaft Ökologie – und die daraus resultierende Politik sehen Sie die Freiheit in Gefahr. Bedeuten Einschränkungen beim Konsum, vielleicht auch bezüglich der Mobilität denn wirklich Freiheitsverlust? Müsste man, gerade wenn es um den Weg hin zu erneuerbaren Energien geht, nicht das Wohl der Menschheit in ihrer Gesamtheit über solch luxuriöse kleine Freiheiten stellen?

Edgar L. Gärtner: Ich würde erst einmal gar nicht von Freiheiten reden, sondern von der Freiheit, denn für mich gibt es Freiheit nur im Singular. Wenn man von „Freiheiten“ spricht, könnte man ja auch von „Gleichheiten“ reden. Da würde jeder sofort merken, dass das Unsinn ist. In der französischen Revolution ging es ja nicht umsonst um Freiheit und Gleichheit. Außer um Freiheit, Gleichheit und Brüderlichkeit ging es übrigens auch um Eigentum, was heute manche vergessen – und alles steht in der Einzahl.

Freiheit kann man nur negativ formulieren. Frei sein heißt, kein Sklave sein, nicht abhängig sein von den Launen eines anderen, der über einem steht. Gehorchen soll man nur dem Gesetz und auf dessen Grundlage selbst entscheiden können, was man tut.

Wir wissen, wie gesagt, nicht, wie das Wetter in zehn, zwanzig Jahren sein wird. Insofern finde ich es sehr wichtig, dass jeder selbst entscheiden kann, was er tun möchte. Wer heute ein Haus baut, muss eigentlich alle Möglichkeiten in Betracht ziehen. Wer solide baut, macht keinen Fehler. Da kommt die Kosten-Nutzen-Abwägung ins Spiel. Mancher baut „für die Kinder“, aber wer weiß, ob diese nicht einen ganz anderen Geschmack haben? Schon da fängt es an, da muss man abwägen: Soll man ein Haus für die Ewigkeit bauen oder so, wie man es sich leisten kann, dass es eben über die eigene Lebensspanne hält – und mit wieder verwendbaren Materialien? Das wäre ein durchaus interessanter Aspekt.

Ich sehe das so, dass man nach dem gesunden Menschenverstand selbst entscheiden sollte. Derzeit schreibt man den Leuten bestimmte Maßnahmen vor, beim Hausbau zum Beispiel diese Isolierungen, deren Wirkung zum Teil gar nicht wissenschaftlich erforscht ist, wie mir Ingenieure und Bauwissenschaftler aus dem Bekanntenkreis bestätigt haben. Diese sagen, vieles, was in den Normen steht, sei schlicht und einfach Unsinn.

Zum Beispiel ist der K-Wert für den Wärmedurchgang durch eine Wand ein rein theoretischer Wert. Entscheidend ist die Höhe des effektiven Energieverbrauchs in einem Gebäude. Da erlebt man Überraschungen. Ich kenne einen Architekten in der Schweiz, der herausgefunden hat, dass in mehrstöckigen Gebäuden aus der Vorkriegszeit am wenigsten Energie verbraucht wird. Sehr schlecht sind Betonbauten aus der Nachkriegszeit, sehr gut hingegen Backsteinbauten. Der Staat schreibt den Leuten nun vor, sie müssen einige Dezimeter Schaumstoff auf die Außenwand auftragen; das nützt gar nichts.

Sinnvoll sind Fenster mit Doppel- oder Dreifachverglasung. Mit der Isolierung der Außenwand wäre ich sehr vorsichtig. Man weiß, dass eine nach Süden ausgerichtete Backsteinmauer, gerade wenn sie unverputzt ist, im Winter sehr viel Sonnenwärme von außen aufnehmen und nach innen abgeben kann und auch eine sehr gute Feuchtigkeitsregulierung bewirkt. Jetzt kommt der Staat, schreibt den Leuten einige Dezimeter Kunststoff außen vor, sie machen alles dicht – und 50% der Besitzer von Häusern mit Wärmedämmung haben Probleme mit Schimmelbildung. Es gibt zwar auch 50 %, die keine Probleme haben, aber es ist doch ein großes Risiko.

Media-Mania.de: Die Erdöl- und Gaspreise steigen massiv, abgesehen davon, dass die Ressourcen angesichts des zunehmenden Verbrauchs über kurz oder lang, wenn auch deutlich später als vom „Club of Rome“ vorausgesagt, erschöpft sein werden. Sollte eine Rückbesinnung auf die Kernenergie stattfinden, so wird sich auch das Uran irgendwann verknappen und maßlos verteuern. Wenn wir also mittelfristig doch auf erneuerbare Energien angewiesen sind, warum sollten wir nicht möglichst rasch reagieren und von den auf dem Markt umkämpften Rohstoffen unabhängig werden?

Edgar L. Gärtner: Von einer absoluten Verknappung von Erdöl und auch Kohle kann aktuell nicht die Rede sein. Es gibt jede Menge Erdöl, allerdings ist eine Zeit lang nicht viel in die Exploration neuer Vorkommen investiert worden. Das Kartell der Förderländer wird nie offen eine Angabe zur Höhe der Vorräte machen, denn das wirkt sich auf den Preis aus, der natürlich hoch bleiben soll. Ein bisschen passen sie freilich auf, denn sie wollen die Verbraucherländer nicht erdrosseln, wodurch ja der Verbrauch sinken würde. Also versucht man, nicht über die Schmerzgrenze hinauszugehen, aber der heutige Preis ist eindeutig manipuliert – und zwar in mehrfacher Hinsicht. Viele Menschen wissen gar nicht, dass sogar der größte Erdölkonzern, Exxon, kaum über eigene Quellen verfügt und daher sehr wenig Einfluss hat. Der Ölmarkt ist nun einmal kein freier Markt. Viel besser sind die Verhältnisse bei der Kohle, von der zurzeit kaum jemand behauptet, dass sie knapp wird. Niemand weiß genau, wie viel Erdöl es gibt. Manche Geologen sagen, es sei viel mehr da, als offiziell angegeben wird. Man muss auch erwähnen, dass Erdöl selbst eine erneuerbare Energie ist.

Media-Mania.de: Ich habe darüber in Ihrem Buch gelesen, aber das sollten Sie erläutern, denn ich habe davon vorher noch nie gehört.

Edgar L. Gärtner: Mit der Analytik befasste Chemiker müssen öfters bestimmen, ob Fette oder Öle aus Erdöl oder von Pflanzen oder Tieren stammen. Die üblichen Analysenmethoden gehen davon aus, dass Erdöl abiotisch, nicht biologisch, entstanden ist. Offiziell gilt es aber immer noch als biologischen Ursprungs, das stimmt aber höchstwahrscheinlich nicht. Es entsteht in der Erdkruste spontan unter bestimmten Bedingungen, die man in Versuchen nachstellen kann. Alle Zutaten zur Entstehung komplexer Kohlenwasserstoffe sind ja in der Erdkruste vorhanden, Kohlenstoff sowieso reichlich; es muss nur ein ausreichender Druck vorhanden sein, und es bildet sich spontan Erdöl. Das ist natürlich nicht immer erreichbar für uns, sondern oft viel zu tief, und häufig braucht es Erdkrustenbewegungen, um in unsere Reichweite zu gelangen. Ich würde aber davon ausgehen, dass Erdöl im Prinzip eine erneuerbare Ressource ist.

Media-Mania.de: Es kommt dann natürlich auf das Verhältnis Neubildung zu Verbrauch an, gerade, weil China und Indien nun dazukommen …

Edgar L. Gärtner: Da gibt es noch viel zu erforschen. Es gibt auch bekannte Vorkommen wie die Teersande, deren Erschließung einen großen Aufwand erfordert. Länder wie Kanada mit großen Vorkommen an Ölsanden freuen sich natürlich, wenn der Ölpreis über 100 Dollar bleibt, weil sich dann die Nutzbarmachung lohnt. Der Aufwand, ans Öl zu kommen, wird natürlich immer größer werden, aber das heißt nicht, dass kein Öl mehr da ist. Es wird dadurch selbstverständlich auch teurer, weil man immer tiefer bohren und auf Öle zurückgreifen muss, die nicht die optimale Zusammensetzung haben, zum Beispiel Ölsande oder schwere Öle, die ziemlich großen Raffinerie-Aufwand erfordern. Meiner Meinung nach gibt es aber keinen wirklichen Engpass, und man sollte in diesem Bereich die Probleme ein Stück weit auf sich zukommen lassen. Nun kommt wieder die Vorsorge ins Spiel und die Grenze, ab der sie irrational wird und die Kosten den Nutzen überwiegen. Man sorgt sich um ungelegte Eier und investiert in Technik, die man vielleicht überhaupt nicht braucht. Erdöl wird sicher nie ganz knapp werden, aber wohl irgendwann so teuer, dass man es sich nicht mehr leisten kann; bis dahin wird man sicher Alternativen haben. Vor Jahren sagte der damalige saudi-arabische Ölminister, Scheich Yamani, das Ölzeitalter werde nicht wegen einer echten Ölknappheit zu Ende gehen, ebenso, wie die Steinzeit nicht aufgrund einer Knappheit an Steinen endete.

Media-Mania.de: Im Folgenden nenne ich mehrere Einwände, die den „Klimaskeptikern“ häufig entgegengebracht werden. Bitte nehmen Sie dazu Stellung.

Erstens: Die „Klimaskeptiker“ werden von Lobbys aus der Erdöl-, Braunkohle- und Atomindustrie gesponsert und sind deshalb alles andere als unparteiisch.

Edgar L. Gärtner: Das ist sehr leicht zu beantworten. Heute hat man es bei der offiziellen Klimatheorie längst mit einer Art Staatsreligion zu tun, es gibt zurzeit weltweit keinen einzigen Konzern, der bereit wäre, auch nur einen Euro locker zu machen für die Position der Klimaskeptiker. Vor einem Monat war ich in New York auf einer großen Konferenz von „Skeptikern“, die von einem reichen Privatmann finanziert wurde, der zwar sicher sein Geld irgendwo in der Wirtschaft gemacht hat, aber es steckte keine Firma, kein Konzern dahinter. Es war eine Ausnahme, fast ein Zufall, dass sich jemand fand, der das finanziert hat. Keine Firma macht das heute mehr, nicht mal Exxon, die immer im Verdacht standen, so was zu machen. Aber das ist nun schon länger her.

Media-Mania.de: Und die Atomindustrie auch nicht?

Edgar L. Gärtner: Bei der Atomindustrie ist es etwas komplizierter. In der Vergangenheit hat sicher mancher von ihr profitiert. In der deutschen Atomindustrie gab es Leute, die fleißig mitgeholfen haben, die Klimahysterie zu schüren, weil sie dachten, auf diesem Umweg die Atomenergie praktisch wieder geschäftsfähig zu machen. Dieses Kalkül ist bislang nicht aufgegangen, aber da ist sicher einiges gelaufen.

Media-Mania.de: In letzter Zeit hat die Anzahl „klimaskeptischer“ Veröffentlichungen etwas zugenommen, sodass der Eindruck entstehen könnte, es fände tatsächlich eine Auseinandersetzung über das Thema „Klimaschutz und –wandel“ statt. In Wirklichkeit legen aber nur ein paar vereinzelte Personen ihre provokativen Thesen dar, denen Tausende renommierter Wissenschaftler gegenüberstehen.

Edgar L. Gärtner: Klar, auf dem deutschen Buchmarkt gibt es zurzeit mehr „skeptische“ Bücher, glaube ich, als „fromme“, möglicherweise sogar bezüglich der Verkaufszahlen, aber die aktuellen Zahlen kenne ich nicht. Die Diskussion ist nicht abgeschlossen. Gerade wird im Europaparlament eine Resolution diskutiert, in der gleich zu Anfang steht, dass die Klimafrage wissenschaftlich abgeschlossen sei. Also besteht kein weiterer Forschungsbedarf mehr, alles ist klar, das ist die offizielle Version. Die findet man natürlich nicht so häufig in Büchern, denn ein Wissenschaftsjournalist, der seine Aufgabe ernst nimmt, kann so etwas gar nicht schreiben: Eine Wissenschaft ist nie abgeschlossen. Wissenschaften und ihre Aussagen sind immer vorläufig, es kommt immer jemand, der etwas besser weiß, und selbst bewährte Theorien werden irgendwann relativiert, wie zum Beispiel Newton durch Einstein. Natürlich wirft man Newton nicht zum alten Eisen, weil Einstein gekommen ist, aber er wurde eben relativiert. Und so ist es immer in der Wissenschaft – jemanden, der behauptet, es bestünde kein Forschungsbedarf, den kann man nicht ernst nehmen.

Es gibt auch immer mehr Forschungsergebnisse, die nicht in das bisherige Bild passen. Um ein Beispiel zu nennen: Die Klimamodelle gehen ja davon aus, dass der Erwärmungseffekt nicht allein vom CO2 ausgeht – 0, 038 % Anteil in der Atmosphäre können das nicht bewirken -, sondern dass es ein positives Feedback gibt zwischen CO2 und Wasserdampf, denn es ist viel mehr Wasserdampf da, und er ist viel wichtiger für die Temperaturentwicklung in der Atmosphäre.

Nun gibt es Satellitenmessungen – keine Modelle, Messungen! -, die nach Ansicht von Roy Spencer von der University of Alabama zeigen, dass Wasserdampf hauptsächlich ein negatives Feedback erzeugt, das heißt, wenn die Luft wärmer wird, wird sie auch feuchter; das tritt vor allem in den Tropen auf. Dort kann man die Satelliten auch sehr einfach auf einer stationären Umlaufbahn halten. Wenn es wärmer wird, gibt es mehr Wasserdampf in der Atmosphäre, mehr Wolken und mehr Niederschläge. Es existiert ein enger Zusammenhang zwischen Temperatur und Niederschlägen, und man kann sagen, dass diese Gase mehr wie ein Thermostat als wie ein Treibhaus wirken, das sich immer mehr aufheizt. Ich nenne sie gar nicht mehr Treibhausgase, sondern bezeichne das als messbaren „Thermostateffekt“.

Man kennt die Klimahistorie inzwischen ganz gut und weiß, dass Afrika immer von wärmeren Phasen der Klimageschichte profitiert hat. Nach der letzten Eiszeit gab es ja eine Warmzeit, ein so genanntes Klimaoptimum, da war die Sahara extrem zusammengeschrumpft und regelrecht grün geworden. Die Ausdehnung des Tschadsees ist aufgrund von Ablagerungen bekannt – dazu braucht man keine Computer, das kann man mit bloßem Auge sehen. Der Tschadsee hatte seine größte Ausdehnung, wenn es auf der Erde wärmer war, und ist geschrumpft, wenn es kühler wurde. Insofern ist die Erwärmung für Afrika eine gute Nachricht, und wenn sich die Erde in den kommenden Jahrzehnten wieder abkühlen sollte, wie manche befürchten, würde sich das auf ganz Afrika negativ auswirken. Eine Erwärmung wäre also durchaus wünschenswert, und man müsste und sollte keine Milliarden investieren, um sie zu bekämpfen. Heute [04.04.08, Anm. Media-Mania.de] konnte man in der FAZ nachlesen, dass in der Zeitschrift „Nature“ führende Leute des IPCC wie Tom Wigley und Roger Pielke jr. darauf hingewiesen haben, dass alles, was man jetzt für den Klimaschutz tut, nichts nützen wird. Die ziehen allerdings daraus den Schluss, Nullemission zu fordern. Ich hingegen würde daraus schließen: Wenn das, was man jetzt tun will, nichts nützt, verzichtet man darauf und lässt den Dingen ihren Lauf. Wir würden ja auch gerne Erdbeben verhindern, können es aber einfach nicht.

Media-Mania.de: Die „Klimaskeptiker“ werfen den Mitgliedern des IPCC oft eine unwissenschaftliche Vorgehensweise vor. Doch bei diesen handelt es sich um qualifizierte Wissenschaftler. Sonst wären sie sicher auch gar nicht in dieses Gremium gelangt.

Edgar L. Gärtner: Das IPCC ist ein Gremium aus zweieinhalbtausend Leuten, und von diesen zweieinhalbtausend sind, glaube ich, nur etwas über hundert wirklich aktive Forscher. Die meisten Mitglieder würde ich als Klimafunktionäre bezeichnen; sie werden von ihren jeweiligen Regierungen entsandt. Die meisten der knapp zweihundert UNO-Mitgliedsstaaten haben Funktionäre in dieses Gremium entsandt, aber viele dieser Staaten, darunter kleine Inselstaaten, betreiben keine eigene Klimaforschung, die haben kein einziges Institut.

Die aktiven Forscher sind also in der Minderheit, und auch sie werden entsandt und kommen nicht über ein Qualifizierungsverfahren in das Gremium. Zudem weiß man, dass einige sehr gute Forscher nicht im IPCC sind, und es gibt auch einige, die das Gremium auf eigenen Wunsch in den letzten Jahren wieder verlassen haben, weil das Verfahren ihnen zu undurchsichtig erschien, und sie falsch zitiert wurden.

Man muss auch erwähnen, dass die IPCC-Reports von zwei Handvoll Leuten geschrieben werden. Wie gesagt, es handelt sich um Klimafunktionäre oder Klimadiplomaten, aus Deutschland etwa werden Leute aus den zuständigen Ministerien entsandt. Obwohl sie ein Studium und eine Qualifikation vorweisen können, sind sie keine Forscher, sondern Diplomaten. Und die diskutieren dann das Summary for Policy Makers, den einzigen Teil der Reports, der eventuell noch gelesen wird. Da wird jedes Wort von dem ganzen Gremium diskutiert, man einigt sich auf den kleinsten gemeinsamen Nenner und kommt dann oft zu nichts sagenden Aussagen, weil eben im Endeffekt alle zustimmen müssen. Ich will damit nichts gegen die UNO sagen, das ist ein anderes Problem.

Auch Leute wie Tom Wigley, die wirklich unmittelbar involviert sind, haben offen gesagt: „Wir waren nicht ehrlich.“ So wie jetzt in „Nature“, wo er meint, die Aussagen über die Gegenmaßnahmen seien nicht gedeckt vom Forschungsstand, und die Gegenmaßnahmen nützten nichts. Wenn das stimmt, wenn die Modelle, auf die sich das IPCC stützt und die ja übrigens eine große Spannbreite haben (interessanterweise sagt keines dieser Modelle eine Abkühlung voraus, was ja statistisch zu erwarten wäre), dann ist die neueste Erkenntnis die, dass die Erwärmung unvermeidlich ist, und dann hat es auch keinen Sinn, Milliarden für ihre Bekämpfung auszugeben.

Ich persönlich halte mich meistens den ganzen Sommer über am Mittelmeer auf und könnte mit einer mäßigen Erwärmung gut leben; es gibt auch Studien, die besagen, dass eine solche Erwärmung den Menschen zuträglich wäre: Man hätte weniger Erkältungskrankheiten – es gibt einen eindeutigen Zusammenhang zwischen kalten Wintern und Erkältungshäufigkeit, in kalten Wintern sterben auch viel mehr Leute. Nicht zufällig ist die Lebenserwartung in Südfrankreich um einige Jahre höher als in Nordfrankreich. Der Wirtschaft ginge es insgesamt besser, der Landwirtschaft sowieso. Das wäre günstig für die Ernährungssituation, denn man könnte die Landwirtschaft bis ins nördlichere Sibirien ausdehnen. Wie schon erwähnt, wäre für Afrika die Erwärmung ein Segen, weil es dort in wärmeren Zeiten mehr regnet. Daraus ergäbe sich also wohl kein Problem.

Es gibt eine enge Korrelation zwischen Temperatur und Sonnenaktivität. Ich bin zwar kein Spezialist dafür, aber die Korrelation ist eindeutig …

Media-Mania.de: So viel ich weiß, stimmt sie für die letzten Jahre aber nicht mehr.

Edgar L. Gärtner: Doch, in der Diskussion waren einige Leute wie Prof. Rahmstorf vom Potsdam Institut für Klimafolgenforschung (PIK) etwas voreilig, denn der Sonnenzyklus hat sich zwar schon eine Weile abgeschwächt, richtig, das läuft auseinander, aber man muss annehmen, dass es da eine Zeitverzögerung gibt. Das ist auch einsichtig, denn die Erde absorbiert den größten Teil der Sonnenenergie über die Meere, also über warmes Wasser. Der Löwenanteil der Sonnenstrahlen besteht ja aus Infrarotstrahlen, es sind also schon Wärmestrahlen, die ankommen. Und diese heizen die riesigen Ozeane auf. Wasser hat eine große thermische Trägheit, von der wir auch profitieren. Sonst würde es im Winter ja viel kälter. Manche Leute rechnen daher mit einer Verzögerung von zehn Jahren. Und dann wäre das stimmig, denn, wie schon erwähnt, haben sich die Ozeane in den letzten Jahren nicht mehr erwärmt.

Media-Mania.de: Ich komme kurz auf die Forscher zurück. Sie sagen, es gebe im IPCC sehr wenige Forscher – muss man denn dort nicht vor allem Leute haben, die weniger an vorderster Front forschen, sondern eher Forschungsergebnisse kompetent zusammenführen und interpretieren?

Edgar L. Gärtner: Als Wissenschaftsjournalist habe ich mich natürlich mit der Aggregierung von Wissen befasst, denn die meisten Forscher sind ja, wie man abwertend sagt, Fachidioten, weil man Hochleistungsforschung natürlich nur auf einem sehr engen Gebiet machen kann. Ein Generalist kann keine wirkliche Forschung betreiben. Wer an vorderster Front forscht, ist also stark spezialisiert und hat nicht mehr die Übersicht. Man muss irgendwelche Mechanismen finden, die diese Aggregierung leisten, das ist richtig, und das gilt auch nicht nur für die Wissenschaft. Es gibt ein Buch von James Surowiecki, „Die Weisheit der Vielen“, und das bezieht sich zum Beispiel auch auf die Wirtschaft. Der Autor leitet darin viele sauber aufgelistete Erkenntnisse ab, und er sagt sinngemäß: „Wenn man erreichen will, dass ein Kollektiv schlauer ist als ein Einzelner, muss gewährleistet sein, dass die Einzelnen, die ihre Meinungen kundtun, voneinander unabhängig sind.“ Das ist ja auch der Grund, weshalb man in Wahlkabinen und nicht öffentlich wählen lässt.

Eine andere Bedingung ist, dass es in der Aggregierung eine Art Marktmechanismus gibt, eine Art Wissensmarkt, ein Wechselspiel von Angebot und Nachfrage mit einer gewissen Auslese. Wenn man das IPCC sieht, beobachtet man, dass diese Voraussetzungen nicht gegeben sind, denn die Mitglieder des IPCC sind nicht voneinander unabhängig. Deren Karriere hängt extrem davon ab, was andere über sie denken, weshalb sie sich oft gar nicht leisten können, ihre Gedanken offen auszusprechen. Was eben auch dazu führt, dass eine Reihe von bekannten „Skeptikern“ alte Leute sind, denn die konnten ihren Mund erst aufmachen, als sie pensioniert wurden. Ein aktuelles Beispiel ist ein führender französischer Physiker, der vor kurzem pensioniert wurde und nun unter dem Pseudonym Jean Martin den Blog „Pensée unique“ betreibt. Er möchte seine Identität nicht preisgeben, um die Mitarbeiter des Instituts, das er geleitet hat, nicht in Schwierigkeiten zu bringen.

Die Gegenseite sagt: „Das sind alte Knacker, die haben nicht mehr die Kurve gekriegt, sind verkalkt“ und so weiter. Ich sehe das eher positiv, weil diese Menschen unabhängig sind, keine Karriereperspektiven mehr haben und deshalb sagen können, was sie wirklich denken und aufgrund ihrer reichen Erfahrungen einiges besser einschätzen können als junge Leute, die neu in der Materie sind.

Man muss ja auch erwähnen, dass Klimaforscher nicht unbedingt Spezialisten sind, viele von ihnen kennen sich besser mit Computern aus als mit dem realen Wetter. In meinem Studium habe ich selbst Bioklimatologie betrieben: Wir haben anhand von Zeigerpflanzen Klimazonen festgelegt; anhand des Jahresgangs der Temperatur und der Niederschläge kann man eigentlich alles einteilen, und dann nimmt man Pflanzen, vorzugsweise Bäume, und kann damit Klimazonen auf den Kilometer, teils Meter, festlegen. Da habe ich also aktiv mitgearbeitet. Viele von den Leuten, die Modelle bauen, kennen das gar nicht. Die haben Mathematik oder Physik studiert und waren wahrscheinlich auch ganz gute Studenten, wissen aber zu wenig über das Klima.

Media-Mania.de: Es müssten also zum Beispiel mehr Meteorologen im IPCC sein.

Edgar L. Gärtner: Ja, es sind erstaunlich wenige Meteorologen dabei. Als Beispiel: Stefan Rahmstorf ist theoretischer Physiker und hatte ein Thema, das in Richtung Einstein ging. Damit hat er sich wohl nur geringe Karrierechancen ausgerechnet und sich noch im Rahmen seines Studiums umorientiert. Aber er hat nicht Meteorologie oder Klimatologie studiert.

Media-Mania.de: Haben Sie ein weiteres Buch in Planung oder in Arbeit, und wenn ja, worum wird es darin gehen?

Edgar L. Gärtner: Ich beschäftige mich sehr stark mit dem Problem des gesunden Menschenverstandes, was schon mit der Frage beginnt, ob es so etwas überhaupt gibt, denn manche streiten das ab. Ich habe im Moment nicht vor, darüber ein Buch zu schreiben, aber später vielleicht schon. Das ist auch ein sehr politisches Thema. Natürlich wird es auch ein paar Aspekte aus der Hirnforschung geben, weil sich da zurzeit viel tut, aber das wäre nicht die Hauptsache. Ich bin da sehr stark beeinflusst von der Philosophin Hannah Arendt. Es gibt nicht viele Philosophen, die über den gesunden Menschenverstand geschrieben haben. Dieses Projekt ist jedoch noch nicht so konkret.

Ich möchte aber gerne vorher ein Büchlein schreiben zum Thema „Achtung! Das funktioniert!“, ausgehend von der Beobachtung, dass heute etwas, das funktioniert, schon fast verdächtig wirkt. Die Leute sehnen sich ständig nach Dingen, die nicht funktionieren können. Ich möchte eine Art Lexikon machen – alphabetisch, nicht so verschachtelt, etwas leichter. Über mein Buch [„Öko-Nihilismus“, Anm. Media-Mania.de] haben viele Leute gesagt, es sei gut, aber nicht so leicht zu lesen, man brauche viel Zeit. Es ist in der Tat etwas dicht geschrieben, aber der Umfang war vom Verlag vorgegeben. Und da möchte ich nun etwas leichtere Kost bieten, ein Lexikon also, sozusagen Kraut und Rüben, Technik, aber auch Politik und Aspekte aus dem normalen Leben bis hin zur Religion, denn dort gibt es ja auch Dinge, die funktionieren.

Media-Mania.de: Ich bedanke mich für das Interview und wünsche Ihnen weiterhin viel Erfolg bei Ihrer Arbeit.

Edgar L. Gärtner: Danke.

(Dieses Interview wurde von Regina Károlyi am 04.04.2008 2008 in Frankfurt/Main geführt.)

=============================================================================================

Besprechungen

Media-Mania, 15. Februar 2008

Wenn ein ausgebildeter und versierter Ökologe die gängige Politik im Namen der Ökologie scharf angreift, so mag das auf den ersten Blick verwundern. Traut man sich, ein Buch zu lesen, das sich massiv gegen den “Mainstream“ der Publikationen zum Thema Klima- und Umweltschutz wendet, dann wundert man sich anschließend eher darüber, dass sich nicht mehr Fachkundige wie Edgar L. Gärtner kritisch bezüglich der aktuellen Politik und Stimmungsmache äußern.

Denn, so vermag der Autor schlüssig und unkompliziert nachzuweisen, die Klimadebatte und die damit verbundenen Restriktionen für den Einzelnen beruhen größtenteils nicht auf Daten, die mittels naturwissenschaftlicher, eindeutiger Methoden gewonnen wurden, sondern auf Computersimulationen, die auch heute noch extrem fehlerbehaftet sind und sich an Größen orientieren, die nach dem aktuellen Wissensstand so nicht stimmen und im Grunde jedes gewünschte Ergebnis liefern können.

Schritt für Schritt analysiert Edgar L. Gärtner die Umweltschutzpolitik der letzten Jahrzehnte. Er zeigt, dass Nachhaltigkeit, von der Idee her durchaus klug, in der von Politikern propagierten Form nur zu Verarmung eines Großteils der Bevölkerung und zu einem wirtschaftlichen Rückschritt führen kann. Vor allem geht es ihm darum, deutlich zu machen, dass die von oben verordnete und logisch nicht nachvollziehbare Klimaschutzpolitik auf einen massiven Verlust des Einzelnen an Freiheit, einem demokratischen Grundrecht, abzielt. Dazu gehören nicht einmal so sehr die Versuche, die Mobilität des Bürgers durch unmäßiges Verteuern und Verleiden des Autofahrens einzuschränken, sondern sondern durch regelrechte Planwirtschaft (beispielsweise Reduktion eines erheblichen Teils der Kohlendioxidemissionen in kürzester Zeit, obwohl mittlerweile vieles gegen das Kohlendioxid als wesentlicher Faktor im Klimageschehen spricht). Politiker versuchen, ein neues, die Bevölkerung in ihrer Angst einigendes Feindbild zu kreieren, das Kohlendioxid, nachdem der alte Feind “Kommunismus“ mit dem Ende des Kalten Kriegs abhanden gekommen ist.

Die Ökologie hat sich dem Autor und seinen Argumenten zufolge zum Ökologismus gewandelt, einer Religion oder einem Religionsersatz zur Erzeugung eines schlechten Gewissens und eines Heilsgedankens; diese Religion hält sich allerdings für die allein verbindliche und stellt somit unser Recht auf Religionsfreiheit infrage.

Gärtner spürt vielen Aspekten des Ökologismus seit seinen Anfängen nach, die etwa bei Rousseau anzusiedeln sind: dem Nachhaltigkeitsgedanken, dem “Vorsorgeprinzip“, das vor lauter Sorge um die Zukunft die Gegenwart brachliegen lässt, und dem eigenartigen Demokratieverständnis der Anhänger des Ökologismus.

Wer sich ausschließlich an den Massenmedien orientiert, ohne den gesunden Menschenverstand einzusetzen, wird diesem Buch wenig abgewinnen können, denn es fordert den berühmt-berüchtigten “Common Sense“ ein und dazu den Willen, sich auf naturwissenschaftliche Zusammenhänge einzulassen und anzuerkennen, dass es keineswegs die viel propagierte Übereinstimmung unter den so genannten Klimaforschern gibt, sondern vor allem eine Jagd nach ziemlich willkürlich verteilten Fördergeldern. Warum sonst würden Klimaforscher, lange Zeit dem “Mainstream“ angehörig, nach ihrer Pensionierung plötzlich gegen diesen angehen?

Der Autor als Naturwissenschaftler kritisiert nicht zu Unrecht, dass in den zum Klimaschutz berufenen Gremien hauptsächlich Computerspezialisten sitzen, nicht jedoch, wie anzunehmen, Naturwissenschaftler, vor allem auch Geologen und Astronomen. Angesichts dieser Tatsachen fällt es Gärtner leicht, Aussagen nicht nur des “Club of Rome“ in den 70er-Jahren des letzten Jahrhunderts, sondern auch aus populärwissenschaftlichen oder Fachartikeln zum Thema ad absurdum zu führen.

Gärtner untersucht die Ursachen des aktuellen Verlustes an Freiheit (Meinungsfreiheit eingeschlossen, denn wer sich kritisch-fundiert zur politisch motivierten Ökologie äußert, muss, wie auch die Rezensentin weiß, ein starkes Rückgrat haben), der von einem nicht geringen Teil der Bevölkerung schweigend mitgetragen wird, und damit einhergehende Phänomene auf ihre Relevanz für die künftige Wirtschaft.

Dass sich im Sinne der Unterbindung der Freiheit abseits der öffentlich zugänglichen Räume einiges tut, ist unbestritten, und der liberale Autor zeigt zudem auf, wie die zunehmende Freiheitsbeschneidung sich gerade auf die abhängig Beschäftigten auswirkt. Denn jeder einzelne Mitarbeiter sollte, meint Gärtner, seinen Grundrechten entsprechend, seine Zukunft und die seiner Kinder und Enkel weitestgehend selbst gestalten dürfen, was schon allein aufgrund der exorbitanten Einkommensbesteuerung zunehmend schlechter möglich ist.

Kaum ein Aspekt zum Thema, den Gärtner sich nicht vornimmt, und die Parteienlandschaft kommt durch die Bank schlecht weg. Ob sich der Leser nun über den wirklich notwendigen Umweltschutz oder den Sinn und Nutzen einer Gelben Tonne informiert, der Autor argumentiert immer logisch. Allerdings setzt er gelegentlich mehr angelesenes oder an der Hochschule erworbenes Sachwissen voraus, als der Leser unter Umständen mitbringt, und sein Stil wirkt streckenweise zu gedrängt. Er zeigt jedoch schonungslos auf, woran etliche Menschen heute auf Kosten der Mehrheit verdienen, und gibt allen anderen die Chance, dies zu unterbinden. Man muss nicht unbedingt in jedem Detail mit Gärtner übereinstimmen, sollte aber im Sinne einer differenzierten Meinungsbildung Bücher wie dieses gelesen haben.

Regina Károlyi, Media-Mania.de

==============================================================================================

Eine philosophische Abrechnung mit der Politischen Ökologie

von Dr. Gerhard Voss

Einen nicht ganz einfachen Lesestoff präsentiert der studierte Hydrobiologe und Umweltjournalist Edgar L. Gärtner mit seinem fast 300 Seiten umfassenden Buch über die Hintergründe der weltweiten umwelt- und klimapolitischen Entwicklungen. Als früherer Akteur der „grünen“ Bewegung gehört Gärtner heute zu den selteneren kritischen Geistern in der Umweltdiskussion. Sein Buch ist deshalb auch nicht nur eine distanzierte Würdigung aktueller umweltpolitischer Daten und Fakten, sondern mehr eine engagierte, mit vielen historischen Bezügen und philosophischen Argumenten gespickte Abrechnung mit der politischen Ökologie.

In einer Gesellschaft, die gerade auch in der Umwelt- und Klimapolitik auf political correctness Wert legt, wirkt schon der Titel des Buches provozierend. Um die Studie richtig einordnen zu können, muss man sich unvoreingenommen auf die Suche nach dem Wertegerüst begeben, von dem aus der Autor die politischen Entwicklungen beurteilt. So lässt er gleich zu Beginn in einer persönlichen Vorbemerkung den Leser wissen, dass er sich politisch bei den “Radikal-Liberalen“ oder “Libertären“ und „Konservativen mit mehr oder weniger engen religiösen Bindungen“ verortet. Unmissverständlicher könnte seine Positionsbestimmung auch lauten: Liberal mit religiösen Bindungen. Märkte sind für ihn nicht von sich aus frei, sondern bedürfen „der politischen Gestaltung einer universal-moralisch begründeten Rahmenordnung“ (S. 230). Dabei beruft Gärtner sich auch auf Friedrich August von Hayek, der wiederholt auf Bezüge zwischen Marktwirtschaft und christlicher Religion hingewiesen hat.

Wichtig für den Standpunkt des Autors ist aber auch seine Definition von Nihilismus, die im ersten Kapitel auf Seite 22 erfolgt. Nihilist sein bedeutet nicht, an nichts zu glauben, sondern nicht zu glauben an das, was ist. Der Realitätsverlust so mancher Politiker ist ein Symptom dieser Haltung. Am Schluss des Buches, im Abschnitt „Ein amerikanischer Traum von Europa“, wird Gärtners Weltsicht nochmals komprimiert beschrieben: Das Argumentationsmuster, mit dem Albert Camus seinerzeit totalitäre und nihilistische Entwicklungen im 20. Jahrhundert gegeißelt hat, bildet den anspruchsvollen politischen, philosophischen und letztlich auch religiösen Hintergrund des Buches. Öko-Nihilismus steht bei Gärtner für Verachtung der „unveränderlichen menschlichen Natur“, für „Ersatz individueller Freiheitsrechte durch Wertekataloge, die Gesinnungsterror rechtfertigen“ wollen. In diesen Kontext ist auch der „gesunde Menschenverstand“ einzuordnen, dem der Autor mit Verweis auf das Subsidiaritätsprinzip der katholischen Soziallehre sozusagen die Rolle eines generellen Problemlösers zuweist.

Vor dem Hintergrund des beschriebenen Wertegerüstes entwickelt der Autor seine harsche Kritik am Wohlfahrtsstaat und an der politischen Ökologie, wie sie sich in den letzten Jahrzehnten entwickelt haben. Aufgrund seiner intimen Kenntnisse über die Entwicklung der Umweltbewegung in Deutschland werden die verschiedensten polit-ökologischen Strömungen sowie umweltpolitische Aktionsprogramme und Maßnahmen unter die Lupe genommen. Kritik wird vor allem am Vorsorgeprinzip geübt. Wie in der Sozialpolitik des Wohlfahrtsstaates würden auch in der Umweltpolitik mit diesem Prinzip Maßnahmen, Programme, Gesetze und Verordnungen begründet, die dem Einzelnen die Luft zum Atmen rauben würden. Die Wurzeln dieser Entwicklung liegen nach Ansicht des Autors bei dem heute dominierenden „jakobinschen“ Primat der Politik, „bei dem das Recht auf Freiheit hinter das Recht auf Existenz durch staatliche Fürsorge zurücktritt“ (S. 173). Nicht zuletzt auch die Programme und Pläne für eine nachhaltige Entwicklung hätten nichts anderes zum Inhalt, als dass sie die Menschen zu ihrem Glück zwingen wollten. Nachhaltigkeit ist für Edgar Gärtner, so wie es auch die Enquete-Kommission des Bundestages „Schutz des Menschen und der Umwelt“ formuliert hat, kein planbarer, wissenschaftlich begründbarer Zustand, sondern eine „regulative Idee“ im Sinne Kants, „ein offenes erkenntnistheoretisches Konstrukt, das dem menschlichen Verstand bei Such- und Lernprozessen die Richtung weist“ (S.193).

Allerdings ist auch der Autor selbst nicht gefeit vor Polemik und überzogenen Positionen. Das ist beispielsweise bei den an vielen Stellen des Buches fast ideologisch anmutenden Ausführungen zu den klimapolitischen Zusammenhängen der Fall. Die Einordnung von Theorien über eine drohende Klimakatastrophe – so fragwürdig sie auch sein mögen – als „von selbsternannten Hohepriestern frei erfunden“ (S. 243), überschreitet nicht nur das Gebot der political correctness, sondern schneidet auch den Weg ab für eine bessere politische Bewertung von Erkenntnissen der Klimaforschung. Insgesamt fehlt die konstruktive Würdigung der Existenz globaler politischer Gestaltungsaufgaben, gerade auch in der Umwelt- und Klimapolitik. Auch so mancher vernünftige Ansatz in der Wirtschaft und Gesellschaft für den Umwelt- und Klimaschutz sowie die internationale Zusammenarbeit gehen im Kritikhagel des Autors unter. Zudem erscheint die Beschreibung der Umwelt- und Klimapolitik als ein Werkzeug der Kalten Krieger sehr eigenwillig. Auch so manche Problemgewichtung und Kritik ist unverhältnismäßig. Es wird mit Kanonen auf Spatzen geschossen. So wird beispielsweise die Agenda 21 sehr einseitig ausgelegt und in ihrer Bedeutung weit überschätzt. Das gilt auch für den Emissionshandel. Für den im Umwelt- und Klimaschutz engagierten Bürger, Wissenschaftler und Politiker bietet das Buch dann auch für den Alltag nur begrenzte Hilfestellungen. Aber es provoziert und zwingt den Leser zur Überprüfung seiner eigenen Position oder Vorurteile.

Unabhängig von seiner umwelt- und klimapolitischen Einordnung ist das Buch aber ein eindrucksvolles Plädoyer für eine freiheitliche Wirtschaft und Gesellschaft, die nicht einfach dem Laissez-faire frönt, sondern in der die individuelle Freiheit und Verantwortung des Einzelnen in den Vordergrund gestellt wird. Lesenswert ist das Buch vor allem auch deswegen, weil das Plädoyer für die Freiheit mit vielen originellen historischen Bezügen und philosophischen Darstellungen verknüpft wird. Dabei erfolgt auch eine lehrreiche, zum Teil recht eigenwillige Auseinadersetzung mit einschlägigen Philosophen, Soziologen, Historikern und politischen Strömungen.

Dr. Gerhard Voss

Langjähriger Leiter der Forschungsstelle Ökonomie/Ökologie im IW Institut der deutschen Wirtschaft, Köln

(erschienen in: Zeitschrift für Umweltpolitik & Umweltrecht (ZfU), Nr. 4/2008)

=========================================================================================

DIE WELT vom 1. September 2007

Buchtipp

Jungks Atomstaat geht, Gabriels Karbonstaat kommt

Von Ulli Kulke 1. September 2007, 13:00 Uhr

Edgar L. Gärtner plädiert dafür, in der Klimadebatte einen kühlen Kopf zu bewahren. Nicht der Islamismus ist für den Autoren der Nachfolger des Kommunismus als Gefahr für den Westen, sondern der ökologische Totalitarismus. Die Naturwissenschaft wird zur Umweltwissenschaft.

Öko-Nihilismus

Im Jahre 1977 veröffentlichte der Sachbuchautor Robert Jungk seinen Klassiker „Der Atomstaat“. Ein düsteres Szenario. Jungk stellte neben die damals um sich greifende Angst vor atomarer Strahlung, vor dem GAU, vor der Jahrtausendlast Atommüll, auch noch die Furcht vor dem totalen Überwachungsstaat. Durch diesen, so lautete die Lesart Jungks, werde die Bundesregierung die nuklearen Risiken der geplanten rund 50 Atomkraftwerke einzudämmen versuchen – mit ungewissem Ausgang, versteht sich.

Jungks Szenario blieb ein Horrorgemälde, der GAU im Lande kam nicht, auch Big Brother war weiterhin Science fiction. Wenn sich heute Totalitäres abzeichnet, so aus einer ganz anderen Richtung, platt gesagt aus der Gegenströmung heraus. Auch wenn es abermals um den Energiebereich im Lande geht, die Grundlage der Volkswirtschaft. Edgar Gärtner warnt in seinem neuen Buch „Öko-Nihilismus“ vor den einschneidenden Konsequenzen, die die aus seiner Sicht mehr als fragwürdig verlaufende, aber dennoch verhängnisvolle Klimadebatte auf unser Leben haben wird.

Gerade auch dieser Tage, lange nach Drucklegung des Buches, wird deutlich, wie einschneidend sich im Zuge des neuen Diskurses die Rolle des Staates in Wirtschaft und Gesellschaft verändern wird. Die mit viel Aplomb und professioneller Medienarbeit im Frühjahr vorgestellten Weltklimaberichte waren da nur der publicityträchtige Überbau, jetzt aber wird es ernst.

Der „Klimacent“ ist in die Debatte geworfen. Auch wenn seine Einführung sogleich dementiert wurde: Die Steuer wird kommen, und sie wird gewaltig ausfallen, schließlich soll die Energie aus dem Markt genommen und in eine staatlich bestallte Branche überführt werden, in dem nicht mehr die 2,5 Cent teure Kilowattstunde aus der Kernkraft dominiert, sondern die viermal so teure aus Wind und Sonne – gespeist aus Steuermitteln. Der Staat wird auch das andere Ende der Stromleitung beherrschen: Niemand soll mehr Strom und Wärme nach Gutdünken ins eigene Haus holen dürfen. Baden-Württemberg macht den Anfang und schreibt vor, welche Aggregate im Keller oder auf dem Dach zu installieren sind. Bundesweit schließlich wird kein Haus mehr privat verkauft werden dürfen, ohne dass es einem staatlichen Klimacheck unterworfen wurde, vom First bis zum Fundament.

Die immer anspruchsvolleren Klimaziele, die sich nicht nur die Bundesregierung, sondern alle Parteien, alle gesellschaftlichen Gruppierungen gesetzt haben, zeigen: Dies ist nur der Anfang. Sehr verhalten nur beginnt es nun den Wirtschaftsverbänden zu dämmern, wohin der mit erneuerbaren Energien getriebene Zug im Lande hinrollt: Werden die Verbände, ja wird die ganze Marktwirtschaft obsolet wie bei der letzten großen Umwälzung der Heizer auf der E-Lok? Wird der unheimliche Lenin wiederauferstehen und seinen alten Spruch „Sozialismus ist Sowjetmacht plus Elektrifizierung“ nun etwas abgewandelt unter die Leute bringen: „Sozialismus ist Grüne Macht plus Solarstrom?“

Kein Zufall ist es jedenfalls: Die Energiewirtschaft, die Schlüsselbranche, scheint nur allzu verlockend zu sein als Hebel für politische Umbrüche, ob gewaltsam oder auf leisen Sohlen. Sie ist gut