Precaution or Arbitrariness?

The “precautionary principle” leaves open the question of whether preventive measures are also subject to cost-benefit criteria or not. Even non-monetary evaluations of the costs and benefits of actions to prevent hypothetical threats appear all too often more than doubtful, especially when they show that screening is only available at the cost of individual freedom. In real life people often have to decide between two evils. Which one is the lesser?

Prevention is not Always Better than The Cure

by Edgar L. Gärtner

Lessons about Precaution from the Swine Flu Vaccine Fiasco

The French government under the ever-energized President Nicolas Sarkozy became aware at the beginning of the year that it was threatened to sit on more than 90 million doses of Swine flu vaccine, hastily ordered last year to face an allegedly advancing pandemic. Only five out of currently more than 60 million French people got vaccinated to date against the exaggerated threat of a planetary swine flu pandemic. According to estimates by physicians, at the same time more than 20 million French people got immunized against the new flu variant free of charge, i.e. by responding to infection with barely perceptible slight flu symptoms. More than one billion euros seemed to be set in the sand. In the German federal states, the situation is similar but not quite as bad as in France. Since the ordered batches are in part not yet produced, France and Germany managed to cancel at least part of their orders. Especially in France the following questions remain unanswered: Why almost 100 million vaccines were ordered – three times more than what would have been necessay for a reasonable coverage of the population? Why did the government invest simultaneously on a vast storage of the controversial flu drug Tamiflu (one third of total world reserves!)? Why were expensive gas masks purchased, but only available for top officials and managers?

I’m not looking for responses like those given by libertarians and conspiracy theorists, whereby the virus itself H1N1 and his propagation is imputed to worldwide machinations of pharmaceutical companies GlaxoSmithKline (GSK), Sanofi-Pasteur and Novartis. I restrict myself rather to the official justification of action by the “precautionary principle”. This decision scheme was invented in Germany at the beginning of the 70s and became known worldwide after the 1992 “Earth Summit” in Rio de Janeiro under the following definition: “Where there are threats of serious or irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation.” (Principle 15 of the Rio Declaration). Subsequently, this principle was introduced into the Maastricht Treaty, the Lisbon Constitutional Treaty and the French Constitution. As Nicolas Sarkozy has himself set upon overrun the Germans with preventive rhetoric, he gave his officers orders to try hard to follow the principle consistently. But just by doing that they have created the problems they are now facing. Because unlimited provision is an absurd idea. Those who constantly concentrate on precaution, forget to live. The precautionary principle is useful only insofar as it is not consistently applied. Healing is much more important than prevention, even though the welfare state’s advertising is mindlessly repeating the opposite.

The above-quoted definition of the “precautionary principle”, namely, leaves open the question of whether preventive measures are also subject to cost-benefit criteria or not. Widespread is the view that cost considerations are not justified when it comes to human life. If this argument was valid, there would be neither life nor accident insurance. Underlining this I do not deny that the monetary evaluation of life issues must remain very restricted. But even non-monetary evaluations of the costs and benefits of measures to prevent hypothetical threats appear all too often more than doubtful, especially when they show that screening is only available at the cost of freedom. There are exceptions like private retirement plans or provisions for maintenance and repair costs, as well as precaution measures against harmful events, whose probability can be realistically estimated. But even in these cases it is often not enough to weigh between the advantages and disadvantages of economically justifiable protection measures. In real life instead, people often have to decide between two evils. Which one is the lesser?

Such decisions, if they are not spontaneously taken from the gut, can in general not be justified without any reference to religious belief. As long as Christianity was prevailing in Europe this was no problem. Later, Christian Humanism was successively replaced by Ecologism, a synthetic mix of knowledge and unfounded beliefs with a clear misanthropic, if not nihilist tendency. No wonder that allegedly preventive actions and investments, justified by the “precautionary principle” more and more turn out to be economically disastrous.

Internet:

Revisiting the Swine flu lies and hysteria

France’s Swine Flu Fiasco

Financial Time on France’s Vaccine Flop

The Rio Declaration on Environment and Development (15 January 2010)

==========================================================================================

Precaution or Arbitrariness?

Plasticizers in Political Crossfire

By Edgar Gärtner

This study has been made possible by the financial support of the AgPU – Working Group on PVC and the Environment, Bonn

The EU ban on plasticizers in toys

Despite the enormous health benefits brought by the use of DDT, which provided an extremely effective insecticide and was instrumental in the fight against malaria, a total ban was imposed on its use in 1972 on the basis of unsubstantiated health and environmental threats. International bans have since been introduced on other substances and, once in place, they are virtually impossible to reverse.

Similarly, unfounded suspicions and accusations led the EU to impose a total ban on the use in children’s toys of three plasticizers employed in the manufacture of PVC (DEHP, DBP and BBP). It also has prohibited the use of three additional plasticizers (DIDP, DNOP and DINP) in babies’ toys intended to be put in the mouth. This is not the EU’s first attempt to impose a substance ban motivated primarily by politics – as opposed to a decision made on sound scientific principles. Yet this case forms a precedent which would serve to create lasting, fundamental, and possibly irreversible flaws in EU policies on technology and the environment.

Only one of the substances, DINP, is currently in general use in children’s toys. This material has been subjected to a thorough risk assessment in the EU and again in the US, and has been found to be quite safe. Industry has spent over 130 million Euros in total to assess the health and environmental risks of plasticizers such as DEHP. A core reason for these tests was these plasticizers’ widespread use in medical equipment. All have now been in such longstanding use that if there had been any harmful side effects from their application these would have long since come to the fore. The EU now forces manufacturers of pacifiers, plastic ducks and baby equipment to switch to alternative plasticizers, which have not been investigated as thoroughly, have often not been tested for these applications and are often considerably more expensive.

Adipates are one possible substitute. Their possible impact on human health and the environment to appear to be slight, but so far they have not been subjected to such exhaustive examinations as have the six banned substances. Other alternatives, although extant for some time, have a high migration tendency, and are clearly much less suitable for these applications.

Citrate esters, touted by environmental groups as more environmentally and health-friendly, migrate from treated materials so quickly that these objects easily become brittle. Toys manufactured using citrate esters as plasticizers will therefore put children at risk of swallowing broken-off fragments. Are we therefore justified in substituting a (theoretical) health risk with the much more concrete risk of a child choking?

Greenpeace activists, on whose arguments the EU’s actions were based, don’t appear to be losing any sleep over such questions. In fact, they are demanding that toy manufacturers abandon the use of PVC altogether. According to them, soft PVCs in toys should be replaced with rubber. However, the effect of heat during the vulcanization process of rubber results in carcinogenic nitrosamines, and the substitution of organic for petroleum-based rubber will simply substitute a new, ‘natural’, set of carcinogens.

This raises the question of who decides which materials may be used: Greenpeace? The EU Commission? Science? Nature? And just who is ‘Nature’? Aren’t humans also part of nature, including the average consumer who weighs up product choices and then consciously chooses PVC? Wouldn’t it be better to choose the winner out of several competing market-based solutions?

As I see it, the debate over the advantages and risks of plasticizers boils down to one question: “Can safe and sustainable solutions be developed through the interaction between inventors and the needs and wishes of consumers?”

Mankind has been using plasticizers since the Stone Age, when plant oils were worked into stiff animal pelts to make soft leather. With the advent of different types of soft PVC in the twentieth century, researchers found that PVC performed better when combined with phthalates than with other materials on the market. Plasticizers are used to achieve desired qualities such as flexibility, flame retardation or low-temperature resistance.

In hindsight, it is clear that modern industry would not have been able to develop without both the development of synthetic plastics, and, secondly, inexpensive plasticizers that improve the processing ability and durability of natural materials. However, this development required a long and somewhat painful process of trial and error. And, had this been hampered by bureaucratic ‘precautionary measures’, it simply would not have taken place.

PVC began to lose its innocence in 1961 as experiments carried out on rats in the US showed clear indications of the highly carcinogenic potential of the vinyl chloride monomer (VCM), used to manufacture PVC. Even in low concentrations, VCM provoked a rare form of liver cancer. In the early 1970s, numerous workers exposed to VCM developed various conditions including liver cancer. Strict measures and exposure limits were immediately introduced. However, an undercurrent of fear took hold in the public’s mind that PVC products could leech out insidious poisons. And this same fear has most probably since attached itself to plasticizers as well.

In subsequent decades, this undercurrent grew. In the American biologist Barry Commoner’s book The Closing Circle – Nature, Man, and Technology (1971), PVC plasticizers play a similar villainous role to the (unfounded) accusations weighed against the insecticide DDT in Rachel Carson’s Silent Spring (1962). Pressure from environmentalists came to a head following the escape of the ‘super-poison’ dioxin into the environment at the chemical plant at Seveso, Northern Italy in July 1976.

The accusation of being carcinogenic has been levelled in general against plasticizers used in PVC, and particularly against DEHP. In the early 1980s, DEHP was classified as ‘potentially carcinogenic’ by the International Agency for Research on Cancer (IARC) on the basis of experiments on rodents which showed a tendency to develop liver tumours following exposure to high doses. It was later proven that humans and higher mammals are not at risk because they metabolize DEHP differently. The IARC has since reclassified DEHP as “not classifiable as to its carcinogenicity to humans.”

The German Parliament created a special Enquete Commission to investigate the influence of chemicals on humans and the environment. The Commission also covered chlorine and PVC. The findings from the first phase were published in 1994 (pages 362–364):

„…following years of intensive debate, PVC is today far and above the most researched materials in respect of its environmental impact. (…) the commission cannot recommend the substitution of other materials for PVC without sound economic or ecological reasons to support this. Any such substitution would carry the risk of creating new problems – and would possibly lead to a worsening of the overall situation vis-à-vis the present.“

How risk assessment became a political issue

In 1993, the EU issued the 793/93/EEC Directive analyzing the risks associated with around 100,000 ‘old’ chemicals – substances registered prior to September 1981 in line with the (then) EEC’s Dangerous Substances Directive (67/548/EEC). In 793/93/EEC, Article 15 now called for the testing of substances arousing particular suspicion. Later that year, they also published a priority list of 134 substances. This list included phthalates used as plasticizers for PVC. Four further PVC plasticizers appeared in the two subsequent priority lists. If decades of suspicion had not already fallen on these substances, then nobody would have been able to fathom just how phthalates found their way onto this list. It would suggest that their inclusion owed less to scientific scrutiny than it did to political pressures.

Given that environmental groups and political parties were already on the warpath; firms, industry associations and scientists targeted in this attack had no other choice but to play ball. They were confident, though, that the toxicological and ecological risk assessments would bear out their own conclusions. However, well before the risk assessment had been completed, the debate on these materials was forced by pressure from media campaigns and the protestations of environmental groups.

The health and environmental risks for Di-butyl-phthalate (DBP) were tested by the EU in 1994. DBP is only used in small quantities as a plasticizer in PVC. The toxicologists found that DBP posed no health risk to consumers, even when it was smeared directly on the skin. In test-tube experiments (though not in animal experimentation) DBP showed a weak oestrogen-producing effect (‘feminizing’) and was therefore characterized as “possibly affecting fertility” and given a Category Two (“harmful to fertility”) rating. In addition, DBP was found to cause potential harm to vegetation.

In 1995, the EU tested Di(2-ethylhexyl)phthalate (DEHP) which had previously been the standard plasticizer for PVC, which had appeared in the second list of high-risk chemicals (noted above). This risk assessment has only recently been completed and has proven a tug of war between the various stakeholders. During this assessment process, a group of doctors specializing in occupational and community medicine published new research findings which suggested a completely new assessment of the legacy of DEHP in the broader population. The German Federal Institute for Risk Assessment’s (BfR) and the CSTEE’s (European Commission Scientific Committee on Toxicity, Ecotoxicity and the Environment) conclusions from this study, needed to be revised on the back of studies conducted in Erlangen on volunteers, even before the CSTEE’s published its findings.

CSTEE’s final Risk Assessment Report does not exclude the possibility that DEHP absorption could have a potential impact on occupational health. Both adults and children could theoretically suffer health damage as a result of the use of DEHP in medical apparatus. Toddlers are put at risk through sucking toys containing DEHP. On these grounds, the report supports the EU’s pronounced ban on materials and calls for strict workplace protection measures. And on the back of experiments on rats, DEHP joined DBP in being designated as “impairing fertility” and was also given a Category Two rating, and has been totally banned from use in toys.

In 1995, it was the turn of Diisononyl phthalate (DINP) and Diisodecyl phthalate (DIDP) to be assessed. Both were increasingly important standard plasticizers for PVC also placed on the EU’s second priority list. However, the risk assessment of these materials was much less controversial than that of DEHP, and the political conclusions drawn from this study seem all the more baffling as a result. The EU toxicologists have not found the slightest exposure risk for these substances – not even in their use in babies’ toys. In the case of DIDP, they only found a theoretical risk for its universal use in children’s toys. This conclusion was confirmed in April 2006 by the EU Commission in the EU’s Official Journal. The EU has nevertheless imposed a ban on the use of both plasticizers in children’s toys.

In 1997, Butylbenzyl phthalate (BBP) was assessed. This plasticizer is used in tubes, cables, artificial leather and food packaging. On the results of animal experiments, it was given a Category Two “harmful to fertility” rating. The obligatory fish test used in assessing environmental risks had to be abandoned as BBP proved to biologically degrade much more rapidly in the environment than other phthalates discussed. That these plasticizers find their way into the food chain is a myth. The opposite is the case: the concentration of these phthalates declines as organisms higher in the food pyramid break these substances down in their digestive systems and excrete them.

In order to understand the dichotomy between the scientific risk assessments and their political evaluation we have to look back once again to the 1990s. In November 1997, well before the EU completed its risk assessments, Greenpeace published the following warning:

Greenpeace has carried out random tests on 23 toys manufactured by Mattel, Fisher Price, Tyco and Safety First. In 12 of these toys, the amount of plasticizers given off exceeds the recommended limit of 3mg per cm2 surface area as set by the Federal Institute for Consumer Health Protection and Veterinary Medicine (BgVV).

The Working Group on PVC and the Environment (AgPU), in conjunction with Mattel, and three recognized independent analysis institutes, set out to refute Greenpeace’s findings. It quickly became clear that Greenpeace had not been able to measure any phthalate emissions but instead has measured the total amount of volatile organic compounds (TVOC). Greenpeace was tacitly going on the assumption that the amount of TVOC was equivalent to the phthalate emissions. It was however known that TVOC normally stems from solvent emissions. But the laboratory contracted by Greenpeace had not even set this according to the then valid measurement standards.

All three of the laboratories commissioned by AgPU and Mattel established that the amount, if any, of DEHP and DINP emissions from children’s toys was too small to be measured. It was also evident that the EU had no generally accepted method to simulate the sucking out of phthalates from babies’ toys. However, the offer by the PVC and toy industries to develop a joint verification process was met with the following reply by Greenpeace spokesperson Judit Kamthak:

„in your communication of 28 January 1998 you suggest a joint verification process. In our opinion this is not necessary and would take the discussion backwards. In addition, we do not believe that this path would corroborate Greenpeace’s migration findings.“

Not just the toy industry but also a significant section of the press shook their heads at this.

Greenpeace continued its reply with a big campaign, timed to interfere with the pre-Christmas sales period, using the slogan “no environmental poisons in our babies’ mouths”. Parental concern for their children’s wellbeing turned broader segments of the population against PVC and its additives. To this end, activists for the fundraising organization even dug up the IARC’s carcinogenic suspicions regarding phthalates made in 1982 – although these had long since been refuted.

Unfortunately, they managed to impress the health authorities of a number of EU member states and parts of the EU Commission. The Bundesanstalt für gesundheitlichen Verbraucherschutz und Veterinärmedizin (BgVV), predecessor of the German Federal Institute for Risk Assessment, warned in December 1997 against babies’ toys containing plasticizers, without concrete evidence of these exceeding the designated exposure limits. Scandinavian countries and Austria demanded an immediate ban on phthalates. In Germany, many major department stores removed toys made from soft PVC from their shelves. The following year, much of Europe introduced national bans on soft PVC in babies’ toys.

The EU Council for Consumer Protection ordered the CSTEE to establish scientifically-based limits for the Tolerable Daily Intake (TDI) for phthalates for both adults and children. The CSTEE established the NOAEL (No Observable Adverse Effect Level) for the six most often used phthalates and determined their TDI, for which they set the baseline for the safety margin at 100. For DINP, the plasticizer most often used in PVC toys, CSTEE set the TDI at 0.15 milligrams a day per kilogram of body weight. Toxicologists in the Netherlands attempted to estimate if this level could be reached by toddlers weighing 8 kg chewing and sucking on a ten cubic centimetre piece of soft PVC for three hours a day. This proved difficult; as discussed there was no EU-wide established methodology to measure plasticizer migration. The permitted safety margin between the NOAEL and the TDI was only 75 for DINP and not 100. For DEHP, which is not permitted for use in toys, it only reached 19. In April 1998, the CSTEE could not exclude the possibility that the TDI could be significantly exceeded given unfavourable circumstances (particularly active toddlers who get poor quality PVC between their teeth).

CSTEE took the view that this did not pose a serious threat. Following a proposal from the Health Ministry of the Netherlands, the committee supported tackling the issue of the compromised safety margin through introducing limits on plasticizer migration for various types of PVC. The EU States’ universally-accepted Risk Assessment Report set the safety margin at 220 and did not believe any threat was posed.

The European Parliament and the relevant EU Directorate General took quite a different view and chose to adopt the Precautionary Principle. In April 1999, the EU amended the EU Directive 76/769/EEC to include a ban on phthalates in toys for children under the age of three. The EU Committee for Product Safety decided, after fierce debate, in December 1999 (right in the midst of the pre-Christmas sales) to adopt Greenpeace’s arguments. The Committee recommended that the EU Commission impose an immediate ban, in the form of an Emergency Decree, on all toddlers’ toys containing phthalates. In line with this, the DINP, DEHP, DBP, DIDP, DNOP or BBP content has been limited to 0.1% of their weight in toys which are designed for toddlers up to the age of 36 months.

These emergency measures were limited to three months and were supposed to bridge the gap prior to appropriate amendments to the EU Directive 76/769/EEC being brought in. That there was no scientific basis for this action did not stop this Emergency Decree being renewed every three months right up to Summer 2004, a total of nineteen times. In the meantime, the EU’s Joint Research Centre (JRC) carried out a risk assessment. This established no discernible risks for either DINP or DIDP that would warrant any restrictions on their use – not even in toddlers’ toys. Only DBP came out of the study badly. But this substance is not used in toys.

In 2003, the JRC’s Institute for Health and Consumer Protection wrote:

„The end products containing DINP (clothes, building materials, toys and baby equipment) and the sources of exposure (car and public transport interiors, food and food packaging) are unlikely to pose a risk for consumers (adults, infants and newborns) following inhalation, skin contact and ingestion.“

In September 2004, the EU Council on Competition decided to go along with the Dutch proposal to ban DINP, DIDP and DNOP from all toys and objects that children under three years could put in their mouths; and to impose a total ban on the use of DEHP, DBP and BBP in toys. This was a big step up from the Commission’s original decision which was only aimed at toys such as babies’ soothers or pacifiers which are intended to be put in the mouth. Through this action, the EU Council on Competition had put one over on the European Parliament. On 6 July 2005, the proposal had the second reading in the European Parliament (five years after the first reading!). MEPs voted with an overwhelming majority in favour of the commission’s tighter proposals. If the EU Council does not stop the procedure, the new Directive will come into force in autumn 2006. Since the EU Commission itself has in the meantime, in a communication published on 11 April 2006, confirmed the conclusions that the JRC drew in 2003, it seems difficult to explain to the public why a substance classified as safe can nevertheless be mandatory excluded from certain applications.

The European Council for Plasticizers and Intermediates (ECPI) sees the decision to also include the extensively researched plasticizer DINP in the ban, a dangerous parallel in REACh (Registration, Evaluation and Authorization of Chemicals). The risk assessment for DINP, which cost the industry more than 10 million Euros, was simply ignored. ‘Intrinsic’ characteristics of these materials served as the deciding factor and assumptions were extrapolated from this, but real appraisals were not conducted. Through this, the EU Commission, either deliberately or otherwise, encouraged the blanket demonisation of an entire group of substances. And, in doing so, it encouraged those who believe that they can improve the world through outlawing all materials and production methods that do not fit in with their narrow and ultimately religious-based concept of nature.

If they don’t stop it, they’ll go blind…

As was to be expected, this ban on phthalates escalated into calls for further bans. TV and mass circulation magazines brought out sensationalist reports on the supposed health dangers of plasticizers.

In 2001, Stern magazine carried a cover story on blow up dolls and other sex toys made from soft PVC. Author Gerd Schuster put forward that those men who used these phthalate-containing products to achieve sexual satisfaction were putting their potency at risk.

The Frankfurt based Öko-Test Magazin really took the prize for running scare stories on plasticizers. Almost every month, the magazine’s editors discovered suspect phthalates in everyday objects and ran a consumer scandal story on these, often taken up by other media. In July 2002, the summer-themed headline “throwing the baby out with the bath water” threw the spotlight on children’s paddling pools. Of course, the laboratories which undertook this analysis found high concentrations of phthalates in all the brands they examined, and in some they also found organotin compounds. According to the editors, that should have been enough to put the children and their parents off playing in paddling pools.

The Vienna-based cancer researcher Professor Wilfried Bursch examined the published findings of the Öko-Test under the worst case scenario of young children drinking the paddling pool water or sucking and chewing on the sides of the paddling pool to see if these posed a serious health risk to children. Bursch came to the conclusion that reaching the current TDI limits would be highly unlikely. He reproached the Öko-Test editors with having contented themselves with the very presence of suspect substances and to not have actually considered if the amounts found actually posed a health risk. The industrial study group AgPU and the VKE German Plastics Manufacturers Association calculated that a 1 year old child weighing 10kg would have to drink at least 167 litres of pool water per day for an entire lifetime to approach the TDI level for DEHP.

In January 2003, the Federal Institute for Risk Assessment (BfR) officially confirmed this estimate. “The BfR has found that the levels of phthalates, butyltins, tributyltins and other organotin compounds contained in plastic found by Öko-Test through the normal use of paddling pools represent no health threat to small children.”

In August 2002, Öko-Test played the same game with inflatable arm bands and also plastic beach sandals (‘flip-flops’). Once again, the magazine contented itself with the presence of the substances demonized by Greenpeace, and did not attempt to ascertain at the outset whether these substances could be taken up into the human body in amounts which would give rise to concern – despite the fact that a calculation model for the take up of DEHP into the human body through skin contact had already been established in the US in 1984. Dr. Sabine Lindner of AgPU performed calculations using the American model as a basis and employing the figures published by Öko-Test in 2002. Her conclusion: “A person would need to walk around in flip flops for 15,000 hours a day in order to absorb the lifetime TDI through their skin.”

A scientific study on 20 adolescents led by Khodayar Rais-Bahrami appeared in Environmental Health Perspectives. These adolescents had been born prematurely and had been placed on respirators and fed artificially through soft PVC tubes and thus had come into contact with high doses of DEHP. This study came to the following conclusion:

„Our results imply that adolescents who have been exposed to considerable amounts of DEHP as premature babies show no discernible influences on their growth rate and sexual maturity as a result of this exposure. (…) Their male and female sexual functions showed no deviation from the norm.“

A study by the University of Rochester, also published in Environmental Health Perspectives (May 2005), claimed that there was a clear link between the concentration of plasticizer-metabolites in the urine of 85 pregnant women one (possible) predictor of later male infertility noted in their male offspring. However, these metabolites did not include those for DEHP, and the Statistical Assessment Service (STATS) at George Mason University in Washington DC found serious flaws in the research methodology and the statistical analysis of University of Rochester’s findings.

Disempowering the consumer

The refusal to recognize that almost nothing in this world is gained for free has taken widespread hold of the EU powers-that-be in their interpretation of the Precautionary Principle. They have interpreted the Precautionary Principle similarly to the universally adopted “Rio Declaration” made at the end of the UN Conference on Environment and Development in 1992. This is the source of oft quoted “Where there are threats of serious and irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation.”

This is surely going too far. Even the old proverb “an ounce of prevention is worth a pound of cure” implies curbs on preventive measures: the seventeenth ounce of prevention will be a wasted effort. This prevention-cure calculation becomes even more difficult when, as is often the case in science, the costs of the cure are far from certain. Taken to extremes, Rio’s Precautionary Principle would condemn us to inertia in order to avoid all risks. Indeed, shortly before the Rio Summit numerous Nobel Prize winners warned in the ‘Heidelberg Appeal’ against a surge in irrationalism.

Above all, environmental and other groups wanted the application of the Precautionary Principle to not only be limited to cases where full scientific certainty regarding environmental threats had not been established, but to have the Principle used in a way that would reverse the burden of proof. The 1992 UN report did not establish just how serious a threat needs to be in order to justify draconian measures. Suspicion alone counted in principle as sufficient reason to justify costly precautionary measures or production bans. Using that logic, chocolate would need to be banned – any competent chemist could combine chocolate with everyday ingredients to manufacture dangerous explosives.

As a reaction to this illogic, the EU Commission issued a paper in 2000 indicating that the Precautionary Principle should not be involved in risk assessment, but rather should play a part in the decision-making processes for risk management. The Principle should not be subverted either through vague suspicions, or through capricious misrepresentations with protectionist ulterior motives.

But the Commission could not establish in which cases the Precautionary Principle should be applied and in which it should not. The Commission’s papers said simply:

„An assessment of the potential consequences of inaction and of the uncertainties of the scientific evaluation should be considered by decision-makers when determining whether to trigger action based on the Precautionary Principle.“

Taken to extremes, the Precautionary Principle contradicts the age old insight that all human behavioural choices imply an element of risk and incur costs. Therefore the good needs to be weighed up against the bad. If an individual, a company, or the state decides against particular actions on the grounds of caution, or chooses to prohibit such actions, that does not mean that in doing so they are reducing the risks and the costs. Taking any particular risk out of an equation necessarily means accepting another one; someone who decides to stay home for fear of having an accident on the way to work has decided to accept the risk losing his job. A person who tries to avoid all risk will wrap themselves in a cocoon, and miss out on life altogether.

The lesser evil is most often evident only in hindsight. Whether or not someone agrees with (or likes), the idea, the fact remains that the discovery process is affected by market forces – i.e. we need to include market forces in our approach, even if we find the idea abhorrent. This does not, however, mean that we must, or indeed should, remove the Golden Rule from our decision making processes.

Risk assessments cannot be divorced from prevailing cultural, socio- economic and political contexts: your attitude to risk will depend on whether you are a man or a woman, young or old, living in poverty or extremely wealthy, an individualist or a collectivist. However, even with these caveats, the weighing up of good and bad consequences leads to an assessment according to clear criteria. By comparison, the strategy of minimizing evils is not based on rational thinking.

Should the EU Commission’s decision regarding the ban on the use of plasticizers in babies’ toys, which largely disregards both scientific fact and reason, become the accepted principle behind new legislation, then the EU would undoubtedly shift further towards the behaviour of an authoritarian state – where scientific research and findings are overruled by political pressure.

Fortunately, the Treaty of Maastricht already requires that all EU Directives are subjected to a comprehensible cost/benefit analysis to establish whether they are commensurate with the underlying legal principles. This was reinforced in February 2000, when, in order to avoid market intrusions prompted by arbitrary suspicions and the bad-mouthing of products and materials, the European Commission stated that employing the Precautionary Principle would always require a sound scientific risk assessment.

In 2001, the EU published a White Paper which set out the blueprint for a new Chemicals Policy. Among other things, the White Paper decided to call a halt to the separate treatment for Old and New substances. The Paper also examined their unprecedented regulations project REACh (Registration, Evaluation and Authorization of Chemicals), which applies to millions of substance applications and tried to determine, on a cost/benefit basis, whether REACh was actually justified.

The EU Commission ordered a study by the London-based consultancy Risk and Policy Analysts, which predicted that REACh would cost between 1.7 and 7 billion Euros in the first eleven years of its introduction, but that the EU stood to gain a possible cost saving (following the expected fall in occupation-related cancers) of up to 54 billion Euros over the next 30 years. However, these figures appear to be plucked from thin air, as around 80% of all occupation-related cancers in the EU stem from the asbestos legacy. This example shows the importance to effective risk management of input from occupational health specialists and other experts.

The position of the Green lobby appears to be that political application of the Precautionary Principle and the aims of sustainable development are core drivers for new innovations. But how do they know which materials are inherently safe and which have a lasting impact on the environment … when even water can be deadly under certain circumstances? Do the Greens and their political friends consider themselves better able to judge what will prove itself on the open market than market participants themselves? The Greens seem perfectly happy with the authoritarian undercurrents inherent in their position.

Unfortunately, some people cling to the erroneous belief that the expansion of knowledge implies that there is an end – a point where society has attained ‘ultimate knowledge’. This is not the case. The accumulation of knowledge can even lead to total confusion.

However important science may be as a reconnaissance and early warning system for society, the most important source of information in a market economy is not science but the market itself. This information is not transferred without cost, but rather set against the cost of the risks undertaken. Both PVC and tested plasticizers have not proven themselves to be harmful, while their attractive cost / price ratio means they have won in a fiercely competitive market. Millions of consumers who, on the basis of sound human reason freely weigh up costs and benefits, could scarcely be wrong. Clearly, putting pressure on the market by pushing forward alternative materials on the back of product bans or market subsidies constitutes a clear case of consumer disempowerment.

The average consumer from the silent majority does not need such incentives or help with decision-making in an open marketplace. This is demonstrated by the fact that in open competition PVC has easily won through on a number of sustainability criteria such as durability, energy and resources efficiency according to 21 key indicators of the German National Environmental Sustainability Plan set out in 2002. (This is far from my endorsement of this plan; as this cannot be sustainable as long as it fails to include, except for liberalization of international trade barriers, any further moves towards the development of economic freedom.)

Future perspectives

When discussing innovations through the filter of sustainable development, we need to ask if there are any sound reasons not to use proven products. As we have already indicated, innovation cannot be a goal in and of itself. In evolution in the natural world, attributes that have proven useful are not abandoned unless dictated by need; there are many cases of survival features that have remained unaltered over millions of years existing alongside far more recent developments. This is true not least of the genetic code which has been maintained virtually unchanged over the course of evolution from the simplest micro-organisms right up to the most highly developed land plants and mammals.

Today there are many interesting alternatives to phthalate plasticizers such as adipines and alkyl sulfonic acid. These materials are already often mixed with phthalates used in various products, as they improve specific qualities such as flame retardation, or flexibility at cold temperatures. But these substances do not necessarily present fewer problems than phthalates. A few of these such as chlorinated paraffins are even poisonous or carcinogenic. For example, DEHA, used in food packaging and regarded as harmless, has been replaced by some adipates which demonstrate a higher degree of volatility and migration. Similarly, citric acid esters and their derivatives have been increasingly used in toys and food packaging, despite the disadvantages of their higher price and lower microbial resistance.

The plastics industry currently has great hopes for Di-isononyl-cyclohexan-1.2-dicarboxylat (DINCH) a substance developed through computer modelling by BASF in co-operation with customers from other industries. This substance is somewhat more expensive than DEHP, and it can also be almost seamlessly substituted for DEHP without the need to rebuild production plants. DINCH also does not include any of the aromatic hydrocarbons defined as suspect by toxicologists so we can expect it to have a much more benign toxicological profile. BASF has confirmed this in a far reaching programme of tests. These tests indicate that DINCH does not affect the development of sexual organs or fertility, nor does it harm the environment. DINCH has a rate of migration which is 8 times lower than that of DEHP, although it has disadvantages such as higher volatility.

The quest for innovation or substitution in the case of these alternative plasticizers cannot be pursued without consideration of the costs, as we would end up substituting the proven with the unproven through ideologically driven wishful thinking. Society needs to pursue fulfilment of consumer demands in a way that balances benefits against the costs to the economy, the environment, and to health.

Our proven sound basis for rational decision-making would clearly be lost if materials or indeed entire product lines and production methods were to be condemned lock, stock and barrel without a rational cost / benefit analysis.

The history of technology shows us that we can seldom regard any solution to a problem as permanent; legs were complemented by horses, then wheels, then rail. It goes without saying that “good will be superseded by better” in the case of plasticizers. Already it has been demonstrated that in the near future the manufacture of not only hard PVCs but a very broad range of soft PVCs will be possible without the use of special plasticizers.

The American research company Teknor Apex has succeeded in manufacturing polyolefin elastomers. These compounds can be used to make highly elastic and soft PVC manufactured parts without the addition of plasticizers, but are 80% more expensive. Their use will initially be limited medical or specialized technical applications, where the use of plasticizers is a disadvantage and cost is not the deciding factor. Should it become possible to manufacture these compounds more cheaply, then they could take over in a number of markets. However, there is no reason for the artificial acceleration of their market introduction as long as they prove themselves sufficiently against market competition. In short: Current standard plasticizers will probably be replaced one day. What is important is that they are replaced by something really better and not by something declared political correct before being tested by the competition between different solutions on the market.

Conventional plasticizers could also see possible competition from nanotechnology. Nanotechnology has already proved itself in number of cases as a cost-effective physics-based replacement to existing chemical solutions. It is not inconceivable that nanotechnology could soon provide original proposals to solve the problem of plasticizers that we could scarcely dream of today. The name “nanotechnology” also highlights the fact that new solutions to problems could also carry new risks, as nanotechnology is already primarily regarded in the media as “the technology of risk”. No such intelligent technology would free humans from the torment of choice – the weighing up of relative evils.

(Translated by Amanda Oliver, London)

Ist „Bio“ wirklich besser?

Alex A. Avery: Die Wahrheit über Bio-Lebensmittel. Verlag Thuss & van Riesen, Jena 2008. € 24,50. ISBN 978-3-940431-01-1

Die Wahrheit über Bio-Lebensmittel.: Alex AveryBio-Lebensmittel sind „in“. Selbst bei großen Discounter-Ketten wie „Lidl“ oder „ALDI“ gibt es inzwischen ein reichhaltiges Sortiment an Obst und Gemüse aus ökologischem Anbau. Bei Früchten wie Bananen oder Zitronen haben die Kunden oft gar keine andere Wahl mehr, als zu deutlich teurer Öko-Ware zu greifen. Solange man für sein Geld eine überzeugende Qualität bekommt, ist das kein grundsätzliches Problem. Sind Bio-Produkte aber im Hinblick auf den Geschmack, den Nährwert und ihren Gehalt an Giftrückständen wirklich durchgängig besser? Dieser Frage geht der US-Biochemiker Alex A. Avery in einem gut dokumentierten Sachbuch nach, das in den USA zum Bestseller wurde. Der Jenaer Kleinverlag Thuss & van Riesen hat das Buch jetzt ins Deutsche übersetzen lassen. Das lag insofern nahe, als darin auch die Wurzeln und die Praxis des Öko-Landbaus in deutschsprachigen Ländern eine bedeutende Rolle spielen. Dabei wurden leider einige Flüchtigkeitsfehler übersehen. Weiterlesen

Kein Treibhaus ohne Dach

Hartmut Bachmann: Die Lüge der Klima-Katastrophe. Frieling-Verlag, Berlin 2007. 254 Seiten. EUR 17,80. ISBN 978-3-8280-2521-9 (erschienen in: eifrei 76/Oktober 2007)

Die Lüge der Klimakatastrophe. Das gigantischste Betrugswerk der Neuzeit. Manipulierte Angst als Mittel zur MachtHartmut Bachmann, Jahrgang 1924, weiß als ehemaliger Flugzeug-Pilot und Skipper offenbar mehr über Wetter und Klima als viele der vom Staat bzw. von den Steuerbürgern bezahlten Wissenschaftler, die ihre Computerspielereien als „Klimaforschung“ ausgeben. Als Unternehmer in den USA hat er selbst erlebt, wie die New Yorker Schickeria die Angst vor einer „Klimakatastrophe“ als Chance für das große Geschäft mit dem Ablasshandel entdeckte. Dabei überschreitet Bachmann leider die Grenze zur Verschwörungstheorie. Die UNO und ihr Klimarat IPCC ein Instrument des US-Imperiums? (Schön wär’s!) Da bedarf es wohl einiger Differenzierung, um die heftigen Auseinandersetzungen um ein Folgeabkommen zum Kioto-Protokoll von 1997 zu verstehen. Gut nachvollziehbar ist hingegen, wie Bachmann darlegt, dass es einen „Treibhauseffekt“ der Erdatmosphäre, wie er in Europa inzwischen schon Kindern im Vorschulalter eingepaukt wird, nicht geben kann: Der Atmosphäre fehlt schlicht ein Deckel, der die Wärme vom Entweichen in den kalten Weltraum abhält. Bachmann sieht in den Wissenschaftlern und Regierungsvertretern, die im IPCC den Ton angeben, Sektierer, die es nur mithilfe geschickter Medienmanipulation durch Machwerke wie Al Gors Dia-Show „Eine unbequeme Wahrheit“ oder abenteuerliche Hochrechnungen der Kosten des Klimawandels im Report des ehemaligen Weltbank-Präsidenten Sir Nicholas Stern schaffen, ihre absonderliche Weltsicht zur herrschenden Meinung zu machen. Unter den Tisch fällt dabei die Frage, welcher mögliche Nutzen den Kosten in Billionenhöhe gegenübersteht. Weiterlesen

Es wird langsam kühler

Es wird immer deutlicher, dass die befürchtete Abkühlung der Erde, eine so genannte Kleine Eiszeit, schon begonnen hat. Kaltlufteinbrüche mit Schneefällen in Nordamerika, Asien und Europa lange nach Beginn der meteorologischen Sommerzeit haben in letzter Zeit zu beträchtlichen Ernteausfällen geführt und verschärfen die wegen der Finanzkrise ohnehin schon prekäre Ernährungssituation in armen Ländern.

Abkühlung lässt Agrarerträge sinken

Es lässt sich nicht mehr leugnen, dass die globale Erwärmung der Vergangenheit angehört. Seit der Jahrtausendwende wird es auf der Erde wieder langsam kühler. Kann mann über die Aussagekraft von Messungen der Bodentemperaturen noch streiten, so liefert die Entwicklung der landwirtschaftlichen Erträge ein unmissverständliches Bild. Der britische Kollege Christopher Booker hat im „Sunday Telegraph“ vom 14. Juni 2009 einen guten Überblick über witterungsbedingte Ernteausfälle in Nordamerika und in Asien zusammengestellt, der nur den Schluss zulässt, dass Klimawandel konkret Abkühlung heißt. Dazu passt auch die bei SPIEGELonline mit Verwunderung aufgenommene Nachricht, ein bedeutender argetinischer Gletscher dehne sich wieder aus. In einem schon vor über zwei Jahren erschienenen Artikel habe ich versucht zu erklären, was hinter den Wetterkapriolen steckt.

Was ist bloß mit dem Wetter los?

Von Edgar Gärtner*)

Man darf sich in Deutschland offenbar über gar nichts mehr freuen. Nicht einmal über die ermäßigte Heizkostenrechnung, die uns der erstaunlich milde Winter 2006/2007 beschert hat. Die deutschen Massenmedien haben die Veröffentlichung der (politischen!) Zusammenfassung des 4. Berichts des zwischenstaatlichen Klimarates IPCC Anfang Februar 2007 zum Anlass genommen, wie auf Kommando in einem Akt der Selbstgleichschaltung einander mit apokalyptischen Prophezeiungen, hysterischen Warnungen vor hypothetischen Gefahren und Bußpredigten zu überbieten.

Was will etwa der FOCUS-Titel „Die Erde im Klimaschock“ (Nr. 9/2007) sagen, wenn man voraussetzt, dass die World Meteorological Organisation (WMO) „Klima“ als 30-jährigen Mittelwert der Wetterabweichungen einer gegebenen Region vom Wetter anderer Regionen definiert? Ist nun der Mittelwert ein Schock oder wird er geschockt? Oder was bedeutet der Spruch „Die Klimakatastrophe ist eine Tatsache“ Anfang Februar 2007 im ZDF-heute-journal? Angesichts der geologischen Erkenntnis, dass lebensfeindliche Eiszeiten in der aktuellen Phase der Erdgeschichte mehr als zehnmal wahrscheinlicher eintreten als Warmzeiten, könnte das ja nur bedeuten, dass kilometerdicke Eisschilde bereits bis nach Hamburg oder Berlin vorgedrungen sind. Das war aber offenbar nicht gemeint. Vielmehr möchte man den Adressaten der GEZ-finanzierten Propaganda weismachen, die in den letzten 100 Jahren registrierte leichte Erhöhung der Durchschnittstemperatur über den Landmassen der Erde von 0,74 Grad Celsius sei die Katastrophe. Dabei müssten alle, die sich ein Körnchen gesunden Menschenverstand bewahrt haben, hoffen und/oder beten, die Erwärmung möge noch möglichst lange weitergehen. Ein Gemeinwesen, in dem sich eine solche semantische Umweltverschmutzung ausbreiten kann, ist dem Untergang geweiht!

Genau besehen, ist der jüngste IPCC-Bericht übrigens weniger alarmistisch als sein Vorgänger von 2001. Doch wie viele von den lieben Journalisten-Kollegen, die ihre wichtigste Aufgabe darin sehen, den Menschen Angst einzujagen und Opferbereitschaft zu predigen, haben die 13 Seiten Text und 7 Seiten Grafiken des „Summary for Policymakers“ überhaupt studiert? Jedenfalls dürfte es ihnen nicht leicht fallen, den dort projizierten möglichen Anstieg der Durchschnittstemperatur um 2 bis 4,5 Grad Celsius bis zum Jahr 2100 und den damit vermutlich einhergehenden Anstieg des Meeresspiegels um wenige Dezimeter als Katastrophe zu verkaufen.

Was verbirgt sich also hinter dem Schlagwort „Klimawandel“? Gab es in den letzten Jahrzehnten überhaupt einschneidende Veränderungen im Wettergeschehen? Wurden nicht vielmehr natürliche Schwankungen, maßlos übertreibend, zu Vorboten eines „Umkippens“ des herkömmlichen „Klima-Systems“ umgedeutet? Gab es aber dennoch in den letzten Jahrzehnten, wie ich selbst glaube, signifikante Veränderungen im Wetterablauf, wie lassen diese sich dann erklären? Zuerst eine für manche etwas enttäuschende Antwort: Was sich genau hinter den seit den 70er Jahren beobachtbaren auffälligen Veränderungen in der atmosphärischen Zirkulation verbirgt, wissen wir noch nicht. Als sicher kann hingegen gelten, dass die der „Klimapolitik“ zugrunde liegende „offizielle“ Erklärung, die dem bei der Verbrennung fossiler Energieträger (Kohle, Erdöl und Erdgas) entstehenden Kohlendioxid (CO2) und damit uns Menschen die Hauptverantwortung zuspricht, unhaltbar ist. Denn diese stützt sich ausschließlich auf numerische (nicht analytische!) Computersimulationen, deren Übertragbarkeit in die Realität höchst zweifelhaft ist.

Für Atmosphärenforscher verschiedener Disziplin ist CO2 ein Spurengas, weil es gegenüber den Hauptbestandteilen der Gashülle der Erde (78 Prozent Stickstoff und 21 Prozent Sauerstoff) nur etwa einen Teil von 3000 ausmacht. Neben CO2 gibt es noch eine Reihe weiterer Spurengase, darunter extrem reaktionsträge Edelgase und vor allem gasförmiges Wasser (Wasserdampf) in sehr stark schwankender Konzentration. Nicht von ungefähr bezeichnen Ökologen die Erde als „Wasserplanet“. Etwa 71 Prozent ihrer Oberfläche sind von kilometertiefen Ozeanen mit Salzwasser bedeckt. Dieses absorbiert und speichert einen großen Teil der bei klarem Himmel eintreffenden Sonnenwärme. Bereits die oberen drei Meter der Meere enthalten mehr Wärme als die ganze Atmosphäre. Schon allein die Existenz dieses riesigen Wärmespeichers kann, neben der sehr viel schnelleren Rotationsgeschwindigkeit und des damit verbundenen Wechsels von Tag und Nacht, die unterschiedlichen Temperaturverhältnisse auf der Erde und ihrem Trabanten, dem Mond, zu einem beträchtlichen Teil erklären.

Aber auch das bei der Aufheizung der Meere durch Verdunstung in die Lufthülle gelangende, dann zu Wolken kondensierende und als Regen oder Schnee auf die Landmassen fallende Süßwasser ist ein Klimafaktor ersten Ranges und bekanntlich auch in anderer Hinsicht lebenswichtig. Der Kreislauf des Wassers ist der mit Abstand wichtigste Stoffkreislauf auf der Erde. An zweiter Stelle steht der Sauerstoff-Kreislauf. Und erst an dritter Stelle folgt der Kreislauf des Kohlenstoffs, bei dem das Kohlendioxid Ausgangs- und Endpunkt zugleich darstellt. Denn CO2, obwohl in der Luft nur in Spuren vorhanden, bildet die Grundlage für den Aufbau organischer Substanz (Biomasse) durch die pflanzliche Photosynthese. Dabei erweist sich die aktuelle atmosphärische CO2-Konzentration als deutlich unteroptimal, denn eine künstliche Anreicherung dieses Gases in Gewächshäusern führt zu einer deutlichen Steigerung der Photosyntheserate und damit der Rentabilität der Pflanzenzucht.

Kohlendioxid und Wasser haben als dreiatomige Moleküle Eigenschaften, die sich von denen der zweiatomigen Hauptbestandteile der Luft (Stickstoff und Sauerstoff) unterscheiden. Beide werden durch die vom aufgeheizten Erdboden in Form von Infrarotstrahlen (IR) reflektierte Sonnenenergie für winzige Bruchteile von Sekunden zu Schwingungen angeregt. Es ist aber noch längst nicht ausgemacht, ob diese Anregung zu einer zusätzlichen Aufheizung des Bodens durch Rückstrahlung („Treibhauseffekt“) oder nicht im Gegenteil zu einer Abkühlung durch eine Beschleunigung des Wärmetransports ins kalte Weltall führt. Da es in den feuchten Tropen tagsüber längst nicht so heiß wird wie in den trockenen Subtropen, scheint der kühlende Effekt des Wasserdampfes zu überwiegen. Experimentell lässt sich diese Frage aber nicht klären.

Immerhin zeigten spektroskopische Messungen schon in der ersten Hälfte des 20. Jahrhunderts, dass der mögliche Einfluss von CO2 auf das Verhalten der Atmosphäre gegenüber dem Einfluss des Wassers vernachlässigbar gering sein muss. Denn die IR-Absorptionsspektren beider Gase überlappen sich sehr stark. Es gibt ein „Fenster“, durch das Wärmeenergie ungehindert in den Weltraum entweichen kann, weil in diesem Spektralbereich keines der Spurengase IR-Strahlen absorbiert. Die außerhalb des „Fensters“ einzige vom Wasser noch frei gelassene Absorptionsbande (bei 15 Mikrometer Wellenlänge) war – nach spektroskopischen Messungen, die der Wiesbadener Chemiker Heinz Hug durchgeführt hat – schon bei einer CO2-Konzentration von 280 ppm, die als „vorindustrielles Niveau“ angenommen wird, weitgehend gesättigt. Nur in Randbereichen des Absorptionsspektrums der Atmosphäre könnte zusätzliches CO2 überhaupt noch etwas ausrichten. Konkret heißt das: Fast alles, was durch die Menschen zusätzlich in die Luft geblasenes CO2 theoretisch in der Atmosphäre anrichten könnte, wurde schon von H2O getan, das dort (in schwankenden Konzentrationen) ohnehin vorhanden ist. Deshalb hat das „Compendium of Meteorology“ der US Meteorological Society schon 1951 festgestellt, die 1896 vom schwedischen Chemiker Swante Arrhenius (als Erklärung für die Eiszeiten!) formulierte Hypothese eines steuernden Einflusses von CO2 auf die Durchschnittstemperatur der Erde könne ad acta gelegt werden.

An diesem Wissensstand hat sich seither nicht viel geändert. Um die CO2-Treibhaus-Hypothese zu retten, brachte der US-Ozeanograf Roger Revelle, der später zum Mentor des Öko-Kreuzzüglers Al Gore wurde, die Hypothese einer Verstärkung der geringen Wirkung von CO2 durch den Wasserdampf in die Diskussion. Auf dieser „positiven Rückkoppelung“ beruhen heute alle numerischen Simulationsmodelle, mit deren Hilfe Großrechner die Entwicklung der Klimaentwicklung in den nächsten hundert Jahren simulieren sollen. Bei diesen Modellen handelt es sich also in Wirklichkeit um Wasserdampfmodelle, was dem Publikum der Massenmedien meist nicht bekannt ist. Da Wasserdampf aber auch im Gegenteil (vor allem über die Kondensation zu Wolken) eine negative Rückkoppelung bewirken kann, ist diese Einseitigkeit kaum nachvollziehbar. Sie beruht, wie leicht demonstriert werden kann, auf einer mehr oder weniger bewussten politisch-religiösen Vorentscheidung: Nur Modellierer, die dem Zeitgeist folgend, von vornherein davon überzeugt sind, dass die Menschen die Hauptschuld am Klimawandel tragen, werden nichts dabei finden, die mögliche kühlende Wirkung des Wasserdampfes zu vernachlässigen, wenn nicht zu unterschlagen.

Ein weiteres grundsätzliches Manko der „Klimamodelle“, die den IPCC-Berichten zugrunde liegen, ist die nahezu vollständige Verdrängung des realen Wettergeschehens durch die Betrachtung von Korrelationen zwischen Mittelwerten von Wetterdaten und anderen Konstrukten. Aber wie aussagekräftig sind Mittelwerte aus Messdaten, die in Wetterstationen aufgezeichnet werden, die z. T. einige Tausend Kilometer voneinander entfernt liegen? Die Antwort liegt auf der Hand. Tatsächlich verbergen sich hinter dem errechneten (nicht gemessenen!) durchschnittlichen Temperaturanstieg der vergangenen 100 Jahre gegenläufige Entwicklungen, die vermutlich nicht auf eine einzige Ursache, den CO2-Anstieg, zurück geführt werden können. So ist die globale Durchschnittstemperatur der Erde zwischen 1940 und 1975, trotz einer in dieser Zeit weiter gehenden CO2-Zunahme, wieder gesunken und erst in den letzten Jahrzehnten wieder angestiegen.

Dabei gab es auffällige regionale Unterschiede. Die Südhalbkugel ist daran überhaupt nicht beteiligt. Und auf der Nordhalbkugel gibt es vor allem in Polnähe extrem gegenläufige Tendenzen. Das wurde erst in den 90er Jahren bekannt, weil Amerikaner und Russen die Temperatur- und Niederschlags-Messwerte der Arktis während des Kalten Krieges aus militärischen Gründen geheim hielten. So wissen wir erst seit wenigen Jahren, dass die Luft in der Nachkriegszeit nördlich von Norwegen und Alaska in mittlerer Höhe über dem Meeresspiegel im Schnitt deutlich wärmer geworden ist. Damit hängt offenbar die z. T. spektakuläre Schrumpfung des Packeises in diesen Gebieten zusammen. Das Arctic Council (ACIA), eine Art Untergliederung des IPCC, hat daraus im Jahre 2004 geschlossen, bis zum Ende des Jahrhunderts werde die Arktis im Sommer vollkommen eisfrei sein. Doch diese primitive Hochrechnung ist unbegründet, weil größere Teile der Arktis (insbesondere über Ostsibirien sowie Ostkanada und Nord-Grönland) im gleichen Zeitraum in Bodennähe deutlich kälter geworden sind. Im Großen und Ganzen hat sich die Arktis seit 1950 stetig abgekühlt. Das mussten vor kurzem zwei tapfere Frauen (Ann Bancroft und Liv Arnesen) zur Kenntnis nehmen, die in der Absicht, die Welt vor der globalen Erwärmung zu warnen, mitten im Winter zu einer Nordpol-Expedition aufgebrochen waren. Sie mussten ihr Unterfangen aber abbrechen, weil bei Temperaturen von bis zu minus 100 Grad Fahrenheit (-73°C) die Batterien ihres Equipment den Geist aufgaben.

Von den über dem größten Teil der Arktis liegenden Kaltluft-Seen lösen sich, wie Aufnahmen von Wettersatelliten seit dem Ende der 70er Jahre zeigen, in den letzten Jahrzehnten immer häufiger flache Kaltluftlinsen mit hohem Druck. Diese ziehen auf charakteristischen Bahnen Richtung Süden, weil sie Gebirgszüge von über 1000 Metern Höhe nicht überqueren können. Das bekommen vor allem die Nordamerikaner zu spüren, die auch in diesem Winter bis ins Frühjahr hinein wieder von einer Kältewelle nach der anderen heimgesucht wurden. Zur gleichen Zeit konnten sich die Westeuropäer über deutlich sinkende Heizkosten freuen, mussten dafür aber größtenteils Schmuddelwetter in Kauf nehmen, das von häufigen feucht-milden Südwestwinden herangetragen wurde. Bei diesen Winden, die entlang der norwegischen Berge bis in die Arktis vorstoßen können, handelt es sich, wie Satelliten-Aufnahmen zeigen, eindeutig um Warmluft, die durch die auf der Ostseite des Atlantik gen Süden ziehenden Kältehochs verdrängt wurde. Das Gleiche spielt sich über dem Pazifik ab. Die dort von sibirischen und mongolischen Kältehochs verdrängte Warmluft strömt auf amerikanischer Seite entlang der Rockies nach Alaska.

Das alles kann man, wie angedeutet, auf den immer besser aufgelösten und präzise datierten Satellitenaufnahmen anhand charakteristischer Wolkenbilder beinahe lückenlos verfolgen. Leider sieht man diese schönen (und obendrein kostenlos verfügbaren) Bilder in unseren TV- und Printmedien immer seltener. Warum wohl? Die öffentlich-rechtlichen Fernsehkanäle zeigen ihrem Publikum stattdessen Isobaren-Karten, mit denen Laien kaum etwas anzufangen wissen. Die meisten Tageszeitungen sind nicht viel besser. Die FAZ zeigt immerhin noch in Tiefblau die wandernden Kaltluftmassen. Die einzige mir bekannte deutschsprachige Tageszeitung, die ihre Wetterseite bis vor kurzem jeden Tag mit einen aussagekräftigen Satellitenfoto aufmachte, ist die NZZ. Dort wurden diese aber meist mit eigenartigen Kommentaren versehen. Oft fand sich darin kein Hinweis auf durchaus nicht unauffällige Kältehochs, die von der Grönlandsee herunter ziehen. Stattdessen stehen Tiefdruckwirbel im Vordergrund, die sich mithilfe der Erdrotation bilden, wenn Warmluft der anrückenden Kaltluft durch Aufsteigen ausweicht. Die Wetterfrösche erwecken den Eindruck, nicht die von der Arktis Richtung Äquator ziehenden Hochs, sondern Tiefs seien die Motoren der atmosphärischen Zirkulation.

Nach Ansicht des inzwischen leider zu früh verstorbenen französischen Meteorologen und Klimatologen Marcel Leroux ist diese Fehlinterpretation die Folge des sturen Festhaltens der staatlichen Wetterdienste an Theorien der atmosphärischen Zirkulation aus der ersten Hälfte des vorigen Jahrhunderts. Danach befindet sich der Motor der globalen Wettermaschine im Tropengürtel der Erde, d.h. in einem Tiefdruckband, auch meteorologischer Äquator genannt, das sich infolge des Aufsteigens feucht-warmer Luftmassen bildet. Die aufgestiegene Luft regnet und kühlt sich in Tropengewittern ab und sinkt in den so genannten Rossbreiten, abgelenkt durch die Erdrotation, als trockener Fallwind (Passat) wieder zu Boden. Diese Dynamik soll auch das Wettergeschehen in der gemäßigten Westwindzone stark prägen.

Marcel Leroux konnte schon in seiner Habilitationsschrift („Thèse d’état“) zeigen, dass diese Vorstellung nicht haltbar ist. Als Sohn eines bretonischen Marineoffiziers in Nordafrika aufgewachsen, absolvierte er seinen gesamten wissenschaftlichen Werdegang im tropischen Afrika. Für seine „Thèse d’état“ reiste Leroux ein Jahrzehnt lang kreuz und quer durch den schwarzen Kontinent, um alle verfügbaren historischen Wetterdaten (meist von Kolonialverwaltungen) zusammenzutragen und auszuwerten. Das Ergebnis war ein zweibändiger Klima-Atlas des tropischen Afrika, der 1983 von der WMO in Genf publiziert wurde und, da 2001 auf Englisch neu aufgelegt und um eine CD ROM ergänzt, noch heute als alternativloses Standardwerk gilt. Bei der Datenauswertung fiel Leroux auf, dass der meteorologische Äquator keine stabile Lage hat. Vielmehr wird er relativ oft von starken, je nach Jahreszeit von der Arktis oder der Antarktis heranrückenden Hochdruckgebieten nach Süden oder Norden verschoben. Leroux deutet u. a. die Trockenheit der Sahel-Zone als Folge einer solchen Verschiebung. Der Tropengürtel spielt nach diesem Befund also eher eine passive als eine aktive Rolle in der globalen Luftzirkulation.

Als Professor an der Universität Jean Moulin in Lyon konnte Leroux später durch die Auswertung einer Vielzahl von Satellitenfotos zeigen, dass die Motoren der Wettermaschine tatsächlich an den Polen und nicht am Äquator zu finden sind. Er konnte anhand dieser Bilder und durch den Vergleich von Wetterdaten zeigen, dass sich die (diskontinuierliche) atmosphärische Zirkulation auf der Nordhalbkugel seit den 70er Jahren deutlich beschleunigt hat. Das Wetter wechselt häufiger als früher, weil sich ein Hoch nach dem andern, immer begleitet von Tiefdruckwirbeln, nach Süden bewegt. Mitunter kommt es aber doch zu sehr stabilen Wetterlagen, wenn sich etliche kleinere Hochs zu einem Riesenhoch zusammenballen. Auf diese Weise entsteht das bekannte „Azorenhoch“ über dem Atlantik. Es handelt sich dabei aber nicht um eine autonome Wesenheit, sondern um eine statistische Größe, die nur die hohe Wahrscheinlichkeit anzeigt, mit der sich von der Labradorsee oder vom Europäischen Nordmeer herunter ziehende Kältehochs (Leroux und seine Schüler nennen sie „Mobile Polar Highs“, MPH) in diesem Gebiet vereinigen. Das gleiche gilt für die Bezeichnung „Island-Tief“, die nur andeutet, dass die vom Vordringen der MPH erzeugten Tiefdruckwirbel oft dorthin ziehen.

In den letzten Jahrzehnten sind nach Leroux’ Statistik die MPH nicht nur häufiger geworden. Gleichzeitig stieg auch ihr durchschnittlicher Druck. Und sie drangen immer weiter nach Süden vor, während die sie begleitenden Tiefdruckwirbel immer weiter nach Norden gelangten. Über die Tiefdruckrinne am Vorderrand der Hochs kann so warme Luft nicht nur aus den Subtropen, sondern sogar aus den Tropen bis in die Arktis gelangen. Auf der Südhemisphäre ist übrigens Ähnliches zu beobachten. Dort wird Warmluft von der Andenkette direkt auf die antarktische Halbinsel gelenkt. Dort schmilzt das Eis, während sich der antarktische Kontinent, im Ganzen genommen, weiter abkühlt. An der (geringen) Veränderung der Durchschnittstemperatur lässt sich diese Dynamik überhaupt nicht ablesen.

Die gelegentlichen Hitzewellen, die in den letzten Jahren in Westeuropa auftraten, wurden übrigens immer von Kaltlufteinbrüchen verursacht. Mehrere MPH stauten sich an der Alpenbarriere und ihre Luftmassen heizten sich dann infolge der starken sommerlichen Sonneneinstrahlung an Ort und Stelle auf. Das kann man gut in diesem sonnigen Frühjahr beobachten: Immer sind es Kaltlufteinbrüche, die bei uns für schönes Wetter sorgen. Häufigere Kaltlufteinbrüche könnten auch erklären, warum die durchschnittliche Oberflächentemperatur der Ozeane in den letzten Jahren nicht gestiegen, sondern nach Lyman und Mitarbeitern wahrscheinlich sogar leicht gesunken ist. Die Bestätigung dieses Trends steht freilich noch aus.

Leroux ist deshalb der Meinung, hinter der in einem Teil der Welt registrierten Erwärmung verberge sich in Wirklichkeit ein Abkühlungsprozess. Die beschriebene Beschleunigung der atmosphärischen Zirkulation sei ein Vorzeichen des langsamen Heranrückens der nächsten Eiszeit. Denn Geologen wissen, dass die globale Wettermaschine in der jüngeren Erdgeschichte zwischen zwei Gangarten, einer schnellen und einer langsamen, hin und her gependelt ist. Dabei blieben die langsamen, mit einer Erwärmung verbundenen Phasen eher Ausnahmesituationen. Die mit einer Abkühlung verbundenen schnellen Phasen währten etwa zehnmal länger.

Es kann ausgeschlossen werden, dass der CO2-Gehalt der Luft für dieses Auf und Ab direkt oder indirekt verantwortlich ist. Analysen von Eisbohrkernen von der Antarktis zeigen eindeutig, dass der CO2-Anstieg Erwärmungsphasen immer mit einer Zeitverzögerung von 800 bis 1000 Jahren folgte, also keineswegs als Ursache der Erwärmung in Frage kommt. Dieses Nachhinken des CO2-Anstiegs gegenüber dem Temperaturanstieg ist auch in der neueren Zeit beobachtbar. So wissen wir seit kurzem durch die Auswertung alter, aber verlässlicher CO2-Messungen mithilfe klassischer chemischer Analysemethoden durch den Freiburger Biologen Ernst Georg Beck dass dem Hitzejahr 1940 zwei Jahre später eine CO2-Spitzenkonzentration von 420ppm folgte. Heute versucht das IPCC den Menschen einzureden, die aktuelle CO2-Konzentration von 380 ppm sei bereits bedenklich.

Aus alledem lässt sich nur schließen: Kohlendioxid aus natürlichen Quellen und von Menschen gesteuerten Verbrennungsprozessen kann nicht Ursache des Klimawandels sein. Das heißt nicht, die Menschen hätten überhaupt keinen Einfluss auf ihr (regionales) Klima. Tatsächlich haben sie dieses seit grauen Vorzeiten tief greifend verändert, und zwar vor allem durch die Rodung von Wäldern, die Schaffung von Acker- und Weideland sowie nicht zuletzt durch die Anlage von städtischen Siedlungen und Stauseen.

Viel besser lässt sich der Wechsel von Kalt- und Warmzeiten nach Ansicht namhafter Astronomen mit natürlichen Variationen der Sonneneinstrahlung und des Magnetfeldes erklären, wobei jedoch berücksichtigt werden muss, dass sich hier astronomische und terrestrische Zyklen sehr unterschiedlicher Länge und Größenordnung (wie die Exzentrizität des Erdumlaufs um die Sonne, die Neigung der Erdachse, kürzere und längere Schwankungen der Sonnenaktivität sowie kosmische Einflüsse) in komplizierter Weise überlagern. Unter Umständen können Zyklen gegenläufige Einflüsse ausüben. Deshalb ist gegenüber Prognosen, die nur einen bekannten Zyklus berücksichtigen, Vorsicht geboten.

So deutet zur Zeit Vieles darauf hin, dass wir die Häufung warmer Sommer seit den 90er Jahren zum beträchtlichen Teil einer außerordentlichen Verstärkung des Magnetfeldes der Sonne im Laufe des 20. Jahrhunderts verdanken. Nach einer inzwischen schon halbwegs bestätigten Hypothese der dänischen Atmosphärenphysiker Henrik Svensmark und Eigil Friis-Christensen wird dadurch die Erde vor kosmischen Partikeln geschützt, die beim Eindringen in die Atmosphäre als Kondensationskeime für die Wolkenbildung wirken könnten. Gibt es weniger Wolken, steigen die sommerlichen Temperaturen. Umgekehrt kann es aber auch in den langen Winternächten bitter kalt werden. Da der hyperaktive Sonnenzyklus nun vorüber ist, erwartet der bekannte russische Astronom und Mathematiker Habibullo Abdusamatow (St. Petersburg) eine schon im nächsten Jahrzehnt beginnende Abkühlungsphase, eine „Kleine Eiszeit“, die um die Mitte des Jahrhunderts ihren Tiefpunkt erreichen soll. Aber auch die nächste „Große Eiszeit“ rückt näher, denn die Geologen sind sich im Prinzip einig, dass der Höhepunkt der gegenwärtigen Warmzeit längst überschritten ist. Welche Ursachen aber im Einzelnen hinter der beobachtbaren Beschleunigung der Luftzirkulation stehen, weiß noch niemand. Deshalb würde ich zur Zeit noch nicht wetten, dass es auf der Erde schon in zehn Jahren spürbar kühler sein wird.

Literatur

Ernst Georg Beck: 180 Years of Accurate CO2-Gas-Analysis of Air by Chemical Methods (Short Version), in: Energy & Environment Volume 18 No. 2/2007

Heinz Hug: Die Angsttrompeter. Die Wahrheit über die Gefahren aus der Umwelt. Signum Verlag (F.A. Herbig), München 2006. ISBN 3-7766-8013-X. 360 Seiten.

Marcel Leroux: Global Warming. Myth or Reality? The Erring Ways of Climatology. Springer-Praxis, Berlin-Heidelberg-New York 2005. ISBN 3-540-23909-X. 509 Seiten.

Marcel Leroux: Les échanges méridiens commandent les changements climatiques. Vortrag in der Académie des Sciences, Paris, 5. März 2007

John M. Lyman/Josh K. Willis/Gregory C. Johnson: Recent Cooling of the Upper Ocean, in: Geophysical Research Letters, Vol. 33, L 18604, doi: 10.1029/2006GL027033, 2006

Henrik Svensmark/Jens Olaf Pepke Pedersen/Nigel Marsh/Martin Enghoff/Ulrik Uggerhoj: Experimental Evidence for the Role of Ions in Particle Nucleation under Atmospheric Conditions, in: Proceedings of the Royal Society A, 2006, October 3rd

*) veröffentlicht 2007 in „eigentümlich frei“ (Lichtschlag-Medien, Grevenbroich)

Plädoyer für eine evolutionäre Ökologie

Claude Allègre: Ma vérité sur la planète ; Editions Plon, Paris 2007. ISBN: 978-2-259-20675-4. 240 S. € 18,-

Ma vérité sur la planèteDas Alfred-Wegener-Institut für Polar- und Meeresforschung (AWI) in Bremerhaven spielt eine wichtige Rolle in der Klimaforschung und wird infolgedessen nicht selten in den Massenmedien zitiert. Aber nur wenige von denen, die heute davon ausgehen, dass das letzte Wort über die Erklärung des aktuellen Klimawandels schon gesprochen ist und es geradezu für unmoralisch erklären, noch an der Schuld des Menschen zu zweifeln, scheinen bereit zu sein, Lehren aus dem Schicksal des Namensgebers des Bremerhavener Instituts zu ziehen. Unsere Schüler lernen, dass Alfred Wegener der Urheber der Theorie der Kontinentalverschiebung ist. Diese beruhte nicht zuletzt auf der durch den Augenschein gestützten Vermutung, dass Afrika und Südamerika vor vielen Millionen Jahren einmal zusammengehangen haben müssen. Weiterlesen

Energiepolitik ohne Konzept

Es gibt in Deutschland noch immer keine strategische Energiepolitik und folglich auch keine inhaltliche Koordinierung der Energieforschung. Sechs Chemiegesellschaften haben deshalb ein Positionspapier vorgelegt, um Forschern zu zeigen, wie sie zur Sicherung einer ökologisch sauberen und bezahlbaren Energieversorgung beitragen können. Sie können allerdings die von ihnen geforderte Abkehr vom Erdöl nicht begründen.

Windräder erzeugen unterm Strich mehr CO2 als sie vermeiden

Eine gerade erschienene Studie ehemaliger Shell-Mitarbeiter in den Niederladen mit dem Titel The hidden fuel costs of wind generated electricity rechnet vor: Deutsche Windräder benötigen mehr Energie und erzeugen mehr Kohlenstoffdioxid als sie vermeiden. (17. Dezember 2009)

==========================================================

Energie der Zukunft mit mehr Chemie

In Deutschland gibt es trotz pompöser „Energiegipfel“ keine Energiepolitik, die diesen Namen verdient. Darauf hat BASF-Chef Jürgen Hambrecht schon vor zweieinhalb Jahren hingewiesen. Ob die neue Bundesregierung unter Angela Merkel ein schlüssiges Gesamtkonzept wird erarbeiten können, ist jetzt noch nicht absehbar. Bislang wurde die Energieforschung nicht nur vom Bundesforschungsministerium, sondern auch vom Wirtschaftsministerium, vom Bundesumweltministerium und vom Landwirtschaftsministerium gefördert. Um diese Zersplitterung zu überwinden, hat die neue Bundesregierung für das kommende Jahr eine nationale Energieforschungsinitiative angekündigt. Sechs im Koordinierungskreis Chemische Energieforschung zusammengeschlossene Chemiegesellschaften (DBG-Deutsche Bunsengesellschaft für Physikalische Chemie, DECHEMA-Gesellschaft für Chemische Technik und Biotechnologie, DGMK-Deutsche wissenschaftliche Gesellschaft für Erdöl, Erdgas und Kohle, GDCh-Gesellschaft deutscher Chemiker, VCI-Verband der Chemischen Industrie und VDI-GVC-Gesellschaft Verfahrenstechnik und Chemieingenieurwesen) sahen deshalb den richtigen Zeitpunkt gekommen, um die Ergebnisse einer von ihnen erarbeiteten quantitativen Potentialanalyse verschiedener energietechnischer Innovationen in Form eines Positionspapiers zu veröffentlichen.

Die beteiligten Verbände hielten eine Quantifizierung ihrer Potentialabschätzungen für notwendig, um überblicken zu können, wo bei den Forschungsanstrengungen Prioritäten gesetzt werden müssen. Eine interaktive Excel-Tabelle im Internet (www.energie-und-Chemie.de) ermöglicht es, unterschiedliche Annahmen durchzurechnen und Interdependenzen zu berücksichtigen. Als Zeithorizont wurde das Jahr 2030 gewählt. Das Papier beginnt mit dem Reizthema Erdöl und der Feststellung: „Die konventionellen Kraftstoffe, das sind Ottokraftstoff (Benzin), Flugturbinenkraftstoff (Kerosin) und Dieselkraftstoff werden auf absehbare Zeit weiterhin die Grundlage der Mobilität unserer Gesellschaft bieten. (…) Auch Biokraftstoffe der zweiten Generation und aus den Rohstoffen Erdgas und Kohle werden bis 2030 voraussichtlich keine signifikante Rolle für die Erzeugung von Kraftstoffen spielen.“

Die Chemie könne unter anderem durch die Entwicklung neuer Katalysatoren für das Hydrotreating-Verfahren der Rohöl-Reinigung und neuer Hilfschemikalien für die Entölung der Lagerstätten wichtige Beiträge zur Verbesserung der Ausbeute von Rohölvorkommen leisten. Zurzeit liegt der durchschnittliche Entölungsgrad der Lagerstätten unter 40 Prozent. Die Autorinnen und Autoren des Positionspapiers gehen davon aus, dass der Anteil der tertiären Ölförderung mithilfe von geeigneten Chemikalien, der derzeit bei 4 Prozent liegt, mindestens verdoppelt werden kann.

Das Positionspapier geht leider nur kurz auf die Erschließung neuer Ölvorräte ein. Auch hier zeichnet sich erheblicher Forschungsbedarf ab. Denn in den vergangenen Jahren hat es sich gezeigt, dass man praktisch überall in der Welt Rohöl findet, wenn man nur tief genug bohrt. Förderungswürdig ist dieses Öl freilich nur, wenn der Ölpreis die damit verbundenen hohen Kosten rechtfertigt. Immerhin haben die Ergebnisse der Tiefenexploration (u. a. vor Brasilien und vor Sierra Leone im Atlantik oder im Golf von Mexiko) jenen Geologen Auftrieb gegeben, die seit längerem davon überzeugt sind, dass Erdöl nur zu einem Teil biotischen Ursprungs ist und zu einem Großteil im oberen Erdmantel beziehungsweise in der unteren Erdkruste aufgrund der dort herrschenden hohen Drücke und Temperaturen auf rein chemischem Wege ständig neu gebildet wird. Jedenfalls konnten Anton Kolesnikow, Vladimir G. Kutcherow und Alexander F. Goncharow von der Washingtoner Carnegie Institution, der Moskauer Lomonossow Universiät und des Königlich schwedischen Technologie Instituts in Stockholm in diesem Jahr experimentell bestätigen, dass Erdöl auch auf abiotischem Wege entstehen kann.

In welchem Verhältnis Neubildung und Verbrauch abiotischen Öls zueinander stehen, muss allerdings noch erforscht werden. Zurzeit scheint es jedenfalls keinen Grund zu geben, den Abschied vom Erdöl einzuleiten, denn es gibt keine Ölverknappung. „Fortschritte in der Chemie erleichtern den Abschied vom Öl“, lautet die Überschrift der Kurzfassung des Positionspapiers. Ebenso gut könnte man sagen, dass die Chemie hilft, das Erdöl noch möglichst lange als Energie- und Chemie-Rohstoff weiter nutzen zu können.

Anders als beim Erdöl gibt es bei Erdgas und Kohle nicht einmal scheinbare Verknappungssymptome. Beide Energieträger eignen sich auch für die Herstellung flüssiger Kraftstoffe. Das Positionspapier geht davon aus, dass das selbst in Deutschland wirtschaftlich interessant werden könnte. Vordringlich sei jedoch die Verbesserung der Technologie stationärer Kohle- und Gaskraftwerke. Die Internationale Energieagentur (IEA) schätzt, dass bis zum Jahre 2030 weltweit mindestens 75 Prozent aller neu gebauten Kraftwerke mit Kohle oder Gas befeuert werden. Für den Bau neuer Kraftwerkskapazitäten müssten bis dahin nicht weniger als 4 Billionen Euro zur Verfügung gestellt werden. Der Weltenergierat (WEC) erwartet eine breite Einführung von Technologien der CO2-Abscheidung aus Kohlekraftwerken (CCS) nicht vor 2020. Es erscheint als fraglich, ob CCS jemals weltweit zum Standard werden wird, da hierdurch die Investitionskosten für fossil befeuerte Kraftwerke, je nach der gewählten Kraftwerkstechnologie, noch einmal um 30 bis 100 Prozent ansteigen würden. Da kommen die durch Insider aus der Climate Research Unit (CRU) der University of East Anglia (Norwich) ins Internet gestellten Dateien mit kompromittierender Korrespondenz zwischen führenden Vertretern des Weltklimarates IPCC über Klimadaten-Manipulationen gerade recht, um erneut anzuzweifeln, ob CO2-Emissionen überhaupt verantwortlich für den Klimawandel sind.

Interessanter als die teure und obendrein nicht unbedingt sichere Endlagerung von CO2 könnte dessen photokatalytische Reduktion oder Hydrierung sein. Doch hier stehe die Forschung noch ganz am Anfang, sagt das Papier.

Aktuell ist die Chemie viel stärker bei der der Verbesserung des Wirkungsrades der Photovoltaik gefordert. Zu über 90 Prozent sind die bislang in Deutschland installierten Photovoltaik-Module aus kristallinen Siliziumwafern gefertigt. Dünnschicht-Solarzellen aus anderen Halbleitern gewinnen erst seit wenigen Jahren Marktanteile. Das Papier verschweigt nicht, dass es sich bei der Photovoltaik mit CO2-Vermeidungskosten von ungefähr 3.500 €/t CO2 um die mit Abstand teuerste Methode der CO2-Einsparung handelt. Das spezifische Investment je kW Durchschnittsleistung übersteigt bei Siliziumbasierten Solarmodulen in Deutschland (mit einer mittleren jährlichen Sonneneinstrahlung von nur 1.000 kWh/m2) über 40.000 Euro. (Zum Vergleich: Braunkohlekraftwerke erfordern 1.700 €/kW und erdgasbefeuerte GuD-Kraftwerke nur 700 €/kW.) Ohne die im deutschen Erneuerbare Energien Gesetz (EEG) für 20 Jahre garantierten hohen Netzeinspeisetarife für Solarstrom hätte die Photovoltaik noch heute kaum Chancen auf dem Markt. Für die Zukunft versprechen sich die Verfasser des Positionspapiers einiges von der organischen Photovoltaik (polymere Heterojunctions, Grätzel-Zellen und organisch-anorganische Hybridzellen).

Beim Thema Energiespeicherung warnen die Autoren des Papiers davor, einseitig auf Wasserstoff zu setzen. „Methan darf als Zukunftsoption nicht vernachlässigt werden. Es erscheint mir als beinahe idealer Energiespeicher, weil man damit die vorhandene Gasversorgungs-Infrastruktur nutzen kann. Aber die Methanchemie ist bei uns leider unterentwickelt“, unterstrich Prof. Ferdi Schüth, Direktor des MPI für Kohlenforschung in Mühlheim und Vorsitzender des Koordinierungskreises Chemische Energieforschung, bei der Vorstellung des Positionspapiers in Frankfurt am Main. Beim Einsatz von Methanol sieht das Positionspapier hingegen eher Nachteile. Elektrochemische Energiespeicher, zum Beispiel Lithium-Ionen- oder Natrium-Nickelchlorid-Batterien, eignen sich bislang nicht für den großtechnischen Einsatz. Auch bei deren Anwendung in Plug-in-Hybridfahrzeugen oder in Privathaushalten beziehungsweise als Ergänzung zu Pumpspeicher-Kraftwerken in „intelligenten“ Stromnetzen gebe es noch erheblichen Forschungsbedarf. Wahrscheinlich mache der Anteil des „fluktuierenden Stroms“ von Windrädern und Photovoltaikanlagen im Jahre 2030 schon über ein Viertel des gesamten deutschen Stromaufkommens aus. Um Netzzusammenbrüche zu vermeiden, muss dieser oft zur Unzeit anfallende Strom irgendwie abgepuffert werden. Elektro- beziehungsweise Hybridfahrzeuge böten sich als rollende Stromspeicher an.

Andreas Kreimeyer (BASF), der Vorsitzende des Ausschusses Forschung, Wissenschaft und Bildung im VCI, wies in Frankfurt auf Defizite in der elektrochemischen Forschung hin, die als wissenschaftliche Grundlage der Energiespeicherung benötigt wird. Der Fonds der Chemischen Industrie unterstützt deshalb gezielt elektrochemische Diplomarbeiten und Promotionsprojekte an den Hochschulen, um Professoren und Studenten anzuregen, sich mit diesem in jüngerer Zeit vernachlässigten Teil der Energieforschung zu beschäftigen. „Die Energieversorgung der Zukunft wird chemischer“, resümierte Kreimeyer.

Beim Thema effiziente Energienutzung beschäftigt sich das Positionspapier ausführlich mit der Brennstoffzellentechnik, insbesondere in Form virtueller Brennstoffzellen-Großkraftwerke durch die Vernetzung vieler dezentraler Brennstoffzellen-Blockheizkraftwerke mit Kraft-Wärme-Kopplung untereinander sowie mit anderen regenerativen Energiequellen. Das Papier schätzt deren Potential aber äußerst vorsichtig ein, da die Wirtschaftlichkeit dieser Technik stark von Annahmen über die Entwicklung des Preises für CO2-Zertifikate abhängt.

Unter dem Thema effiziente Energienutzung handelt das Positionspapier auch die Entwicklung von Leuchtdioden (LEDs und OLEDs) und neuer Leuchtstoffe ab. Tatsächlich gehören diese interessanten Neuentwicklungen wohl eher in die Rubriken Ästhetik oder Bequemlichkeit. Denn auf die Beleuchtung entfallen in Deutschland laut Energieflussbild nur 0,7 Prozent des gesamten Primärenergiebedarfs. Selbst wenn die Deutschen gänzlich auf Beleuchtung verzichteten, könnten sie dadurch ihren Energieerbrauch nicht spürbar verringern. Tatsächlich eröffnet die Anwendung der Nanotechnologie die Möglichkeit, maßgeschneiderte Materialien für die Herstellung von Leuchttapeten oder andere völlig neuartiger Leuchtmittel ohne lästige Wärmeerzeugung zu entwickeln. Dadurch könnte die Architektur revolutioniert werden.

Aufgaben für Chemiker warten auch bei Versuchen, Hochtemperatur-Supraleiter der zweiten Generation auf der Basis von Ytrium-Barium-Kupferoxid zu verbessern. Der Einsatz von Supraleitern ermöglicht zwar Verlustreduktionen von bis zu 60 Prozent bei Generatoren und bis zu 95 Prozent bei stationären Transformatoren und Induktionsheizungen. Kurz- und mittelfristig fällt die dadurch mögliche Reduktion des Primärenergieeinsatzes wegen der damit verbundenen hohen Kosten jedoch nicht ins Gewicht. Werden heute Supraleiter im Maschinenbau und in der Medizintechnik eingesetzt, ist nicht die erwartete höhere Energieeffizienz dafür ausschlaggebend, stellt das Papier nüchtern fest.

In der breiten Öffentlichkeit längst anerkannt ist hingegen der Beitrag der chemischen Industrie zur Entwicklung neuer Werkstoffe für die Wärmedämmung von Gebäuden. Ohne das im Einzelnen zu quantifizieren, gehen die Autorinnen und Autoren hier von negativen CO2-Vermeidungskosten aufgrund der durch die Dämmstoffe bewirkten Heizkostenersparnis aus. Dabei gibt es bei den Dämmstoffen selbst durchaus noch Entwicklungspotenzial: So zum Beispiel durch den Einsatz nanoporöser Schaumstoffe oder durch die Integration von Flammschutzfunktionen.

Nicht so leicht ist die Kosten-Nutzen-Abwägung bei der Entwicklung und dem Einsatz neuartiger Leichtbaustoffe im Maschinen-, Anlagen- und Fahrzeugbau. Bei einem für die Kfz-Flotte anvisierten Normalverbrauch von 4,5 Liter Treibstoff auf 100 Kilometer belaufen sich die CO2-Vermeidungskosten immerhin auf durchschnittlich etwa 450€/t CO2. Solange nicht experimentell demonstriert werden kann, dass CO2 wirklich umweltschädlich ist, wird nicht jeder freiwillig solche Kosten in Kauf nehmen.

Umso mehr kommt es darauf an, knappe Forschungsgelder und Investitionsmittel dort einzusetzen, wo sie Mensch und Umwelt den größten Nutzen bringen. Deshalb kann man Andreas Kreimeyer wohl nur zustimmen, wenn er fordert: „Die Bundesregierung sollte ihre geplante nationale Energieforschungsinitiative dazu nutzen, eine Energieforschungspolitik aus einem Guss zu gestalten.“

Edgar L. Gärtner

(erschienen in: Chemische Rundschau Nr. 12/2009 vom 8. Dezember 2009. VS-Medien, CH-Solothurn)

=============================================================================================

Einem Skandal auf der Spur von Edgar L. Gärtner

Mögliche Hintergründe der Aufregung um die Krümmel-Pannen

Die deutschen Betreiber von Kernkraftwerken bereiten sich auf einen möglichen „Ausstieg aus dem Ausstieg“ vor, denn sowohl die Union als auch die FDP haben versprochen, die unter der rot-grünen Bundesregierung ausgehandelte Laufzeitverkürzung für Kernkraftwerke wieder rückgängig zu machen, falls es in Berlin zu einer schwarz-gelben Regierung käme. Mit aufwändigen Zeitungsbeilagen wollten die betroffenen Stromkonzerne in diesem Sommer für eine Verlängerung der Laufzeiten für ihre längst abgeschriebenen und daher konkurrenzlos kostengünstigen Kernkraftwerke werben, zumal Meinungsumfragen darauf hindeuteten, dass sich immer mehr Deutsche, angesichts drohender weiterer Strompreissteigerungen, mit dieser Lösung anfreunden. Doch am 4. Juli, wenige Tage vor dem ursprünglich angesetzten Start der PR-Kampagne des Deutschen Atomforums, musste das vom schwedischen Staatskonzern Vattenfall betriebene norddeutsche Kernkraftwerk Krümmel, das nach einer zweijährigen Zwangspause wegen eines Transformatorbrandes gerade wieder ans Netz gegangen war, wegen eines erneuten Transformatorschadens schon wieder stillgelegt werden. Die Manager der deutschen Kernkraftbetreiber E.on, RWE und EnBW, sind nun sauer auf ihren nordischen Konkurrenten, der in Deutschland aus wettbewerbsrechtlichen Gründen die Kernkraftwerke des verblichenen Hamburgischen Stromkonzerns HEW übernommen hat.

In einem vom 28. Juli 2009 datierten Schreiben an Ernst Michael Züfle, den Chef der Nuklear-Sparte von Vattenfall in Deutschland, das vor kurzem auszugsweise im „Handelsblatt“ veröffentlicht wurde, schrieben Klaus-Dieter Maubach, der Chef von E.On Energie, Gerd Jäger, der für Kernenergie zuständige Vorstand von RWE Power, und Hans-Josef Zimmer, technischer Vorstand der EnBW: „Wir sehen Vattenfall (…) in der Pflicht, zu den Ereignissenn und Vorgängen in Krümmel öffentlich Stellung zu beziehen. Dies ist in den letzten Tagen nicht immer geschehen. Vielmehr mussten wir feststellen, dass sich der Vattenfall-Konzern in dieser Frage … der Diskussion entzieht.“ Hintergrund des wütenden Schreibens ist nicht nur ein erneuter Anlauf für eine Zeitungsbeilage des Atomforums, die nun – anders als ursprünglich geplant – in der heißen Phase des Wahlkampfes erschienen ist. Dort sollte nach Ansicht der deutschen Kernkraftwerk-Betreiber nicht nur Michael Züfle zu den Vorfällen in Krümmel Stellung beziehen – sondern am besten Vattenfall-Chef Lars Göran Josefsson persönlich. Denn Vattenfall habe mit seinem Verhalten bei den Vorfällen in Krümmel den Atomkraft-Gegnern eine „Steilvorlage“ geliefert. Ein nicht minder wichtiger Grund für die Wut der deutschen Strom-Manager sind aber Befürchtungen, die Politik werde Zugeständnisse in Sachen Kraftwerks-Laufzeiten mit hohen finanziellen Forderungen verbinden.

Was ich in meinem Buch „Öko-Nihilismus“ (auf Seite 19 unten) schon vor über zwei Jahren für wahrscheinlich gehalten habe, wird nun, wie das „Handelsblatt“ vom 28. August berichtete, von der Unions- und der FDP-Fraktion im Deutschen Bundestag ganz offen propagiert: Im Falle einer Laufzeitverlängerung für deutsche Kernkraftwerke nach einem schwarz-gelben Sieg bei den bevorstehenden Bundestagswahlen soll der Staat mindestens die Hälfte der beim Weiterbetrieb abgeschriebener Atomkraftwerke anfallenden Extragewinne abschöpfen und in die Entwicklung „besserer“, weil teurerer „erneuerbaren“ Energien investieren oder auch für die Entlastung der Stromkunden einsetzen. Es geht hier, nach Analysen der Landesbank Baden-Württemberg, schon bei einer Laufzeitverlängerung von nur zehn Jahren um Summen in zweistelliger Milliardenhöhe. Bei einer technisch durchaus möglichen Laufzeitverlängerung um 25 Jahre und einem angenommenen Strompreis von 80 Euro je Megawattstunde winkt E.on ein Extragewinn von fast 32 Milliarden Euro. RWE könnte mit 23 und EnBW mit fast 15 Milliarden Euro rechnen.

Doch was ist mit Vattenfall? In Schweden geht das Gerücht um, der Staatskonzern habe die eher harmlosen, weil im nichtnuklearen Teil des KKW Krümmel eingetretenen Pannen vielleicht mit Absicht provoziert, um seinen deutschen Konkurrenten einen Strich durch die Rechnung zu machen. Denn nach einem vom schwedischen Reichstag 1998 beschlossenen Gesetz muss der Staatskonzern in erster Linie als Instrument der schwedischen Politik agieren. Und diese kann kein Interesse an niedrigen Strompreisen in Deutschland haben. Nicht nur Schweden, sondern ganz Skandinavien sieht sich, im Unterschied zum Kontinent, mit wachsenden Stromüberschüssen und entsprechend sinkenden Strompreisen konfrontiert. Und dieser Strom wird fast zu 100 Prozent CO2-frei zu gleichen Teilen durch Wasser- und Kernkraftwerke erzeugt. Die skandinavischen Stromanbieter haben also vom CO2-Emissionshandel nichts zu befürchten. Sie bereiten sich darauf vor, ihre Stromüberschüsse, die sie zu äusserst günstigen Preisen generiert haben, kontinentalen Abnehmern zu teuren Marktpreisen anzubieten. Es könnte sogar so sein, dass Vattenfall sich aus dem gleichen Grund in Deutschland für die industriell unerprobte und teure Abscheidung und Endlagerung von Kohlenstoffdioxid aus den Abgasen von Stein- und Braunkohlenkraftwerken stark macht. Damit würden die Marginalkosten der Stromproduktion steigen. Im System des Börsenhandels von Elektrizität bestimmen die Marginalkosten die Strompreise. Je höher die Marginalkosten, desto höher auch der Marktpreis, zu welchem Vattenfall verkauft und kontinentale Anbieter einkaufen.

Dass Bundeskanzlerin Dr. Angela Merkel neben dem durchgeknallten Theoretischen Physiker Hans Joachim Schellnhuber vom Potsdam Institut für Klimafolgenforschung (PIK) ausgerechnet Vattenfall-Chef Josefsson zu ihrem Top-Berater in Sachen „Klimaschutz“ ernannt hat, zeigt meines Erachtens, was von der strategischen Kompetenz unserer politischen Klasse zu halten ist.

Literatur:

Edgar L. Gärtner: Öko-Nihilismus. Eine Kritik der Politischen Ökologie. Jena 2007

Internet:

Konkurrenten greifen Vattenfall an

Atomkonzerne sollen Milliarden zahlen

Interview mit Hans Joachim Schellnhuber

(7. September 2009)

Energiepolitik im Dienste ausländischer Interessen?

Von Edgar L. Gärtner

Einem Skandal auf der Spur (Fortsetzung)

Deutschland wird bald zum Stromimportland werden. Selbst nach Schätzungen der in diesem Zusammenhang unverdächtigen Deutschen Energieagentur (Dena) wird im Jahre 2020 eine Kraftwerksleistung von 12.000 Megawatt (MW) fehlen. Nach Hochrechnungen des Essener Stromkonzerns RWE wird Deutschland schon im Jahre 2015 netto mehr Strom importieren als exportieren. Sollte der Ausstieg aus der Kernkraftnutzung fortgesetzt und der Bau neuer Kohlekraftwerke nicht beschleunigt werden, droht uns nach dieser Rechnung bis 2020 eine Kapazitätslücke von 40.000 MW. Ein Bündnis aus insgesamt 140 Umweltschutzvereinen und kirchlichen Missions- und Hilfsrganisationen unter dem Namen „Klima-Allianz“ hat sich offenbar in den Kopf gesetzt, Deutschlands Stromversorgung noch rascher den politischen Zielen und Geschäftsinteressen ausländischer Staatskonzerne zu unterwerfen.

Anlässlich der von der „Klima-Allianz“ bejubelten Verfügung des Oberverwaltungsgerichts Münster, den bereits fortgeschrittenen Neubau des größten Kohlekraftwerks des E.on-Konzerns im westfälischen Datteln zu stoppen, konnte auch die deutsche Qualitätspresse nicht mehr umhin, auf die dubiose Finanzierung der „Klima-Allianz“ aufmerksam zu machen. So wies die WELT am 10. September auf Spenden von in der Schweiz und in den USA beheimateten Stiftungen hin. Etwas deutlicher wurde die Financial Times Deutschland, die am 18. September berichtete, der britischen Hedge-Fonds TCI habe den Kampf gegen Kohlekraftwerke im vergangenen Jahr mit nicht weniger als 500.000 € unterstützt. Das erinnert an die Machenschaften David Bondermans, des Chefs des Investment-Fonds Texas Pacific. Bonderman leitete vor zweieinhalb Jahren durch eine von ihm gesponserten NGO-Kampagne die Übernahme des texanischen Kohlekraftswerks-Betreibers TXU ein. Dadurch verhinderte er, dass TXU seine Pläne für den Bau neuer Kohlekraftwerke umsetzen konnte und erreichte, dass stattdessen die Interessen der Wind- und Gasindustrie Oberhand bekamen.

Inzwischen hat die in den USA erfolgreich erprobte Methode politischer Erpressung von Investoren, die der US-Professor Jarol B. Manheim in seinem 2004 erschienen Buch „Biz-War and the Out-of-Power Elite“ analysiert hat, auch in Europa Einzug gehalten. Neben den Interessen der russischen Gazprom geht es in Europa insbesondere um die Interessen der staatlichen Stromkonzerne Frankreichs und Schwedens. Der schwedische Internet-Fachinformationsdienst www.elbranschen.com teilt übrigens meine kürzlich an dieser Stelle geäußerten Vermutungen über eine geheime Agenda des schwedischen Staatskonzerne Vattenfall. Einiges spricht dafür, dass Vattenfall die „Störfälle“ im KKW Krümmel provoziert hat, um eine Verlängerung der Laufzeiten deutscher Atomkraftwerke nach der anstehenden Bundestagswahl zu verhindern. Denn dann bekäme Vattenfall die Chance, überschüssigen skandinavischen Strom aus Wasser- und Atomkraftwerken zu Höchstpreisen in Deutschland abzusetzen. Der schwedische Informationsdienst fragt bereits scherzhaft, ob Vattenfall (ähnlich wie Gazprom im Falle der Abwahl Gerhard Schröders) Angela Merkel für den Fall ihrer nicht gänzlich ausgeschlossenen Abwahl als Bundeskanzlerin einen Aufsichtsratsposten bereithält.

Internet:

Einem Skandal auf der Spur

30 Kohlekraftwerke bedroht

E.ons Kohlekrampfwerk

Vermutungen eines Schweden

(24. September 2009)

==============================================================================

„The Economist“ sieht in England die Lichter ausgehen

Das britische Wirtschaftsmagazin „The Economist“ vom 6. August analysiert schonungslos die energiepolitischen Illusionen der Labour Regierung unter Gordon Brown. Da Kohlekraftwerke als schmutzig abgelehnt werden, der Bau von Atomkraftwerken zu teuer und zu zeitaufwendig ist und die „erneuerbarer“ Wind- und Solarstrom nur sehr unregelmäßig und überdies ineffzient erzeugt werden kann, halten sich die Energieversorger an den Bau von Gas-Kraftwerken. Diese lassen sich zwar rasch und billig errichten, doch ihre Betriebskosten erscheinen als kaum kalkulierbar, da der wachsende Gasbedarf den Gaslieferanten Russland in eine mehr als komfortable Anbieter-Situation bringt. Freuen können sich darüber nur Wladimir Putin und seine Getreuen in der Kreml AG. (10. August 2009)

========================================================================

Wüstenstrom bedroht gesunden Menschenverstand

Kollegen der Tageszeitung „Die Welt“ haben am 14. Juli 2009 einen Fragen- und Antworten-Katalog zu dem am 13. Juli in München auf den Weg gebrachten Wüstenstrom-Projekt veröffentlicht, der den Anschein erweckt, er sei unhinterfragt einem PR-Folder der federführenden Münchner Rückversicherung entnommen worden. Denn bislang kannte ich von diesen Kollegen eher kritische oder skeptische Beiträge zum Problem der Energieversorgungssicherheit Deutschlands. Im Folgenden möchte ich auf jeden der 10 Punkte des Katalogs einzeln eingehen.

1. Ob die für die Erzeugung und den Transport von solarthermisch erzeugtem Strom in der Sahara bis zum Jahre 2050 vorgesehenen Investitionen von mindestens 400 Milliarden Euro angemessen sind, ist eine eher theoretische Frage. Tatsache ist, dass der gesamte Strombedarf Deutschlands selbst bei Berücksichtigung der hohen Stromsteuer und der EEG-Umlage für ungefähr 30 Milliarden Euro im Jahr gedeckt werden kann. Wird der begonnene „Atom-Ausstieg“ wie geplant fortgesetzt und entwickelt sich der CO2-Emissionshandel, dann werden sich unsere Stromkosten rasch verdoppeln. Ob das den „Wüstenstrom“ wettbewerbsfähig machen wird, ist völlig offen. Es ist lediglich absehbar, dass das Desertec-Projekt viel teurer werden wird als vorläufig angenommen. Da die Standorte der Parabolspiegel-Kraftwerke noch nicht gefunden sind, lässt sich nicht abschätzen, wie weit und in welcher Form der durch sie erzeugte Strom transportiert werden wird. Für die Münchner Rück sind aber letztlich die durch Destertec vermiedenen „Klimaschäden“ ausschlaggebend. Doch diese sind rein hypothetischer Natur. Viel spricht dafür, dass es bei einer fortgesetzten Erderwärmung mehr Gewinner als Verlierer gäbe, denn Historikern ist bekannt, dass im mittelalterlichen „Klimaoptimum“ der Wohlstand wuchs. Außerdem dürfte die Erderwärmung ab einem bestimmten Niveau zu einer fortschreitenden Ergrünung der Sahara führen. Es gäbe dann möglicherweise überhaupt keinen Platz mehr für „Wüstenkraftwerke.“

2. Klar ist, dass Solarstrom aus der Sahara heute nicht wettbewerbsfähig wäre. Das zumindest für die Durchleitung des Wüstenstroms benötigte EU-Land Frankreich setzt weiterhin auf preisgünstigen Atomstrom. Dieser würde auch in Zukunft deutlich günstiger sein als Solarstrom.

3. In der Tat sind die Argumente der Fotovoltaik-Lobby gegenüber Desertec schwach. Sie beruhen auf der Angst heutiger Subventionsempfänger, in naher Zukunft Konkurrenz von einer weiteren um Subventionen werbenden Lobby zu bekommen. Dennoch hat die Fotovoltaik-Lobby recht, wenn sie darauf hinweist, dass Solarstrom aus der Sahara in Deutschland nicht gebraucht wird. Denn es gibt hier neben sehr kostengünstig arbeitenden, weil abgeschriebenen Kernkraftwerken auch moderne Braunkohlekraftwerke, die Strom ähnlich kostengünstig liefern, solange dieser nicht durch den CO2-Emissionshandel und/oder Öko-Steuern künstlich verteuert wird. Somit bin ich bereits beim Punkt 4.

4. Was bringt die Kollegen bzw. die Münchner Rück dazu, zu behaupten, das Kohlezeitalter gehe unweigerlich zu Ende? Im Gegenteil spricht Vieles dafür, dass es gerade erst richtig beginnt. Nicht nur in China gehen Kohlekraftwerke im Wochenrhythmus in Betrieb. Und wer wollte behaupten, die Kohlevorräte der Erde gingen zur Neige? Es gibt allenfalls vorübergehende Nachschubprobleme, aber keine Verknappung von Kohle. Die bekannten Lagerstätten reichen noch für Jahrhunderte. Da nicht nachweisbar ist, dass das bei der Verbrennung von Kohle entstehende Kohlenstoffdioxid irgendeinen negativen Einfluss auf Wetter und Klima ausübt, besteht kein Grund, auf die Nutzung dieses Naturschatzes zu verzichten.

5. In der Tat würde uns Desertec abhängig machen von politisch höchst instabilen Ländern. Insbesondere in Algerien, das, rein technisch gesehen, die besten Standortbedingungen für solarthermische Kraftwerke böte, gibt die politische Entwicklung Anlass zu großer Sorge. Die politische Macht befindet sich dort in den Händen einer aus der nationalen Befreiungsbewegung FLN gegen die französische Kolonialmacht hervorgegangenen Filzokratie. Nicht von ungefähr hat der in Algerien aufgewachsene französische Literaturnobelpreisträger Albert Camus, trotz seines Engagements gegen den Kolonialismus, immer wieder davor gewarnt, die politische Macht in die Hände von „Banditen“ geraten zu lassen. Die in Algerien seit Jahrzehnten herrschende Cliquenwirtschaft hat verhindert, dass das mit Bodenschätzen aller Art gesegnete Land zu Wohlstand gelangt. Arbeitslosigkeit, Wohnungsnot und fortschreitende Armut bereiten den Boden für Terroristen des Al-Kaida-Netzwerkes, deren erklärtes Ziel die Wiederherstellung des Kalifats Al Andalus bis zu den Pyrenäen und darüber hinaus bis nach Südfrankreich ist.

6. Das Desertec-Project hat durchaus ein kolonialistisches Geschmäckle. Das wäre anders, wenn die Initiative von den nordafrikanischen Ländern ausgegangen wäre. Die wirtschaftliche Entwicklung in bislang armen Ländern beflügeln könnte das Projekt nur unter geeigneten politischen Rahmenbedingungen.

7. In der Tat sind die Transportverluste bei der ins Auge gefassten Hochspannungs-Gleichstromübertragung (HGÜ) im Prinzip deutlich geringer als bei Wechselspannung. Bisherige Erfahrungen beziehen sich aber ausschließlich auf die Punkt-zu-Punkt-Übertragung großer Strommengen vom Ort der Erzeugung zu einem Ort hohen Verbrauchs. Das Desertec-Projekt ist hingegen als Verbund einer Vielzahl von Solarthermie-Kraftwerken konzipiert. Da die Standorte dieser Kraftwerke noch nicht feststehen, ist die Länge der notwendigen Übertragungswege und somit auch die Höhe der Transportverluste überhaupt noch nicht abschätzbar. Es ist auch noch nicht geklärt, ob die erzeugte Elektrizität in Europa über ein noch nicht existierendes Gleichstromnetz oder über das vorhandene Wechselstromnetz verteilt werden wird.

8. Sandstürme scheinen ein eher geringes Problem zu sein, zumal sich die Parabolspiegel mithilfe ihrer ohnehin vorhandenen Nachführ-Motoren im Ernstfall aus dem Wind drehen lassen.

9. In der Tat würde Desertec zur Zementierung der Abhängigkeit der Stromverbraucher von zentralistischen Versorgungssystemen beitragen. Es gäbe durchaus sichere dezentrale Alternativen: etwa kleine Nuklear-Batterien beziehungsweise Hochtemperatur-Reaktoren oder auch Blockheizkraftwerke mit Stirling-Motoren, die man im Keller von Ein- oder Mehrfamilienhäusern aufstellen oder in deren Vorgärten oder Hinterhöfen vergraben könnte. Solche dezentralen, entsprechend individueller Bedürfnisse steuerbaren Energieversorgungstechniken würden durch Kontinente übergreifende Versorgungsstrukturen höchstwahrscheinlich gehemmt.

10. Das Desertec-Projekt lebt von dem vor allem in Deutschland verbreiteten gutmenschlichen Wunschdenken. Dessen Grundlage sind historisch bedingte Schuld-Komplexe und eine damit zusammenhängende Verlierer-Mentalität. Im Unterschied zu Idealen können Utopien, sobald sie zu totalitären Fiktionen geworden sind, durchaus Realität werden – allerdings nur als Farce.

Edgar L. Gärtner (16. Juli 2009)

==================================================================

Stromarmut in Deutschland von Edgar L. Gärtner

Der Solar-Boom beschert den Stromverbrauchern eine Kostenlawine und vernichtet Arbeitsplätze.

In Deutschland hängen bekanntlich etwa sieben Millionen Arbeitslose oder Inhaber von Mini-Jobs ganz oder teilweise am Arbeitslosengeld 2 (Hartz IV), davon etwa die Hälfte dauerhaft. Der monatliche Basissatz von ALG2 beträgt je Erwachsener neuerdings € 359,-. Hinzu kommen die Kosten für Wohnungsmiete, Heizung und Wasser, die in der Regel bis zu einem örtlich unterschiedlichen Deckelbetrag von der Kommune übernommen werden. In jeden Fall müssen die ALG2-Empfänger den Strom für Kochen, Beleuchtung, Kommunikation und Unterhaltung aus dem Regelsatz von € 359,- begleichen. In der Stadt Frankfurt werden für Haushalte ohne elektrische Warmwasseraufbereitung monatlich lediglich € 16,- für „Haushaltsenergie“ angesetzt. Da die Stromkosten für Privathaushalte in Deutschland im europäischen Vergleich mit fast 22 ct/kWh besonders hoch sind, müssen ALG2-Empfänger ihren Jahresverbrauch auf etwa 750 kWh begrenzen, wenn sie nicht ihre Ernährung einschränken wollen. Das entspricht weniger als der Hälfte des durchschnittlichen Stromverbrauchs deutscher Einpersonenhaushalte, der zurzeit bei etwa 1.700 kWh/a liegt. Wer von ALG2 abhängt, muss also, ohne Hunger in Kauf zu nehmen, selbst seine Internet-Nutzung stark einschränken.

Bundesumweltminister Sigmar Gabriel ist sich durchaus bewusst, dass sich hier sozialer Sprengstoff ansammelt. Sein Ministerium beteiligt sich deshalb an der Finanzierung einer Studie des Frankfurter Instituts für sozial-ökologische Forschungen (ISOE) und das Heidelberger ifeu Institut für Energie- und Umweltforschung. Im Auftrag der Caritas möchten diese erforschen, wie man ALG2-Empfängern am besten helfen könnte, an für sie unbezahlbare stromsparende Haushaltsgeräte der neuesten Generation zu kommen. Welche Scheinheiligkeit sich dahinter verbirgt, wird deutlich, wenn man erfährt, dass die hohen deutschen Strompreise zu 40 Prozent aus diversen Steuern und Zwangsabgaben bestehen. Darunter befindet sich auch die durch das Erneuerbare Energien Gesetz (EEG) im Jahre 2000 eingeführte Umlage für die Einspeisung nicht marktfähiger Strommengen aus Windkraftanlagen (WKA), Biogasanlagen und Photovoltaik-Modulen ins öffentliche Stromnetz.

Bis zur Jahrtausendwende zeichnete sich Deutschland durch eher moderate Strompreise aus. Diese wurden garantiert durch das große Gewicht älterer Braunkohle- und abgeschriebener Kernkraftwerke im deutschen Stromerzeugungs-Mix. Bei beiden Kraftwerkstypen lagen die Stromerzeugungskosten unter 2 ct/kWh. Steinkohlekraftwerke, die eine Mischung aus billig importierter Importkohle und hochsubventionierter heimischer Kohle nutzten, lagen mit knapp 5 ct/kWh auf einem mehr als doppelt so hohen Kostenniveau – und damit etwa gleichauf mit Wasserkraftwerken, deren Beitrag zum deutschen Strom-Mix seit vielen Jahren deutlich unter 5 Prozent bleibt, weil keine neuen, für die Anlage von Stauseen geeigneten Standorte verfügbar sind. Auch der Anteil von Erdgas an der Stromerzeugung blieb bis zum Ende des 20. Jahrhunderts bescheiden.

Als dann, entsprechend den EU-Vorgaben, der deutsche Strommarkt (im Prinzip) für den Wettbewerb geöffnet wurde, sank der Strompreis für Industriekunden zunächst auf etwa 6 ct/kWh und der mittlere Strompreis für Privataushalte auf 14 ct/kWh. Doch nach der Jahrtausendwende begannen die Strompreise wieder stetig zu steigen. Im vergangenen Jahr mussten Industriekunden schon wieder fast 13 ct/kWh und Endverbraucher fast 22 ct/kWh berappen. Der Hauptgrund für diese Entwicklung liegt im EEG mit seiner 20-jährigen Abnahme- und Preisgarantie für „grünen“ Strom.

Was nach den Erfahrungen mit Preis- und Abnahmegarantien auf den europäischen Agrarmärkten zu erwarten war, trat auch hier ein: Institutionelle und private Anleger investierten massiv in die Erschließung „erneuerbarer“ Energien, zunächst vor allem in Windparks. Insgesamt etwa 22.000 WKA steuern inzwischen schon 6,3 Prozent zur deutschen Bruttostromerzeugung von insgesamt 639 TWh (Milliarden Kilowattstunden) für einen garantierten Preis von 9 ct/kWh bei. Um die extrem unstetige Stromerzeugung der WKA ausgleichen zu können, müssen entweder Kohlekraftwerke im unwirtschaftlichen Stand-by-Betrieb weiterlaufen oder rasch an- und abschaltbare Gasturbinen bereitstehen. Deshalb ist der Gas-Anteil am deutschen Stromerzeugungs-Mix parallel zur Vervielfältigung der Zahl der WKA gestiegen: Während der Windstrom-Anteil zwischen 1990 und 2007 von Null auf 40 TWh zunahm, stieg der Gas-Anteil an der Stromerzeugung von 36 auf 75 TWh oder 13 Prozent (für durchschnittlich 7 ct/kWh). 83 Prozent des gesamten deutschen Erdgasbedarfs wurden im Jahre 2007 importiert, etwa die Hälfte davon aus Russland. Der Ausbau der Windkraft hat also die Importabhängigkeit der deutschen Energieversorgung verstärkt. Das gilt zwar nicht für den gleichzeitig geförderten Ausbau der Biomasse-Nutzung, die inzwischen mit 3,6 Prozent zur Stromerzeugung beisteuert. Doch trägt auch sie mit einem garantierten Stromabnahmepreis von 14 ct/kWh spürbar zur Verteuerung der Elektrizitätsversorgung bei.

So hat sich neun Jahre nach der Verabschiedung des EEG die Preisstruktur der deutschen Stromproduktion bereits deutlich verschoben. Die durchschnittlichen Stromerzeugungskosten stiegen von 3,5 ct/kWh im Jahre 2003 auf 5,61 ct/kWh im Jahre 2008. Ein weiterer Grund für diese Entwicklung ist das nahende Auslaufen der Kernenergie-Nutzung, die ebenfalls im Jahre 2000 beschlossen wurde, sowie der Start des europäischen CO2-Emissionshandels. Aus diesem Grund beginnen inzwischen sogar Braunkohlekraftwerke ihre Vorteile einzubüßen.

Wichtigster Kostentreiber dürfte in den nächsten Jahren aber wohl die Photovoltaik sein. Seit 2004 erhielten private Betreiber von Solarmodulen eine garantierte Stromeinspeisungsvergütung von bis zu 57,4 ct/kWh mit einer jährlichen Degression von 5 Prozent. Seit Beginn dieses Jahres wurde der Garantiepreis nach zähen Verhandlungen mit der Solarlobby auf 43 ct/kWh gesenkt und die Degression auf 8 bzw. 9 Prozent erhöht. Selbst nach der hinter dem EEG stehenden umstrittenen Begründung hätte der Garantiepreis nach einhelliger Einschätzung der Fachleute viel stärker, und zwar mindestens auf 21 ct/kWh gesenkt werden müssen, um Einsparungseffekten Rechnung zu tragen. Denn es gibt zurzeit weltweit eine enorme Überproduktion von Solarzellen, die zu einem Preiskrieg zwischen chinesischen, japanischen, amerikanischen und europäischen Herstellern geführt hat. Der Preis je Silizium-Modul ist seit dem letzten Herbst von € 3,50 je Watt Leistung auf € 2,30 je Watt gefallen. Der US-Marktführer First Solar bietet seine Dünnschicht-Module aus Cadmiumtellurid, die allerdings einen deutlich größeren Flächenbedarf haben, inzwischen schon für einen Dollar je Watt Leistung an.

Wegen dieses Preisverfalls wird es in den nächsten Jahren wohl zu einem Solar-Boom kommen, während Windkraft-Projekte wegen der Krise mit beträchtlichen Finanzierungsproblemen zu kämpfen haben. Schon für dieses Jahr erwarten Experten in Deutschland einen Kapazitätszuwachs von bis zu 2,5 Gigawatt. Werden die gesetzlich garantierten Abnahmepreise nicht deutlicher abgesenkt, droht den deutschen Stromkunden eine Kostenlawine ungeahnten Ausmaßes. Schon für die bis Ende 2008 installierten Photovoltaik-Module, die lediglich maximal 0,6 Prozent des deutschen Strombedarfs decken, müssen sie nach Berechnungen des Bonner Volkswirts Dieter Damian über 20 Jahre insgesamt 45 Milliarden Euro zahlen. Das bedeutet 563 Euro je Bürger, Kinder und Greise eingeschlossen! Schon im Jahre 2015 lägen die aufsummierten Kosten der Photovoltaik zwischen 133 und 169 Milliarden Euro. Und im Jahre 2020 könnten sie im schlimmsten Fall schon die Schallmauer von 300 Milliarden Euro durchbrechen. Das wären deutlich mehr als 3000 Euro zusätzliche Stromkosten je Bundesbürger!

Damians unveröffentlichte Berechnungen wurden im Prinzip bestätigt von Manuel Frondel und Mitarbeitern vom Rheinisch-Westfälischen Institut für Wirtschaftsforschung (RWI Essen). Auch diese Autoren errechneten bis 2015 reale Zusatzkosten der Photovoltaik von über 100 Milliarden Euro. Damian sieht in den wiederholten Hinweisen Gabriels und der Solarlobby auf bis zu 280.000 Arbeitsplätze, die angeblich mithilfe des EEG geschaffen worden seien, einen üblen Propaganda-Trick, weil die mit viel statistischer Kreativität hochgerechneten Beschäftigungseffekte immer nur mit den jährlichen durch das EEG verursachten Kosten verglichen würden und nicht mit den über 20 Jahre auflaufenden Kosten. Das RWI hat schon im Jahre 2004 vorgerechnet, durch das EEG würden schon ab 2010 deutlich mehr Arbeitsplätze vernichtet als neu geschaffen. Wenn überhaupt, fördere das EEG nur die Beschäftigung im Ausland.

Prof. Dr. Ing. Helmut Alt von der Fachhochschule Aachen hat durchgerechnet, was geschähe, wenn der deutsche Stromerzeugungs-Mix entsprechend den Vorstellungen von Andrea Ypsilanti (SPD) im hessischen Landtagswahlkampf umgebaut würde. Bei einem kompletten Verzicht auf die Kernenergie, einer Erhöhung des Windkraftanteils auf 20 und einer Verzehnfachung des Photovoltaik-Anteils auf 6 Prozent würden sich die Kosten der Stromerzeugung in Deutschland verdoppeln. Das könnte nicht ohne Einfluss auf die Beschäftigung bleiben. Doch zur „Stromarmut“ könnte es auf diesem Weg auch im wörtlichen Sinne kommen. Wird die genehmigte Laufzeit der noch arbeitenden 17 deutschen Kernkraftwerke nicht verlängert, würde Deutschland schon im Jahre 2015 zu einem Stromimportland, weil infolge der Finanzkrise und des Widerstandes „grüner“ Gruppierungen vor Ort inzwischen auch der Neubau von Kohlekraftwerken ins Stocken geraten ist.

Internet:

Im Zuge steigender Energiepreise wächst die „Energiearmut“

Billig-Solarzellen revolutionieren die Strombranche

Neue Hoffnung für Solarstrom

Solaranlagen-Herstellern droht überfällige Auslese

Literatur:

Manuel Frondel, Nolan Ritter und Christoph M. Schmidt: Photovoltaik: Wo viel Licht ist, ist auch viel Schatten, in: List Forum für Wirtschafts- und Finanzpolitik, Bd. 34, Heft 1/2008

====================================================================

Der Kampf gegen Windmühlen wird überflüssig

Ich bin stolz auf mich, denn ich konnte im letzten Sommer eine meiner Schwestern davon abhalten, ihre Ölheizung durch eine scheinbar modernere und nachhaltigere Gasheizung zu ersetzen. Von einem Freund in der Schweiz mit zuverlässigen Insider-Informationen versorgt, hatte ich etwa zur gleichen Zeit in Printmedien wie „Die Welt“, „Neue Zürcher Zeitung“ und „Wall Street Journal“ darauf aufmerksam gemacht, dass es Wirtschaftskreisen, die sich für den Bau riesiger Windparks an Land und auf hoher See stark machen, in Wirklichkeit darum geht, die Abhängigkeit Deutschlands und ganz Westeuropas von russischem Erdgas zu verstärken. Ich hatte auch auf Bestrebungen, ein internationales Gas-Kartell nach dem Vorbild der OPEC zusammenzubringen, aufmerksam gemacht und davor gewarnt, dass schon in diesem Winter von langer Hand vorbereitete Erpressungsversuche gestartet werden würden. Nun ist alles so gekommen, wie ich es vorausgesehen hatte. Gestern hat ein Wirtschaftsredakteur der „Welt“, der meinen Warnungen zunächst skeptisch gegenüber gestanden hatte, in der „Welt am Sonntag“ meine Sicht der Dinge voll und ganz bestätigt. Am 4. Februar hat der Kollege Daniel Wetzel nachgelegt, indem er eine Studie der Unternehmensberatung A.T. Keearney mit dem Titel „Von der Finanzkrise zur Energiekrise“ vorstellt. Diese Studie macht nicht nur deutlich, dass das amtliche Ziel, den Anteil „erneuerbarer“ Energien bis zum Jahre 2020 auf 20 Prozent zu steigern, völlig illusorisch ist, sondern zeigt auch, dass steigende Kapitalkosten auch den Bau klassischer Kohlekraftwerke erschweren. Deshalb gehe Deutschland auf eine Stromerzeugungslücke und auf eine drastische Verteuerung der Elektrizität zu.

Auf die Genugtuung, Recht behalten zu haben, hätte ich allerdings gerne verzichtet. Alle Warnungen sind aber für die Katz, wenn die ganze politische Klasse im festen Glauben, etwas Gutes zu tun, mit offenen Augen, aber dennoch blind, weil nicht sehen wollend, den wirtschaftlichen Selbstmord vorbereitet. Ehrlich gesagt, fühle ich mich zurzeit gegenüber der raschen Ausbreitung der postmodernen Geisteskrankheit Nihilismus ziemlich hilflos. Makabererweise wird die angebrochene tiefe Wirtschaftskrise, nach deren Ende von der Wirtschaftswelt, wie wir sie kennen, nicht mehr viel übrig bleiben dürfte, nun zum verlässlichsten Bündnispartner im Kampf gegen den um sich greifenden Realitätsverlust. Die Mandate-Pipelines der Investmentbanken, die sich mit der Finanzierung von Windparks und anderen „grünen“ Großprojekten befassen, leeren sich, wie man hört, wegen der sich verschärfenden Kreditklemme zusehends. Kein Wunder, dass die Lobbyisten der „Erneuerbaren“, deren Geschäftsmodelle ohnehin weitestgehend auf Fiktionen und Subventionen beruhen, nun nach zusätzlicher Staatsknete rufen.

Ohne eine Rückbesinnung auf die christlichen Wurzeln Europas werden demgegenüber wahrheitsbasierte Geschäftsmodelle aber kaum Chancen haben. Denn un- wenn nicht antichristlicher Liberalismus ist auch nur eine Form von Nihilismus. Nicht zufällig wurde die ökologistische Ersatzreligion, auf die sich heute die Nihilisten aller Parteien berufen, hauptsächlich über (links-)liberale Netzwerke verbreitet. Freilich wird es dem säkularen Europa nicht leicht fallen, zum christlichen Glauben zurückzufinden. Wer nicht glauben kann, der soll zumindest so tun, „als ob es Christus gebe“, rät deshalb der italienische Atheist und Popper-Schüler Marcello Mera in seinem neuen Buch „Warum wir uns Christen nennen sollten – Liberalismus, Europa und Ethik“ (Ed. Mondadori, 2008). Mit diesem Thema werde ich mich im angebrochenen Krisenjahr wohl hauptsächlich beschäftigen. (5. Februar 2009)

Internet:

Offshore kämpft mit der Finanzkrise

Die Finanzkrise entwickelt sich zur Energiekrise

Auch veröffentlicht unter dem Titel „Die Krise als Bündnispartnerin“ auf ef-magazin online.

===========================================================

Roland Tichy über den grünen Selbstbetrug

WiWo-Chefredakteur Roland Tichy schreibt im seinem Editorial vom 14. Februar 2009: „Ausblendet wird, dass Windräder die brutalste Landschaftszerstörung seit Erfindung des Betons sind und unterm Strich kein CO2 sparen.“

=====================================================================

Windräder bringen nichts für CO2-Ziel

Nun merken auch die GRÜNEN, dass die Verwandlung Deutschlands in einen Vogelscheuchenpark klimapolitisch völlig wirkungslos ist. Verantwortlich machen sie dafür aber nicht die lediglich ins Gigantische hochgezüchtete Uralt-Technik der Windräder, deren Wirkungsgrad mit wachsender Größe sinkt, sondern den europäischen Emissionshandel auf der Basis fester CO2-Quoten für jede nationale Volkswitrtschaft. Wird mehr Strom durch Windkraftanlagen erzeugt, werden CO2-Zertifikate frei. Die Stromkonzerne können die freigewordenen Zertifikate gewinnbringend an Länder wie Polen veräußern, deren Stromerzeugung größtenteils auf Kohlekraftwerken basiert. Unterm Strich wird dadurch selbstverständlich keine einzige Tonne CO2 eingespart. Obendrein ist der Preis der CO2-Zertifikate wegen der Wirtschaftskrise stark eingebrochen. Die Zukunft des europäischen Emissionshandelssystems ETS steht in den Sternen. Um es zu retten, müsste eiegentlich das deutsche das deutsche Gesetz zur Förderung Erneuerbarer Energien ersatzlos gestrichen werden. Doch da stellt sich eine Lobby quer, die vorgibt, nicht auf Profit, sondern auf die Rettung der Welt hinzuarbeiten. (10. Februar 2009)

===========================================================

Das Desaster der deutschen Energiepolitik im Internet:

CO2-Speicherung ist wirtschaftlich nicht machbar. Deshalb rufen die Energieriesen jetzt nach dem ohnehin schon bankrotten Staat

Durcheinander in der Ukraine

Konrad Schuller analysiert Moskaus Angriffe auf die Souveränität der Ukraine

Ungereimtheiten des Gasstreits mit der Ukraine

Deutschland zieht den Kürzeren im europäischen Emissionshandel

CCS noch lange nicht marktreif

Deutsche Energiepolitik: Vom Dilemma zum Desaster?

Die Neue Zürcher Zeitung vom 23. August 2008 kann es sich leisten, die Sackgasse, in die die deutsche Energieversorgung zu geraten droht, ohne politische Rücksichtnahme auf der ersten Seite zu analysieren. Ich empfehle dringend die Lektüre dieses Artikels, der ohne meine Mitwirkung entstanden ist.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Bedrohliche Gasabhängigkeit von Russland

Energiepreise: Die Ohnmachtpolitik des Westens

In der Neuen Zürcher Zeitung analysiert Peter Robejsek, Dozent in Wedel bei Hamburg, unvoreingenommen die kritische Lage des Westens im Kampf mit autoritären kapitalistischen Regimes, die über die entscheidenden Rohstoffvorkommen verfügen. Pflichtlektüre für alle, die sich auf unsere nicht ganz gemütliche Zukunft vorbereiten wollen!

Interview mit dena-Chef Stefan Kohler in der „Wirtschaftswoche“

Man kann nicht gleichzeitig aus Kohle und Kernkraft aussteigen. Diese nicht neue erkenntnis versucht Stefan Kohler seinen politischen Freunden nahe zu bringen. Würden keine neue Kohlekraftwerke gebaut, müsste die Laufzeit der KKW verlängert werden, denn Wind und Sonne seien nun mal von Natur aus unzuverlässige Energiequellen, die ein konventionelles backup benötigen. Schon ab 2015 können in Deutschland die Lichter ausgehen, weil dann auch im angrenzenden Ausland keine ausreichenden Kapazitäten für die Steigerung von durch Deutschland mehr vorhanden sein werden. Kohler verschweigt, dass die massive Förderung der Windkraft durch das binnenmarktswidrige deutsche EEG die Wurzel aller Schwierigkeiten im deutschen Energieversorhungssystem ist. Kein Wort auch darüber, dass ein gutes Backup der unsteten Stromlieferung der Wind- und Solarkraftwerke unter den gegebenen Bedingungen nur durch Gasturbinen geleistet werden kann. Er darf nicht durchblicken lassen, dass hinter dem deutschen Windkraft-Boom die Interessen der von seinem Parteifreund Gerhard Schröder vertretenen Gas- und Gasturbinen-Verkäufer stehen (3. August 2008).

„Heuschrecke“ Blackstone investiert in Nordsee-Windpark

Da deutsche Banken wegen der damit verbundenen hohen finanziellen und technischen Risiken bislang um die von der Bundsregierung gewünschten riesigen Offshore-Windparks einen großen Bogen machten, freut sich Bundesverkehrs- und Bauminister Tiefensee nun, dass die US Private Equity Firma Blackstone hier als Investor einsteigen will. Blackstone-Chef Schwarzmann, der in New York das größte Geburtstagsfest aller Zeiten feierte, wird wissen, warum er sich auf einmal für Windräder interessiert…

Das Wind-Gas-Kartell

von Edgar Gärtner

Der 80-jährige texanische Öl- und Gasmilliardär T. Boone Pickens möchte sich ein Denkmal setzen, indem er seine Landsleute mit Tausenden von Windrädern beglückt. Nun hat er die ersten 667 Windräder mit einer Gesamtkapazität von 1.000 Megawatt für zwei Milliarden Dollar beim „grünen“ US-Mischkonzern General Electric (GE) bestellt. Damit möchte der anscheinend vom Saulus zum Paulus gewandelte Geschäftsmann mithelfen, die hohe Abhängigkeit seines Landes von Ölimporten zu vermindern.

Was auf den ersten Blick wie der philanthropische Größenwahn eines Senilen anmutet, ist vermutlich Ausfluss einer höchst gerissenen Geschäftsstrategie. Waren frühere Windkraft-Investoren vielleicht noch wirklich davon überzeugt, mit ihrer guten Tat die Welt retten zu helfen, so geht es den heutigen in der Regel um etwas ganz anderes. Es hat sich herumgesprochen, dass jedes Kilowatt installierte Windleistung durch eine entsprechende Leistung einer Gasturbine ergänzt werden muss, um die Unstetigkeit des Windes auszugleichen. Wer sich heute für Windräder stark macht, dem geht es also höchstwahrscheinlich eher darum, Gasturbinen und/oder Gas zu verkaufen. In der Tat: Zu Pickens’ Firmengruppe gehört die außerordentlich erfolgreiche Gas-Explorationsfirma XTO-Energy.

Auch bei der „Ecomagination“-Kampagne von GE liegt das Gas-Interesse auf der Hand. GE bietet inzwischen seine Windmühlen besonders preisgünstig an, um Bestellungen von Gasturbinen zu pushen. Bei Gasturbinen ist GE unangefochten Weltmarktführer und verdient damit viel mehr als auf dem umkämpften Markt für Windräder. Darüber kann sich selbst Rex Tillerson, der Chef des Öl-Giganten Exxon freuen. Obwohl Tillerson gutmenschliche Wadenbeißer auf die Palme bringt, weil er nicht viel von Investitionen in „erneuerbare“ Energien hält und fortwährend wiederholt, dass Öl sein Kerngeschäft bleibt, hat auch er längst kapiert, dass mit Erdgas viel mehr zu verdienen ist. Dort investiert Exxon neuerdings kräftig.

Sein europäischer Wettbewerber Royal Dutch Shell hat sich, kaum bemerkt von der Öffentlichkeit, längst in einen Gas-Konzern verwandelt, der – je nach Standort – eng mit staatseigenen Lieferanten wie Gasprom (Russland) oder Sonatrach (Algerien) kooperiert. Inzwischen sieht sich die EU in der Energiepolitik einer geschlossenen Front von Gaslieferanten, einer Art Gas-OPEC, gegenüber, zu der neben den genannten Konzernen auch das Emirat Quatar und die Öl- bzw. Gas-Konzerne Chevron, BP und Totalfina gehören.

Kürzlich verlautete auf dem World Petroleum Congress (WPC) in Madrid, schätzungsweise 88 Prozent der in den kommenden 20 Jahren in der EU installierten Kraftwerkskapazitäten entfielen voraussichtlich auf kombinierte Gas- und Dampfturbinen (CCGT). In Spanien sind solche Turbinen mit 21 Gigawatt Gesamtkapazität bereits zur wichtigsten Stromquelle geworden. Das ist kein Zufall, denn Spanien ist nach Deutschland das EU-Land mit der höchsten Windkraft-Kapazität. Diese erreichte Ende 2006 11.000 Megawatt. Bei schätzungsweise 2.000 Volllaststunden im Jahr entspricht das einer Elektrizitäts-Produktion von 23 Terawattstunden. Um diese sehr unregelmäßig anfallende Strommenge im Netz abzupuffern, eignen sich nur rasch an- und abschaltbare Gasturbinen.

Einen zusätzlichen Auftrieb erhalten die Gasverkäufer durch den europäischen CO2-Emissionsrechte-Handel. Sobald die Emissionsrechte, wie vorgesehen, ab 2013 ersteigert werden müssen, macht der Emissionshandel Investitionen in die energetische Nutzung der reichlich verfügbaren Braun- und Steinkohlevorräte uninteressant. Der Vormarsch des Gases in der Stromproduktion der EU führt zur fatalen Konsequenz, dass es schon bald keine echte Wahlmöglichkeit zwischen leitungsgebundenen Energieträgern mehr geben wird. Die wichtigste Alternative zum Einsatz von Erdgas in Turbinen ist übrigens Kerosin, das zurzeit, bezogen auf die enthaltene Wärmeenergie, etwa doppelt so viel kostet wie Rohöl. Dadurch zeichnet sich der Korridor der zukünftigen Entwicklung des Gaspreises ab.

Statt in Europa wird die weltweit zu günstigen Preisen verfügbare Kohle nun ausgerechnet in den Öl- und Gasförderländern verstärkt genutzt. Russland baut Kohlekraftwerke, um das immer teurer werdende Gas für den Export zu reservieren. Auch das Emirat Dubai baut für die eigene Stromversorgung Kohlekraftwerke, weil dessen Wirtschaftsstrategen die eigenen Öl- und Gasvorräte dafür zu schade erscheinen. Für die Energiepolitik Deutschlands und der meisten EU-Länder gibt es nach alledem nur ein Urteil: Dümmer geht’s nimmer! (14. Juli 2008)

Am 24. Juli 2008 in etwas abgespeckter Form in DIE WELT erschienen.

**********************************************************************************************************************

Vorreiter = Verlierer?

Ist jemals in der deutschen Geschichte ein Vorreiter zum Sieger geworden? Die Geschichte des Vorreiters in der Schlacht von Tannenberg und andere historische Beispiele helfen Ihnen vielleicht, diese Frage zu beantworten. Auch die von Dr. Angela Merkel und ihren Vorgängern im Bundeskanzleramt gewählte Vorreiter-Rolle im „Klimaschutz“ dürfte die Reihe negativer historischer Erfahrungen fortsetzen. Das lässt eine Studie des Stromkonzerns RWE erahnen. (13. Juli 2008)

**********************************************************************

Die Deutschen entdecken wieder den Reiz der Kernkraft. Doch diese hilft nur kurzfristig

Winand von Petersdorff berichtet in der Frankfurter Allgemeinen Sonntagszeitung vom 6. Juli 2008 über die Ergebnisse einer im Auftrag der Atomlobby durchgeführten Blitzumfrage. Danach sprechen sich 60 Prozent der befragten Männer und immerhin 35 Prozent der (vermutlich mit weniger gesundem Menschenverstand ausgestatteten) Frauen für eine Verlängerung der unter Bundeskanzler Gerhard Schröder im „Atomkonsens“ mit der Energiewirtschaft vereinbarten Restlaufzeiten alter Kernkraftwerke aus. Dieser Wandel im Meinungsbild ist gut nachvollziehbar. Denn die längst abgeschriebenen Atommeiler liefern für etwa 2,5 Eurocent je Kilowattstunde konkurrenzlos billigen Strom.

Ob es dadurch wirklich zu einer „Renaissance“ der Kernenergie kommt, ist eine andere Frage. Deren Beantwortung hängt davon ab, ob sich private Investoren für den Neubau von Kernkraftwerken finden werden. Dafür gibt bislang keine Anzeichen. Als die britische Labour-Regierung vor wenigen Monaten die Kernenergie wieder offiziell für politisch korrekt erklärte, ließen die eingeladenen Investoren sofort verlauten, sie würden hier nur einsteigen, wenn sich auch der Staat massiv beteilige.

Immerhin könnte eine Verlängerung der Laufzeit bereits existierender KKW für zwei Jahrzehnte unsere Grundlastversorgung sichern. Um das auch längerfristig zu erreichen, käme es aber darauf an, mit dem CO2-Treibhaus-Dogma und der damit verbundenen Verteufelung des Kohlenstoffdioxids wie der Kohle als Brennstoff Schluss zu machen und in Deutschland zig moderne Braun- und Steinkohlekraftwerke zu errichten – und zwar ohne die von der Politik geforderte Abscheidung und Endlagerung des Verbrennungsabgases CO2 (bekannt unter dem Kürzel CCS), die wegen der damit verbundenen erheblichen Wirkungsgrad-Einbuße die zurzeit preisgünstige Kohleverfeuerung unnötig verteuern würde.

Fährt Deutschland jedoch fort, die Erschließung der unsteten Windenergie durch die geplante Anlage von 30 riesigen Windrad-Parks in Nord- und Ostsee voranzutreiben, dann müssten die Investitionen zur Sicherung der Grundlastversorgung durch ebenso massive Investitionen in rasch an- und abschaltbare Gasturbinen für windarme Zeiten ergänzt werden, was die Abhängigkkeit Deutschlands von russischem Erdgas enorm vergrößern würde. Alexej Miller, der Chef des mächtigen russischen Gasprom-Konzerns, freut sich bereits auf das infolge des Ausbaus der Windkraft in Deutschland winkende zusätzliche Geschäft. Das auf Preisvergleiche spezialisierte Verivox-Portal rechnet wegen der Bindung des Gaspreises an den Rohölpreis bereits für den kommenden Winter mit einer Verdoppelung der Heizkosten für Privathaushalte. Andere Experten rechnen sogar damit, dass der Gaspreis wegen des wachsenden Bedarfs an Regelenergie für die unregelmäßige Einspeisung von Windstrom ins deutsche Netz schon bald den Ölpreis weit hinter sich lassen wird. Da erscheint die Forderung von Bundesverkehrsminister Wolfgang Tiefensee, die Pläne für die Errichtung von Offshore-Windparks müssten schleunigst umgesetzt werden, um Deutschlands Abhängigkeit von Energieimporten zu vermindern, in einem anderen Licht. Als Investor für die Offshore-Windparks, um die deutsche Banken bislang wegen der damit verbundenen unwägbaren Havarie-Risiken einen großen Bogen gemacht haben. bietet sich neuerdings die „Heuschrecke“ Blackstone an. Vor diesem Hintergrund erscheint Tiefensees Vorstoß als blanker Hohn, wenn nicht als bewusste Irreführung der Deutschen im Dienste der Kreml-AG und des Finanzkapitals. Solange am CO2-Treibhaus-Dogma nicht gerüttelt wird, wird es für die wachsenden Probleme der Energieversorgung wohl keine vernünftigen Lösungen geben.

(Unter dem Titel „Her mit der Kohle“ in Kurzform auch in DIE WELT vom 11. Juli 2008 erschienen.)

**************************************************************

Der hohe Ölpreis hat nichts mit einer Verknappung zu tun

Unter der Überschrift „Theorien vom knappen Öl sind Märchen“ brachte die Online-Ausgabe der FAZ am 1. Juli 2007 eine interessante Übersicht über die weltweite Entwicklung der Rohölvorräte. Viele der schon lange bekannten Vorkommen wurden bislang nur unzureichend ausgebeutet, da es günstiger war, neue Vorkommen zu erschließen, als die alten optimal zu nutzen. Die jüngste Entwicklung der Rohölpreise ändert die Ausgangslage.(1. Juli 2008)

***************************************************************

„Klimaschutzpaket“ – Abkassieren ohne Gegenleistung

Was der “Klimaschutz” von der Freiheit übrig lässt

Klima 2055. Fakten – Illusionen – Visionen
von Lutz Peters, Olzog Verlag, München 2007, 176 Seiten
Preis: EUR 24,90 ISBN-13: 978-3789282041

Klima 2005 - Fakten - Illusionen - VisionenDer Hamburger Betriebswirt mit Verbindungen zu einem Hersteller von synthetischem (CO2-neutralen) Diesel hat auf der Basis der offiziellen Lehrmeinung über die Ursachen des Klimawandels ein Szenario über unsere Energieversorgung im Jahre 2055 gebastelt. Es bleibt unerfindlich, warum diese düstere Vision in einem bislang als liberal bekannten Verlag erscheinen musste. Denn für Freiheit ist darin kein Platz. Peters geht wie selbstverständlich davon aus, dass Energie in 50 Jahren so teuer sein wird, dass es keine Privatautos und keinen Ferntourismus mehr gibt. Nur reiche Geschäftsleute können es sich leisten, mit Wasserstoff-getriebenen Hyperschall-Flugzeugen die Welt zu umrunden, um sich mit Wissenschaftlern zu Klima-Konferenzen zu treffen. Peters plädiert mit Leidenschaft für eine Renaissance der Atomkraft – vor allem in Form des inhärent sicheren Hochtemperatur-Reaktors. Dieser eignet sich für die extrem energieaufwändige Erzeugung von Wasserstoff. Dessen Einsatz als Treibstoff werde aber auch in 50 Jahren noch völlig unwirtschaftlich sein, betont Peters. Dennoch gebe es dazu keine Alternative, weil der Netto-CO2-Ausstoß der Menschen bis dahin auf Null gebracht sein müsse, um allmählich wieder zum „vorindustriellen“ CO2-gehalt der Luft von 280 ppm gelangen zu können. Andernfalls werde der Golfstrom, den er für den „Klimamotor“ hält, absaufen. Peters scheint nicht zu verstehen, dass Wetter hauptsächlich durch die Zirkulation von Luftmassen unterschiedlichen Drucks gemacht wird und nicht durch Meeresströmungen. Er scheint nicht zu wissen, dass es außer der über 100 Jahre alten verstiegenen Hypothese eines schwedischen Chemikers keinerlei Hinweis darauf gibt, dass CO2 das Wetter beeinflusst. M.E. zeigt das Buch von Peters vor allem eines: Die Diskussion über eine Energiepolitik mit dem Ziel einer sicheren und bezahlbaren Energieversorgung sollte sauber von der noch lange nicht abgeschlossenen Debatte über mögliche Ursachen des Klimawandels getrennt werden.

Edgar Gärtner (veröffentlicht in: eifrei 76/Oktober 2007)

Trommeln in eigener Sache

Trommeln in eigener Sache…

Diese Internet-Präsentation liefert Ihnen viele wertvolle Informationen, die Sie ohne Kopierschutz weiter verwenden können. Doch der Verfasser droht als Andersgläubiger in dem uns drohenden totalitären Karbon-Staat ohne die freiwillige Unterstützung der Nutzer dieser Informationen in die Hartz-IV-Unterschicht abzusinken. Deshalb ist er auf Recherche-Aufträge (auch knifflige) und andere gut bezahlte Dienstleistungs-Aufträge angewiesen. Den treuen Kunden herzlichen Dank im Voraus.

Edgar Gärtner kann nicht nur analysieren, sondern auch trommeln.
Aus besseren Zeiten: Diskussion mit dem Soziologen Prof. Dr. Niklas Luhmann am Starnberger See.

*************************************************************

Öko-Nihilismus

Edgar Gärtner: Öko-Nihilismus. Eine Kritik der Politischen Ökologie. CFACT Europe, Thuss & van Riesen Medienverlag, Jena 2007. ISBN 978-3-00-020598-9. Preis Euro 24,50

Erhältlich bei buchausgabe.de oder bei Amazon.de

Vorsorgen oder gut leben?

Vorbeugen ist nicht immer besser als heilen

von Edgar L. Gärtner

Was der Flop der H1N1-Impfung über das Vorsorgeprinzip lehren könnte

Die französische Regierung unter dem allzeit unter Strom stehenden Staatspräsidenten Nicolas Sarkozy wurde zum Jahreswechsel gewahr, dass sie auf über 90 Millionen Dosen eines im letzten Jahr, angesichts einer gerüchteweise anrückenden Schweinegrippen-Pandemie, eilig bestellten Anti-H1N1-Impfstoffes sitzen zu bleiben drohte. Nur fünf von zurzeit etwa 60 Millionen Franzosen haben sich bis dato gegen die zur planetaren Gefahr aufgebauschte Sommergrippen-Variante impfen lassen. Nach Schätzungen von Medizinern haben sich gleichzeitig über 20 Millionen Franzosen völlig umsonst beziehungsweise lediglich um den Preis kaum spürbarer leichter Grippesymptome immunisiert. Mehr als eine Milliarde Euro, die der hochverschuldete französische Wohlfahrtsstaat für die Bekämpfung einer hypothetischen Pandemie-Gefahr locker gemacht hat, scheinen in den Sand gesetzt. In den deutschen Bundesländern sind die Verhältnisse ähnlich, aber nicht ganz so schlimm wie in Frankreich. Da die georderten Chargen zum Teil noch gar nicht produziert sind, versuchen Frankreich und Deutschland jetzt, zumindest einen Teil ihrer Aufträge noch zu stornieren. Speziell in Frankreich wirft das folgende Fragen auf: Wieso wurden fast 100 Millionen Impfstoff-Portionen bestellt – dreimal mehr, als für eine vernünftige Durchimpfungsrate der Bevölkerung erforderlich gewesen wäre? Warum legte die Regierung gleichzeitig einen riesigen Vorrat des umstrittenen Grippe-Medikaments Tamiflu (ein Drittel der weltweiten Gesamtvorräte!) an? Warum wurden teure Atemmasken angeschafft, die nur für Spitzenbeamte und Manager zur Verfügung standen?

Ich suche jetzt die Antwort bewusst nicht auf der von Verschwörungstheoretikern gelegten Fährte, wonach das Virus H1N1 selbst und die damit verbundene weltweite Aufregung auf Machenschaften der Pharma-Konzerne Glaxo Smith Kline (GSK), Sanofi-Aventis und Novartis zurückgehen soll. Ich halte mich vielmehr an die offizielle Begründung der Maßnahmen durch das „Vorsorgeprinzip“. Dieses ist Anfang der 70er Jahre in Deutschland erfunden und 1992 auf dem „Erd-Gipfel“ von Rio weltweit bekannt gemacht worden. “Drohen schwerwiegende oder bleibende Schäden, so darf ein Mangel an vollständiger wissenschaftlicher Gewissheit kein Grund dafür sein, kostenwirksame Maßnahmen zur Vermeidung von Umweltverschlechterungen aufzuschieben”, lautet der Grundsatz 15 der Rio-Deklaration. Inzwischen hat dieses Prinzip Eingang in den Maastricht-Vertrag, in den Lissaboner Verfassungsvertrag und in die französische Verfassung gefunden. Da Nicolas Sarkozy sich in den Kopf gesetzt hat, die Deutschen mit Vorsorge-Rhetorik zu überholen, gaben sich seine Beamten größte Mühe, das Prinzip konsequent umzusetzen. Doch gerade dadurch haben sie die Probleme geschaffen, vor denen sie jetzt stehen. Denn unbegrenzte Vorsorge ist absurd. Wer ständig nur vorsorgt, der verpasst das Leben. Wenn überhaupt, ist das Vorsorgeprinzip nur insoweit hilfreich, als es nicht allzu konsequent angewandt wird. Heilen ist viel wichtiger als Vorbeugen, auch wenn ein von der wohlfahrtsstaatlichen Werbung gedankenlos wiederholtes Sprichwort das Gegenteil behauptet.

Die oben zitierte Definition des Vorsorgeprinzips lässt nämlich die Frage offen, ob Vorsorgemaßnahmen auch Kosten-Nutzen-Kriterien unterliegen sollen beziehungsweise dürfen. Verbreitet ist die Meinung, Kostenabwägungen erübrigten sich, wenn es um Menschenleben gehe. Wäre dieses Argument stichhaltig, gäbe es weder Lebens- noch Unfallversicherungen. Dabei möchte ich nicht in Abrede stellen, dass der monetären Bewertung von Lebensaspekten enge Grenzen gesetzt sind. Aber auch bei einer nichtmonetären Bewertung erscheint der Nutzen von Maßnahmen zur Abwendung hypothetischer Gefährdungen allzu oft mehr als fraglich, zumal es sich nicht selten zeigt, dass Vorsorge nur um den Preis der Aufgabe von Freiheit und Wohlstand, wenn nicht gar des Seelenheils zu haben wäre. Ausnahmen bilden lediglich private Vorsorgeaufwendungen wie etwa die Anlage von Vorräten für den Winter, Rücklagen für das Alter oder für Reparaturen sowie äußere Gefahren beziehungsweise Schadereignisse wie etwa Erdbeben in Gebieten, in denen Platten der Erdkruste aufeinander stoßen, deren Eintrittswahrscheinlichkeit einigermaßen realistisch abschätzbar ist. Aber auch in diesen Fällen genügt es oft nicht, zwischen Vor- und Nachteilen wirtschaftlich vertretbarer Schutzmaßnahmen abzuwägen. Im wirklichen Leben geht es stattdessen nicht selten um Entscheidungen zwischen zwei Übeln. Welches davon ist das kleinere?

Solche Entscheidungen, sofern sie nicht spontan „aus dem Bauch heraus“ getroffen werden, kommen in der Regel nicht ohne mehr oder weniger bewusst religiöse Begründung aus. Denn es geht dabei um die Frage nach dem Sinn des Lebens – eine Frage, die von keiner Wissenschaft und keinem formalen Kosten-Nutzen-Vergleich beantwortet werden kann. Als religiöse Begründung dient anstelle des historisch bewährten christlichen Humanismus in Europa inzwischen aber mehr und mehr die letztlich selbstmörderische Öko-Ersatzreligion (Öko-Nihilismus). Kein Wunder, dass mit dem „Vorsorgeprinzip“ immer häufiger Maßnahmen und Investitionen gerechtfertigt werden, deren volkswirtschaftliche Rendite eindeutig negativ ist.

Internet:

Der enorme Schaden der Pandemie, die keine war

Schweinegrippe kostet Länder 400 Millionen Euro

Grippe A (H1N1): la France peine à écouler ses vaccins

La France s’inquiète pour son surplus de Tamiflu et de masques

H1N1: un coût de plus d’un milliard d’euros

Edgar L. Gärtner: Öko-Nihilismus. Eine Kritik der Politischen Ökologie (veröffentlicht am 2. Februar 2010 in der NZZ)

===========================================================================================

Der Nihilsmus der europäischen Chemikalienpolitik

In einem Vortrag, den ich im Jahre 2007 auf dem European Freedom Summit in Berlin gehalten habe, zeige ich, welche seltsamen Blüten das schlecht definierte „Vorsorgeprinzip“ in der Chemikalienpolitik der EU (REACh) treibt.

Literatur:

Edgar Gärtner: Vorsorge oder Willkür, Instituts Verlag, Köln 2006

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Keine Rechtssicherheit ohne Eingrenzung des Vorsorgeprinzips

Trotz Verbesserungen im Detail enthält die Chemikalienpolitik der EU weiterhin einen fundamentalen Webfehler: Das ihr zugrunde liegende Vorsichtsprinzip ist nirgends definiert.

Das Europaparlament hat am 17. November in Strassburg einen als „historisch“ gelobten Kompromiss über die Ausgestaltung der REACh-Verordnung gefunden: Die Registrierung der in Mengen bis zu 100 Tonnen hergestellten Stoffe soll aufgrund einer vorab getroffenen Absprache zwischen der konservativen, der sozialistischen und der liberalen Fraktion im EP (u. a. durch den Verzicht auf die Prüfung der Reproduktionstoxizität) erleichtert werden. Durch die Einführung einer „Opt-out-Option“ bei der Verpflichtung zum Austausch von Testdaten nach dem OSOR-Prinzip („One Substance – One Registration“) und durch die Bildung von Verwendungs- und Expositionskategorien bei der Erstellung der Sicherheitsberichte sollen die Kosten der Stoffprüfung und der Versuchstierbedarf gesenkt werden. Hier bleiben aber Probleme der Datensicherheit und des Schutzes geistigen Eigentums vor allem mittelständischer Unternehmen nach wie vor ungelöst (siehe CR 6/2005).

Gleichzeitig beschloss eine Koalition aus Sozialisten, Liberalen und Grünen, die Zulassung von Stoffen, entsprechend dem Votum des EP-Umweltausschusses, zu erschweren. Zulassungen für das Inverkehrbringen und die Verwendung „besonders besorgniserregender Stoffe“ sollen von der EU-Kommission grundsätzlich auf fünf Jahre befristet werden, „sofern keine geeigneten Alternativstoffe oder –technologien vorhanden sind, die Verwendung dieser Stoffe aus sozioökonomischen Gründen gerechtfertigt werden kann und sich die Risiken aus ihrer Verwendung angemessen beherrschen lassen.“ (Änderungsantrag 15)

Die Industrie hofft, dass dieser Teil des Straßburger Kompromisses vom EU-Ministerrat korrigiert wird. Umweltkommissar Stavros Dimas hat versichert, die Kommission wolle keine generelle Substitutionspflicht, wie sie Organisationen wie der WWF oder Greenpeace fordern. Die befristete Zulassung von Stoffverwendungen soll flexibel gehandhabt werden. Ob diese Korrekturen der Industrie aber mehr Rechtssicherheit bringen werden, ist sehr fraglich. „Garant der Rechtssicherheit für Unternehmen“ soll nach dem im EP durchgegangenen Änderungsantrag 17 die neue Europäische Agentur für chemische Stoffe (ECA) in Helsinki sein. Dieser soll „die Gesamtverantwortung für das Management der neuen Chemikalienpolitik“ übertragen werden. Unternehmen oder EU-Mitgliedsstaaten, die Stoffbewertungen der ECA anzweifeln, tragen die Beweislast.

Wie Joachim Kreysa von der EU-Kommission im Oktober auf einem Seminar der Fresenius-Akademie in Mainz ausführte, sollen in Helsinki bis zu 700 Toxikologen und andere Experten der Chemikaliensicherheit mit der Prüfung der von den Unternehmen vorgelegten Daten beschäftigt sein. David Owen von Shell fragte in Mainz, wo diese Experten kurz- und mittelfristig herkommen sollen, wenn schon heute Toxikologenmangel herrscht.

Selbst wenn dieses Problem gelöst wäre, bliebe ein großer Unsicherheitsfaktor: Die Interpretation des umstrittenen „Precautionary Principle“ (Vorsichts- oder Vorsorgesorgeprinzip) im Sinne einer Beweislastumkehr. Der Vorsorge-Grundsatz wurde Ende Juli 1992 im Vertrag von Maastricht (Artikel 130r, Abs. 2, heute: Artikel 174,2) erstmals in die europäische Gesetzgebung aufgenommen. Allerdings finden sich im Maastrichter Vertrag selbst weder eine Definition noch Ausführungsbestimmungen für die Anwendung des Prinzips. Aus dem Text geht nur hervor, dass das Vorsorgeprinzip bei drohenden Umweltschäden gelten soll. Gefahren für die menschliche Gesundheit wurden nicht explizit erwähnt.

Die Väter der EU interpretierten das Vorsorgeprinzip also zunächst ähnlich wie die wenige Wochen zuvor von der UN-Konferenz über Umwelt und Entwicklung einstimmig angenommene “Rio-Deklaration”. Dort steht der oft zitierte Satz: „Drohen schwerwiegende oder bleibende Schäden, so darf ein Mangel an vollständiger wissenschaftlicher Gewissheit kein Grund dafür sein, kostenwirksame Maßnahmen zur Vermeidung von Umweltverschlechterungen aufzuschieben.“

Dieser in vorläufiger Form bereits im deutschen Wasserhaushaltsgesetz von 1957 enthaltene und später im deutschen Bundesimmissionsschutzgesetz von 1974 ausformulierte Grundsatz scheint auf den ersten Blick vom gesunden Menschenverstand diktiert zu sein. Er erinnert an die Formel „Vorbeugen ist besser als heilen.“ In diesem Satz steckt aber auch viel Gedankenlosigkeit. Denn obwohl Vorsorge für Notfälle oder für das Alter ein Grundelement jeglicher vernünftigen Lebensführung und Wirtschaftstätigkeit darstellt, ist die Formel, wie leicht einsehbar ist, keineswegs für alle Situationen geeignet. Wer allen Risiken aus dem Wege gehen möchte, der verdammt sich selbst zur Untätigkeit. Deshalb ist es bedenklich, eine vernünftige individuelle Handlungsmaxime zu einem universellen Rechtsgrundsatz zu machen. Nicht von ungefähr hatten kurz vor der Rio-Konferenz zahlreiche Nobelpreisträger im „Heidelberger Appell“ vor einem neuen Irrationalismus gewarnt.

So einigten sich die in Rio de Janeiro versammelten Staatslenker und Interessenvertreter auf eine eher gemäßigte Formulierung des Vorsorge-Grundsatzes, in der anklingt, dass Vorsorgemaßnahmen sich auch rechnen müssen. In der ebenfalls in Rio verabschiedeten Klimarahmenkonvention wird deshalb der Begriff „cost-effective“ klar im Sinne wirtschaftlicher Verhältnismäßigkeit interpretiert. Es heißt dort: „In Fällen, in denen ernsthafte oder nicht wiedergutzumachende Schäden drohen, soll das Fehlen einer völligen wissenschaftlichen Gewissheit nicht als Grund für das Aufschieben solcher Maßnahmen dienen, wobei zu berücksichtigen ist, dass Politiken und Maßnahmen zur Bewältigung der Klimaveränderungen kostengünstig sein sollten, um weltweite Vorteile zu möglichst geringen Kosten zu gewährleisten.“ Der Grundsatz 12 der Rio-Deklaration fordert überdies: „Umweltbezogene handelspolitische Maßnahmen sollen weder ein Mittel willkürlicher oder ungerechtfertigter Diskriminierung noch eine verdeckte Beschränkung des internationalen Handels darstellen.“

Somit hat die Rio-Konferenz, genau besehen, den Geltungsbereich des Vorsorge- bzw. Vorsichtsprinzips bereits stark eingegrenzt, indem sie darauf bestand, Vorsorgemaßnahmen gleichzeitig den Grundsätzen der ökonomischen Verhältnismäßigkeit und der Nichtdiskriminierung beziehungsweise der Ablehnung von Protektionismus zu unterwerfen.

Diese Interpretation des Vorsorgeprinzips setzte sich aber in den folgenden Jahren kaum durch. Vor allem Umweltverbände sowie grüne und rote Parteien wollten die Anwendung des Prinzips nicht nur auf Fälle beschränkt wissen, in denen noch keine völlige wissenschaftliche Gewissheit über drohende Umweltschäden bestand, sondern interpretierten es im Sinne einer generellen Umkehr der Beweislast. Sie sahen im Vorsorge-Grundsatz eine juristische Revolution, die mit der Unschuldsvermutung („in dubio pro reo“) Schluss macht. Diese war nicht zufällig zu einem Grundpfeiler des Römischen Rechts und der darauf aufbauenden modernen Rechtsordnungen geworden. Nun aber sollte die Industrie vor der Markteinführung von Produkten beweisen müssen, dass diese absolut sicher sind.

Darauf läuft das Anfang 1998 von verschiedenen internationalen Umweltverbänden und ihnen verbundener Forscher verabschiedete „Wingspread Consensus Statement on the Precautionary Principle“ hinaus. Es heißt dort: „When an activity raises threats of harms to human health or the environment, precautionary measures should be taken even if some cause and effect relationships are not fully established scientifically.” Von wirtschaftlicher Verhältnismäßigkeit oder von Nichtdiskriminierung ist hier keine Rede. Schon der Verdacht soll im Prinzip als Begründung für kostspielige Vorsorgemaßnahmen oder Produktverbote genügen. Schokolade müsste danach zum Beispiel verboten werden, weil jeder Chemiker daraus gefährlichen Sprengstoff herstellen könnte.

Angesichts der Tatsache, dass extreme Interpretationen des Vorsorgeprinzips auch in Europa Schule machten und der Grundsatz selbst im Maastrichter Vertrag nicht definiert worden war, sah sich die EU-Kommission Anfang 2000 veranlasst, dem Vorsorgeprinzip eine spezielle „Communication“ zu widmen. Darin stellte die Kommission klar, dass dieses den Grundsatz der Verhältnismäßigkeit einschließt und keineswegs auf ein Null-Risiko abzielt. Das Vorsorgeprinzip solle nicht bei der Risikoabschätzung zur Geltung kommen, sondern lediglich Bestandteil des Entscheidungsprozesses im Risikomanagement sein und sich nicht auf vage Vermutungen oder willkürliche Unterstellungen mit protektionistischen Hintergedanken, sondern nur auf wissenschaftlich identifizierte und abgeschätzte Risiken beziehen, forderte das Papier.

Aber die Kommission konnte nicht klären, in welchen Fällen das Vorsorgeprinzip angewandt werden sollte und wann nicht. Im zitierten Papier heißt es dazu lediglich: „An assessment of the potential consequences of inaction and of the uncertainties of the scientific evaluation should be considered by decision-makers when determining whether to trigger action based on the precautionary principle.” Den politischen Entscheidungsträgern und dem Europäischen Gerichtshof (EuGH) soll es also überlassen bleiben, wie sie mit den Ungewissheiten umgehen, die bei der wissenschaftlichen Risikoabschätzung nicht ausgeräumt wurden. Das Dokument deutet nicht einmal an, wann eine Ungewissheit groß genug sein soll, um Vorsorgemaßnahmen zu rechtfertigen.

Kein Wunder, dass es auch in den folgenden Jahren bei EU-Entscheidungen, bei denen das Vorsorgeprinzip eine Rolle spielte, wie Kraut und Rüben zuging. Der Umweltjurist Gary E. Marchant und der Umweltmediziner Kenneth L. Mossman, beide Professoren an der Arizona State University, haben 60 Entscheidungen von Instanzen des EuGH, in denen das Vorsorgeprinzip eine Rolle spielte, unter die Lupe genommen und nachgewiesen, dass der Grundsatz sehr selektiv und widersprüchlich ausgelegt wurde (Gary E. Marchant/Kenneth L. Mossman: Arbitrary & Capricious. The Precautionary Principle in the European Union Courts, published by the International Policy Network, London 2005. In einem Teil der Urteile wurde das Vorsorgeprinzip auch auf „potentielle“ Risiken angewandt, während es sich nach anderen nur auf bereits klar identifizierte Gefahren beziehen soll. In einigen Fällen (so zum Beispiel im Streit um Antibiotika-Zusätze im Tierfutter) sprachen sich Politiker und Richter für das Verbot Jahrzehnte lang bewährter Produkte aus, obwohl die zuständigen wissenschaftlichen Beratergremien die Frage nach der Existenz ernsthafter Risiken klar verneint hatten. In anderen Fällen (insbesondere beim Kampf gegen die Rinderseuche BSE) setzten sich Politik und Justiz über den Rat der Fachleute hinweg, indem sie ernsthafte Infektionsrisiken für Menschen zunächst herunter spielten. Es liegt auf der Hand, dass die EU-Institutionen mit beiden extremen Auslegungen nur Wasser auf die Mühlen solcher letztlich von nihilistischen Motiven getriebenen Gruppierungen leiteten, die das Vorsorgeprinzip – explizit oder implizit – seit längerem mit der Forderung nach einem Null-Risiko und einer Umkehr der Beweislast verbinden.

Was Umwelt- und Verbraucherschutzverbände und mit ihnen immer mehr um Wählerstimmen buhlende Politiker in jüngster Zeit in der Auseinandersetzung um die Ausgestaltung der neuen EU-Chemikalienpolitik fordern, klingt zwar zunächst sehr sympathisch: Damit die Verbraucher nicht unfreiwillig zu Versuchskaninchen der Industrie werden, soll diese vorab beweisen, dass die von ihr angebotenen Produkte unschädlich sind. Dabei wird jedoch vergessen oder unterschlagen, dass es uns Menschen grundsätzlich nicht möglich ist, die Abwesenheit von Risiken zu erkennen. Stringent beweisen können wir immer nur deren Existenz. Abgesehen von Zufällen, findet man dabei in der Regel nur, wonach man sucht. Wird kein Risiko gefunden, heißt das noch lange nicht, dass es überhaupt keines gibt. Die Öffentlichkeit kann also vernünftigerweise von der Industrie nur fordern, dass sie vor der Vermarktung neuer Produkte allen plausiblen Risikovermutungen nachgeht, Vorkehrungen trifft, um nachgewiesene Risiken zu minimieren und sich verpflichtet, zusätzliche Sicherheitsmaßnahmen einzuleiten, sobald beim Gebrauch eines Produktes unvermutete Risiken auftreten. In diesem Sinne ist das Vorsorgeprinzip in modernen Industrieländern längst zum Standard geworden.

In verabsolutierter Form widerspricht der Grundsatz jedoch der uralten Einsicht, dass alle menschlichen Wahlhandlungen Risiken bergen und Kosten verursachen und deshalb einer Übelabwägung bedürfen. Entscheidet ein Einzelner, eine Firma oder der Staat, bestimmte Handlungen aus Gründen der Vorsicht zu unterlassen oder zu verbieten, heißt das keineswegs, dass sie damit auch ihre Risiken und Kosten insgesamt vermindern. Wer ein Risiko ausschließen will, nimmt damit vielmehr automatisch ein anderes in Kauf. Werden auf Verdacht Stoffverwendungen verboten, gehen mit der Einschränkung der wirtschaftlichen Freiheit unweigerlich Innovations- und Wachstumschancen verloren und das Risiko der Verarmung wächst. Wer überhaupt kein Risiko eingehen möchte, geht also in Wirklichkeit das allergrößte Risiko ein.

Um Eingriffe in den Markt aufgrund willkürlicher Verdächtigungen und Verunglimpfungen von Stoffen und Produkten auszuschließen, hat deshalb die Europäische Kommission in der zitierten „Communication“ vom Februar 2000 klargestellt, die Anwendung des Vorsorge-Prinzips bedürfe in jedem Fall einer wissenschaftlich fundierten Risiko-Abschätzung. Ohnehin fordert schon der Vertrag von Maastricht, alle EU-Verordnungen einer nachvollziehbaren Kosten-Nutzen-Abwägung (Gesetzesfolgenabschätzung) zu unterwerfen, um überprüfen zu können, ob sie dem Rechtsgrundsatz der Verhältnismäßigkeit genügen.

Deshalb musste die EU-Kommission ihrem Anfang 2001 in Form eines „Weißbuches“ veröffentlichten Entwurf einer neuen Chemiepolitik von vornherein eine Kosten-Nutzenabschätzung zur Seite stellen, um begründen zu können, ob ihr bislang beispielloses, weil Millionen von Stoffwendungen umfassendes Regulierungsprojekt REACh überhaupt gerechtfertigt scheint. Unter der damaligen Umweltkommissarin Margot Wallström ließ die EU-Kommission von der Londoner Unternehmensberatung Risk and Policy Analysts Ltd. (RPA) und der schwedischen Statistikbehörde ermitteln, dass die Stoffregistrierung nach REACh in den ersten 11 Jahren zwischen 1,7 und 7 Milliarden Euro kosten würde. Dem stünden wegen des zu erwartenden Rückgangs berufsbedingter Krebserkrankungen mögliche Kosteneinsparungen im Gesundheitswesen von bis zu 54 Milliarden Euro in den kommenden 30 Jahren gegenüber.

Doch diese Rechnung erscheint nach Ansicht von Angela Logomasini vom Washingtoner Competitive Enterprise Institute (CEI) völlig aus der Luft gegriffen, weil in der EU etwa 80 Prozent aller Fälle von Berufskrebs auf Asbest-Altlasten zurückgehen und höchstens 360 von insgesamt über 32.331 beruflich bedingten Krebsfällen im Jahr auf den Kontakt mit Chemikalien in irgendeiner Form zurückgeführt werden können. Nach den klassischen Arbeiten von Richard Doll und Richard Peto, die auch von der WHO gestützt werden, gehen ohnehin nur 2 Prozent aller Krebsfälle auf Umwelteinflüsse zurück. Nur durch die absehbare Vertreibung von Firmen und Arbeitsplätzen in außereuropäische Länder werde es die EU schaffen, die Zahl berufsbedingter Erkrankungen zu vermindern, vermutet Logomasini in einer unter dem Titel „REACh: Teuer für die Welt, selbstmörderisch für Europa“ auch auf deutsch erschienen Studie über die wahren Kosten von REACh.

In dem im September 2005 im Rahmen der britischen EU-Ratspräsidentschaft vorgelegten Kompromissvorschlag heißt es denn auch im Art. 1.3 etwas vorsichtiger als im REACh-Entwurf der Kommission von 2003: „This Regulation is based on the principle that it is up to manufacturers, importers and downstream users to ensure that they manufacture, place on the market or use such substances that do not adversely affect human health or the environment. Its provisions are underpinned by the precautionary principle.“ Hier verweist der Textvorschlag in einer Fußnote ausdrücklich auf die Klarstellung in der erwähnten „Communication“ der EU-Kommission aus dem Jahre 2000.

Doch gelang es damit nicht, die Mehrheit der EU-Parlamentarier auf den Boden der Tatsachen zurück zu bringen, zumal dort der Inhalt des Vorsorgeprinzips nicht näher bestimmt wurde. Im Artikel 52 der vom EP in erster Lesung angenommenen REACh-Fassung heißt es über Sinn und Zweck der Stoffzulassung: “The aim of this Title is to ensure that substances of very high concern are replaced by safer alternative substances or technologies, where available. Where no such alternatives are available, and where the benefits to society outweigh the risks connected with the use of such substances, the aim of this Title is to ensure that the use of substances of high concern is properly controlled and that alternatives are encouraged. Its provisions are underpinned by the precautionary principle.” Käme das durch, hätte die Politik einen Freibrief für willkürliche Eingriffe in die Wirtschaft in der Hand.

Schon in diesem Sommer setzte sich das EP offen über wissenschaftlichen Sachverstand hinweg, als es unter Berufung auf das Vorsorgeprinzip sechs PVC-Weichmacher in Kinderspielsachen verbot, obwohl kostspielige Risikoabschätzungen nach den Regeln der Kunst beim derzeit gebräuchlichsten PVC-Weichmacher DINP überhaupt keine und bei anderen Weichmachern nur geringe Risiken ausgemacht hatten. Aufgrund des so geschaffenen Präzedenzfalles hängt das Vorsorgeprinzip nun wie ein Damoklesschwert über allen Stoffzulassungsverfahren. Die Produktion und Dokumentation Tausender von Testdaten nützt den Unternehmen wenig, wenn die Politik am Ende dem Druck lautstarker Interessengruppen nachgibt. Da die Hersteller nie beweisen können, dass die von ihnen angebotenen Produkte 100 Prozent sicher sind, wird ihnen nahe gelegt, auf die sichere Seite zu gelangen, indem sie bewährte durch zweifelhafte, aber politisch korrekte Stoffe ersetzen. Im Falle der Spielsachen beispielsweise durch den Ersatz von PVC durch Gummi, obwohl dieser, bedingt durch die Vulkanisierung, immer krebserregende Nitrosamine enthält. Hauptsache: Politisch korrekt.

Edgar Gärtner (2005)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Literatur:

Edgar Gärtner: Vorsorge oder Willkür, köln 2006

Für ein menschliches Klima

Das von mir sehr geschätzte Frankfurter Magazin „NOVO Argumente“ stellt im Internet ein alternatives Kopenhagen-Manifest zur Diskussion. Die Menschen erscheinen darin nicht wie in der grünen Ideologie als Schädlinge, sondern als Mitschöpfer einer humanisierten Erde. Die Energiegewinnung aus Uran, Kohle, Rohöl und Erdgas sei kein Problem, sondern Teil der Lösung. Das gelte auch für das Bevölkerungs- und Wirtschaftswachstum.

Das alternative Kopenhagen Manifest

1. Der „ökologische Fußabdruck“ der Menschen wächst zu Recht!

Von der Schöpfungslehre bis hin zur Aufklärung sah sich die Menschheit als Herrscher über den Planeten. Wir Menschen „herrschen über die Fische im Meer und über die Vögel unter dem Himmel und über das Vieh und über alle Tiere des Feldes und über alles Gewürm, das auf Erden kriecht“, heißt es in der Bibel. „Lasst uns die Natur auf den Seziertisch legen und ihre Geheimnisse erforschen!“, sagten die großen Denker der Aufklärungszeit. Heute jedoch reden Menschen über sich selbst als bösartige Wesen oder „ernste planetarische Krankheit“, wie es ein führender Vertreter der Grünen formuliert hat. All unsere Errungenschaften – seien es Industrie, Städte, moderne Landwirtschaft oder Hochhäuser – werden als schädlicher „ökologischer Fußabdruck“ verunglimpft. Den will die Umweltschutzbewegung reduzieren, denn sie betrachtet die Menschen als destruktive Spezies. Die jahrhundertlange Arbeit am Fortschritt wird dargestellt als gigantische Dummheit, der heute schleunigst Einhalt zu gebieten sei. Hier muss Einspruch erhoben werden! Wir haben die Erde nicht vergiftet, wir haben sie humanisiert. Und unser „Fußabdruck“ ist ein fünftausendjähriges Projekt zur Beherrschung der Naturgewalten und Gestaltung unserer Umwelt, das weiter voranschreiten muss.

2. Kohlenstoff-Rechner gehören abgeschaltet!

Jede menschliche Aktivität wird heute daran bemessen, wie viel CO2 sie freisetzt. Fliegen, Arbeiten, Essen und selbst Kinderkriegen wird in Tonnen CO2 aufgerechnet. Ein Neugeborenes produziere jährlich zehn Tonnen CO2, bekommen wir zu hören. Neue Kühlschränke in China zerstörten das Klima, wird gesagt. Doch das menschliche Dasein lässt sich nicht auf die Anzahl der Schadstoffe reduzieren, die es angeblich produziert. CO2-Kalkulationen haben das Urteil Gottes ersetzt. Doch während die Anhänger Gottes wenigstens zwischen guten und bösen Taten unterscheiden, gilt der moralisierenden, schadstofffixierten Tyrannei der Kohlenstoffkirche jede menschliche Aktivität als potenziell gefährlich. Wir plädieren dafür, umgehend damit aufzuhören, unsere Leben in Tonnen CO2 zu berechnen. Menschliches Handeln ist nach menschlichen Maßstäben zu bewerten. Wir sollten es als gut, kreativ, erfindungsreich, fleißig oder einfach beglückend anerkennen.

3. Wirtschaftswachstum ist gut!

Überfluss zu erzeugen war und ist das überragende Ziel fast jeder menschlichen Gesellschaft: Überfluss an Nahrung, Wohnraum und Waren aller Art. Von der israelitischen Vorstellung eines Landes, „in dem Milch und Honig fließt“, bis hin zu Sozialisten, die davon träumten, mehr Güter zu produzieren, als alle Menschen verbrauchen können, herrschte Einigkeit, dass materieller Wohlstand unser Leben angenehmer und freier macht. Je weniger Zeit wir mit Arbeit verbringen, desto mehr bleibt für intellektuelle Vorlieben, Zwischenmenschliches oder einfach nur Lebensgenuss. Im Öko-Zeitalter jedoch wird Überfluss verteufelt und Genügsamkeit gefeiert. Doch wer entscheidet, was genügt? Wirtschaftswachstum wird als zerstörerisch denunziert und die Sehnsucht nach Wohlstand und Konsum zur Überflusskrankheit „Affluenza“ umdefiniert. Wir sollten darauf bestehen, dass Wirtschaftswachstum im Kern gut und überdies unverzichtbar ist. Es ist die Voraussetzung dafür, dass Menschen keine materielle Not leiden und genügend Freizeit und Freiheit haben, um ihre persönlichen Ziele zu verwirklichen.

4. Entwicklung gelingt nur ohne Nachhaltigkeitsdogma!

Akzeptabel erscheinen in diesen Tagen Wachstum und Entwicklung nur, wenn sie „nachhaltig“ sind. Das klingt nett. Wer möchte sich schon als Gegner der Nachhaltigkeit bekennen? Doch das Dogma der Nachhaltigkeit legt menschliches Handeln in Ketten. Es gestattet nur bescheidene Projekte, die sich sanft in die Umwelt schmiegen. Es lähmt Mut und Tatkraft. Dem Nachhaltigkeitskult folgend darf nur erdacht und gemacht werden, was weder Kräfte verschlingt noch entfesselt. Große Sprünge sind tabu. Innovationen im klassischen Sinn kann es aus dieser Perspektive nicht geben. Undenkbar erscheint es da, Altes zu überwinden, um wirklich Neues und Besseres zu schaffen. Die Forderung, sich immer und überall dem Diktat der Nachhaltigkeit zu unterwerfen, verhindert das Überdenken des Hergebrachten, unterbindet Kreativität und Fantasie und richtet sich gegen das Entwerfen und Erschaffen einer neuen Welt. Der Nachhaltigkeitsgedanke wirkt wie eine mentale Zwangsjacke. Von dieser sollten wir uns besser heute als morgen befreien.

5. Bevölkerungswachstum ist besser als Geburtenkontrolle!

Aus fortschrittlicher Perspektive sind Arbeitslosigkeit, Armut und Hunger soziale Probleme, die wir durch gemeinsame Anstrengungen überwinden können. Heute scheint stattdessen Konsens zu sein, dass es sich hier um natur- oder demografiebedingte Probleme handelt, die dadurch zu lösen seien, dass wir dem Menschen von Mutter Natur vorgegebene Grenzen respektieren. Dies wird nirgendwo so klar wie beim ökologistisch inspirierten Neo-Malthusianismus, der meint, unser Planet sei von zu vielen hungrigen Mäulern bevölkert. Dass wir die Welt noch nicht so eingerichtet haben, dass sie den Bedürfnissen der Menschen gerecht wird (also als Welt im Überfluss), wird umgedeutet als Versagen der Einzelnen, ihren Fortpflanzungstrieb, ihre Konsumwünsche und ihren Ressourcenverbrauch zu drosseln. Als mangelnder Fortschritt noch als Ursache sozialer Missstände galt, konnten kollektive politische, technische und wirtschaftliche Lösungen in Angriff genommen werden. Heute, wo Missstände als Folge der Überschreitung naturgegebener Grenzen definiert werden, erscheint als einzig vorstellbare Lösung die Beschränkung des menschlichen Aktionsradius. Bevölkerungswachstum ist kein Problem. Der Mangel an sozialer Vorstellungskraft ist das Problem.

6. Freier Austausch statt Dämonisierung der „Leugner“!

Eine ernsthafte Debatte über die Menschheit und ihre Zukunft wird permanent behindert. Wer heute die gängigen Thesen zum Klimawandel infrage stellt oder an anderer Stelle der grünen Weltsicht widerspricht, wird auf eine Stufe mit Kreationisten oder Hohlwelttheoretikern gestellt. Manche bezeichnen die „Leugnung des Klimawandels“ sogar als psychische Störung und behaupten, solche „bösen Worte“ würden buchstäblich zu Tod und Zerstörung führen. Zensurfreunde haben ihre Gegner schon immer als nicht nur fehlgeleitet, sondern auch moralisch verwerflich und Bedrohung für den sozialen Frieden dargestellt. Das Konzept der „Leugnung“ impliziert, dass es eine etablierte Wahrheit gibt, die man zu akzeptieren hat und die infrage zu stellen nur krankhaften Exzentrikern in den Sinn kommen könnte. Wir sollten das Recht auf Widerspruch verteidigen. Nicht, weil „Klimaskeptiker“ permanent Interessantes zu sagen hätten, sondern weil Durchbrüche in der Geschichte der Menschheit immer auf der Bereitschaft beruhten, unangenehme und provokante Fragen zu stellen – gerade in Bezug auf vermeintliche Wahrheiten.

7. Nord-Süd-Partnerschaften ohne Öko-Protektionismus!

Einst sangen selbst Marxisten Loblieder auf die kapitalistische Tendenz, Produktion und Handel zu internationalisieren. Die rasante Entwicklung von Produktion, Transport und Kommunikation auf dem Planeten hätte viele Gesellschaften in die Zivilisation geführt, schrieben Marx und Engels im Jahre 1848. Heute hingegen gilt es als vorbildlich, beispielsweise nur Lebensmittel zu kaufen, die im Umkreis von wenigen Kilometern produziert worden sind. Grüne Lobbygruppen verbreiten pseudowissenschaftliche Märchen über die besondere Qualität regionaler Kost, um den (oft auch nur vermeintlich) CO2-intensiveren Import ausländischer Nahrungsmittel zu verhindern. Ökologistische Schwarzmaler haben sogar den Begriff „Liebesmeilen“ erfunden, um die Einfuhr kenianischer Blumen zum Valentinstag einzudämmen. Dieser Protektionismus im grünen Gewand verweigert Menschen in Entwicklungsregionen Zugang zu Arbeit und Einkommen. Wir brauchen mehr sinnvolle und wirklich faire Verbindungen zwischen Nord und Süd.

8. Energie ist die Lösung, nicht das Problem!

Ob man Braukohle mit dem Schaufelradbagger abbaut oder Uran aus Pechblende extrahiert, immer erntet das heute auch Argwohn. Natürliche Ressourcen werden als endlich wahrgenommen und ihr Verbrauch als unabdingbar mit der Zerstörung das Planeten verbunden. Doch das Schreckgespenst der Ressourcenknappheit basiert nicht auf wissenschaftlichen Fakten. Es entspringt vielmehr der Überzeugung, dass wir natürliche Ressourcen ohnehin am besten gar nicht für menschliche Zwecke nutzen sollten. Selbst der Wasserverbrauch auf unserem blauen Planeten wird heute problematisiert. Grüne NGOs berechnen munter „Wasserfußabdrücke“ und fordern einen „wasserneutralen“ Lebensstil. Das zeugt von der neuen Sicht auf den Menschen als Zerstörer statt als Schöpfer. Die Erde wird zum Ressourcengroßmarkt umdefiniert, und die uns gebührende Rolle scheint darin zu bestehen, auf Zehenspitzen umherzuschleichen und wirklich nur zu nehmen, was wir unbedingt brauchen. Doch Energieerzeugung, nicht Rationierung ist die Lösung. Billige Energie ist ein großer Fortschrittsmotor. Jede Art der Energiegewinnung kann erforscht werden – auch Wind- und Wellenkraft –, solange wir die Prämisse akzeptieren, dass der Energieverbrauch zunehmen muss, um die Bedürfnisse der Menschheit befriedigen zu können.

9. Demokratiedefizite offen und ehrlich angehen!

Unsere Staatsoberhäupter reisten im Dezember nach Kopenhagen, um bei dieser „historischen Veranstaltung“ Handlungsfähigkeit und Entschlossenheit zu demonstrieren – Attribute, die man in der Tagespolitik schmerzlich vermisst. Mangels glaubwürdiger Visionen für ein besseres Leben übten Politiker sich angesichts des erwarteten Klimawandels als Prediger der Sparsamkeit und des Verzichts. Bürger wurden dafür kritisiert, es an Konsequenz beim Klimaschutz mangeln zu lassen. Große Teile der Gesellschaft betrachteten die Veranstaltung in Kopenhagen hingegen als reine Zeit- und Geldverschwendung. Viele brachten in unzähligen Umfragen ihre Meinung zum Ausdruck, dass der Klimawandel in ihren Augen nicht unser größtes Problem ist. Wenn Kopenhagen etwas brachte, dann die Gewissheit, dass sich Demokratiedefizite und eklatante Wahrnehmungsdifferenzen zwischen den politischen Führungen und den Bürgern nicht durch pseudo-historische „Events“ überwinden lassen. Wir brauchen dringend mehr Offenheit und Ehrlichkeit bei der Diskussion um unsere Zukunft – und mehr kontroverse Debatten, die unseren Horizont erweitern.

10. Menschen sind wichtiger als Tiere!

Früher gingen die Menschen davon aus, dass ein weißhaariger Gott vom Himmel herab über sie wache. Heute glauben viele, wir müssten uns an weißpelzigen Polarbären orientieren. Der Eisbär ist nicht erst seit Knut zur Metapher für menschliche Destruktivität geworden. Unser Handeln wird daran gemessen, ob es die Eisschollen durcheinander bringt, auf denen die Tiere leben. Rückwärtsgewandte Naturromantik und Abscheu gegenüber Eingriffen in die Umwelt führen zu immer stärkerer Kontrolle unserer Aktivität und zur Verengung unserer persönlichen und kollektiven Horizonte. Gebetsmühlenartig beschwört man das Bild von menschlicher Konsumgier und Ressourcennutzung bedrohter Arten und festigt so eine Kultur der Geringschätzung der Menschen. Wir brauchen stattdessen eine Moral und Werte, die den Menschen und seine freie Entfaltung in den Mittelpunkt stellen. Legen wir die Leitbilder der professionellen Miesmacher, die sich hinter Eisbären verstecken, auf Eis! (5. März 2010)

Bitte diskutieren Sie hier mit!

============================================================================================

Wer verstehen möchte, was in Kopenhagen auf dem Spiel stand, der sollte sich den Vortrag von Lord Monckton auf der unten angekündigten 2. Intermationalen Berliner Klima-Konferenz zu Gemüte führen. Dieser ist inzwischen auf CFACT.TV verfügbar. Wer danach noch glaubt, „Climategate“ beweise nicht, dass es sich bei der These von der menschlichen Schuld am Klimawandel um eine bewusst organisierte Lüge handelt, dem ist nicht mehr zu helfen.

———————————————————————————————————————-

Klima-Kreuzzug stößt auf Widerstand von Edgar L. Gärtner

China wird zum wichtigsten Bündnispartner im Kampf gegen eine selbstmörderische Politik

Etwa zwei Wochen nach seiner Aufdeckung ist „Klima-Gate“ nicht nur bei Wikipedia, sondern auch auf der Titelseite der „Frankfurter Allgemeine“ vom 4. Dezember angekommen. Wichtiger als die nachträgliche Bekanntmachung eines in der Blogosphäre und in der angelsächsischen Presse längst ausgemachten Wissenschaftsskandals durch ein etabliertes deutsches Printmedium ist aber ein Artikel, den das Blatt im Feuilleton der gleichen Ausgabe unter dem Titel „Der neue Weltmoralapostel“ bringt. Der Autor Mark Siemons berichtet dort vom Peking-Gipfel der Entwicklungsländer Ende November und zitiert einen wenige Tage zuvor im Konkurrenzblatt „Die Welt“ erschienen Beitrag von Fiona Kobusingye, Vorsitzende der ugandischen Gruppe für Menschenrechte und wirtschaftliche Entwicklung CORE. Darin geißelt die Autorin den Versuch, den schwarzen Kontinent mithilfe des internationalen CO2-Emissionshandels für den Verzicht auf Entwicklung zu belohnen, mit scharfen Worten. Die Energie-Diät, auf die Klimapolitiker wie Al Gore oder Yvo de Boer, der Chef des UN-Klimasekretariats, die Menschheit setzen wollen, sei in Afrika längst verwirklicht. Sie bedeute in der Praxis Hunger, Krankheit und Tod. Kobusingye schreibt: „Den Menschen in Afrika zu erzählen, sie können keinen Strom und keine wirtschaftliche Entwicklung haben – außer dem bisschen, was einige kleine Windturbinen oder Solarzellen produzieren – das ist unmoralisch. Es ist ein Verbrechen gegen die Menschlichkeit. Inzwischen bauen China und Indien jede Woche neue Kohle-Kraftwerke, und bringen damit ihre Leute aus der Armut heraus. Daher: selbst wenn Afrika verarmt bleibt – und wenn die USA und Europa die Atomkraft durch Windmühlen ersetzen – die globalen Kohlendioxid-Werte würden jahrzehntelang weiter steigen. (…) Wir brauchen den Handel, Produktion, Strom und Treibstoffe, um moderne Industriegesellschaften aufzubauen. Wir müssen tun, was China und Indien tun – uns entwickeln – und mehr Handel mit ihnen treiben.“

Wie FAZ-Redakteur Mark Siemons richtig bemerkt, kommt dem Bezug auf China strategische Bedeutung zu. Die Volksrepublik China dient trotz ihres nicht gerade sanften Vorgehens bei der Erschließung und Ausbeutung von Rohstofflagerstätten in Afrika gerade auch bei den ärmsten afrikanischen Ländern mehr und mehr als Vorbild für eine nachholende wirtschaftliche Entwicklung, die sich nicht am dekadenten und letztlich selbstmörderischen Leitbild der „Nachhaltigkeit“ orientiert, sondern die Befriedigung der Grundbedürfnisse der Armen in den Mittelpunkt stellt. Die „Klimapolitik“ erscheint immer mehr Afrikanern als Kreuzzug im Namen des Todes, während die chinesische Politik trotz aller Grobheiten die Hoffnung auf ein besseres Leben verkörpert. Die aktuelle Politik der chinesischen Führung unter Ministerpräsident Wen Jiabao erscheint ihnen umso attraktiver, als diese angesichts der noch längst nicht ausgestandenen internationalen Währungskrise diskret, aber nachdrücklich an der Entwicklung einer vom US-Dollar entkoppelten neuen Leitwährung auf der Basis eines Rohstoff-Index arbeitet. Kein Wunder, dass neben China auch Indien, Brasilien und Südafrika angekündigt haben, in Kopenhagen keinem Abkommen zuzustimmen, das auf eine Halbierung der weltweiten CO2-Emissionen bis zum Jahre 2050 abzielt. (4. Dezember 2009)

Internet:

FAZ: Klima-Gate

Mark Siemons: Der neue Weltmoralapostel

Fiona Kombusingye: Africa’s real Climate Crisis

Dieselbe: Was soll die Klimadebatte – Afrika verhungert

Das nahende Ende einer Parenthese der Geschichte?

============================================================================================

Vor dem Kopenhagener „Klima-Gipfel“:

Der Kampf gegen die Öko-Diktatur ist noch nicht gewonnen

Von Edgar L. Gärtner

Die Veröffentlichung des offiziellen „Climate Science Statement“ durch führende britische Wissenschaftsorganisationen und das Votum der 53 Commonwealth-Länder für einen bindenden Vertrag über den „Klimaschutz“ durch CO2-Reduktion (Kohlenstoff-Kommunismus) zeigt, dass die Aufdeckung der Manipulation wichtiger Klimadaten durch internationale Seilschaften bei den Mächtigen wenig Eindruck macht. Dass der Zug in Richtung auf eine lebensfeindliche, aber staatstragende Besteuerung des Heizens, Reisens und Atmens, die sich als CO2-Marktwirtschaft tarnt, stur weiterrollt, gilt bei EU-Ratspräsident José Manuel Barroso, beim britischen Außenminister David Milliband und bei Klima-Kanzlerin Angela Merkel bereits als beschlossene Sache. Die auch in Deutschland erhobene Forderung, die in den Climategate-Skandal verwickelten Forscher Michael Mann, Phil Jones und Stefan Rahmstorf sollten vom „Weltklimarat“ IPCC ausgeschlossen, wenn nicht gar vor Gericht gestellt werden, liefen bislang ins Leere.

Es gibt sogar den Verdacht, die kompromittierenden Dateien seien nicht von einem ethisch motivierten Wistleblower ins Web gestellt worden, sondern auf Geheiß der mächtigen „Klimaschutz“-Lobby, um die „Skeptiker“ zu beschäftigen und die Teilnehmer des Kopenhagen-Gipfel zur Eile anzutreiben, damit sie die letzte Chance für die Verabschiedung eines Post-Kyoto-Vertrages und damit für den Start eines internationalen CO2-Handelssystems nicht verstreichen lassen. Schon bei der Konstituierung des „Weltklimarates“ IPCC im Jahre 1988 ging es primär um die Einführung einer CO2-Steuer. Die Idee dafür kam ursprünglich vom sowjetischen „Dissidenten“ Andrej Sacharow. Sie wurde dann unter Premierminister Ingvar Carlsson noch vor der Gründung des IPCC in Schweden aufgegriffen. Es ging der schwedischen Regierung vor allem darum, die damals abschreckend hohen Einkommenssteuern durch eine breitere Finanzierung des Staatshaushaltes abzulösen. Carlssons Berater Bert Bolin wurde erster Vorsitzender des IPCC. Da es sich aber zeigte, dass die Einführung einer solchen Steuer auf buchstäblich alles überall auf Widerstand stieß, kamen Ökonomen auf die Idee, die Steuer als CO2-Emissionshandel zu verpacken.

Man fragt sich, warum selbst liberale Ökonomen vom Emissionshandel fasziniert sind. Denn dieser hat mit freier Marktwirtschaft überhaupt nichts zu tun. Er ist eine zentralistische Form der Luftbewirtschaftung (Rationierung) auf der Basis simulierter Eigentumsrechte (Zertifikate). Zu diesem Zweck muss das ehedem „freie“ Gut Luft auf der Basis scheinbar objektiv wissenschaftlicher Annahmen über Obergrenzen menschlicher CO2-Emissionen in die Atmosphäre künstlich verknappt werden. Von diesem Schein der Wissenschaftlichkeit bleibt nach „Climategate“ nichts mehr übrig. Der britische Journalist Christopher Booker spricht vom „schlimmsten Wissenschaftsskandal unserer Generation.“ Der bekannte Klimaforscher Eduardo Zorita, der bislang keineswegs zu den „Skeptikern“ zählte, hat gefordert, Michael Mann, Phil Jones und Stefan Rahmstorf aus dem IPCC-Prozess auszuschließen. Immerhin sah sich Chef-Klimaforscher Phil Jones dadurch veranlasst, sein Amt erst einmal ruhen zu lassen.

Doch das scheint die Verfechter des Emissionshandels nicht zu stören. Die „Frankfurter Allgemeine Sonntagszeitung“ hat am 1. Advent unter dem Titel „Zauberformel gegen den Dreck“ gerade wieder den Emissionshandel in den Himmel gelobt. Skeptische Untertöne und emotionale Distanz wird man in diesem eines seriösen Blattes unwürdigen PR-Text vergeblich suchen. So deutlich hat sich die Frankfurter Zeitung noch selten zum Sprachrohr der Großbanken gemacht. Diese rechnen fest mit einem Durchbruch Kopenhagen, denn sie haben in enger Zusammenarbeit mit nationalen und internationalen Bürokratien längst umfangreiche Vorkehrungen für das Riesengeschäft mit heißer Luft getroffen. Sie wollen sich ihr Geschäft nicht durch ein paar Naivlinge verderben lassen, die noch glauben, es gehe um die Wahrheit. (1. Dezember 2009)

Internet:

Climate Science Statement

Commonwealth-Länder fordern bindenden Klimavertrag

Politischer Klimawandel vor dem Klimagipfel

Eduardo Zorita fordert Ausschluss von Mann, Jones und Rahmstorf

Christopher Booker: Climate Change: this is the worst scientific scandal of our generation

Phil Jones lässt sein Amt ruhen

Zauberformel gegen den Dreck

===================================================================================

Ein sehr nützlicher Tipp für Ihre Vorbereitung auf die Kopenhagen-Konferenz

Schauen Sie sich das nun schon einige Jahre alte, aber noch immer aktuelle 45-minütige Video „Doomsday Called Off“ von Lars Oxfeldt Mortenssen im Internet an und ziehen Sie daraus Ihre politischen Schluissfolgerungen. (21. Oktober 2009)

============================================================================

„Vergesst Kopenhagen!“

Nach den Reden des US-amerikanischen und des chinesischen Präsidenten auf New Yorker Klimakonferenz der UN am 22. September 2009 sieht die „Financial Times Deutschland“ keine Chance mehr, im Dezember auf dem Klima-Gipfel in Kopenhagen zu zu einem internationalen Abkommen zu gelangen, das mehr enthält als leere Symbolik, und plädiert für eine Verschiebung der Konferenz. (23. September 2009)

=======================================================================

Hahn zu ist billiger

Jetzt fällt auch beim Kollegen Joachim Müller-Jung der Groschen. In der FAZ vom 2. September berichtet er höchst ironisch über zwei Arbeiten von Sir Nicholas Stern und Hans-Joachim Schellnhuber. Beide gehen davon aus, dass Deutschland die ihm laut Weltklimarat IPCC zustehende CO2-Quote schon ausgeschöpft haben. Es käme also wesentlich billiger, der Wirtschaft einfach Öl- und Gashähne zuzudrehen, als zu versuchen, das gleiche Ziel über den CO2-Emissionshandel und die Milliarden schwere Förderung „erneuerbarer“ Energien zu erreichen. Merke: Das Nichts (= Nullemission) kann man auch umsonst haben. (2. September 2009)

Bonner Klimakonferenz, wie erwartet, ohne Ergebnis

Außer Spesen nichts gewesen. Wäre dieser Satz nicht so abgedroschen, träfe er inhaltlich exakt auf die Konferenz von fast zweieinhalb Tausend „Experten“ der Signatarstaaten der UN-Klimarahmenkonvention (UNFCCC) zu, die bis zum 14. August im schicken Bonner Hotel „Maritim“ tagte, um den großen „Klima-Gipfel“ vorzubereiten, der Ende des Jahres in Kopenhagen stattfinden wird. Zwar versucht UNFCCC-Generalsekretär Ivo de Boer jetzt noch Druck zu machen, indem er für den Fall des absehbaren Scheiterns des Kopenhagener Gipfels ein globales Desaster an die Wand malt, doch in der Öffentlichkeit nimmt kaum noch jemand Notiz davon. Das heißt nicht, skeptische Beobachter der Klima-Hysterie könnten nun die Hände in den Schoß legen. Denn es wäre weltfremd zu erwarten, die „Klimapolitiker“ und die bereits arbeitende internationale Klima-Bürokratie würden nun offen zugeben, einen falschen Weg eingeschlagen zu haben. Sie werden nun wohl noch zielsicherer auf einen Kompromiss hinarbeiten, der es ihnen erlaubt, das Gesicht zu wahren und die begonnene Abzocke der arbeitenden Menschen im Namen des Schutzes eines nicht definierbaren Weltklimas fortzusetzen. (14. August 2009)

============================================================================

CCS-Eulenspiegelei gestoppt

Der Deutsche Bundestag hat sich vor dem Ende der Legislaturperiode nicht auf ein Gesetz über die Abscheidung und Endlagerung von CO2 aus Kohlekraftwerken (CCS) einigen können. Damit steigen die Chancen, der Eulenspieglei definitiv ein Ende zu bereiten. Denn CCS würde alle bei Kohlekraftwerken in den letzten Jahrzehnten mühsam erreichten Effizienzgewinne wieder zunichte machen und Kohlestrom unerträglich verteuern. Es zeichnet sich immer deutlicher ab, dass vernünftige Lösungen der Energieprobleme nur gefunden werden können, wenn man CO2 schlicht vergisst. (24. Juni 2009)

====================================================================

Bonner Klimakonferenz: Lebenskraft-Rationierer am Verzweifeln. Obamas Unterhändler wissen den Schein zu wahren

Die Bonner Konferenz der Teilnehmerstaaten des UN-Rahmenabkommens über den Klimaschutz (UNFCCC) ist ohne Ergebnis zu Ende gegangen. Die Chancen, auf dem großen UN-Klimagipfel in Kopenhagen noch eine bindende Vereinbarung über eine 25-prozentige Drosselung der Freisetzung des angeblich klimaschädlichen Spurengases Kohlenstoffdioxid in die Atmosphäre bis zum Jahre 2020 zu erreichen, gehen deshalb gegen Null. Ausgerechnet das besonders „klimabewusste“ Industrieland Japan bot eine Drosselung um lediglich acht Prozent an. Andere Länder zeigen sich noch zurückhaltender. Es ist allerdings nicht ausgeschlossen, dass die Unterhändler von US-Präsident Barack Obama doch noch einen Trick finden, um zumindest den Schein zu wahren. Andeutungen in dieser Richtung machte Obama-Berater John Podesta diese Woche auf der Konferenz „The Great Transformation – Climate Change as Cultural Change“ in Essen. Jonathan Pershing, Obamas stellvertretender Chefunterhändler, kündigte am Schluss der Bonner Konferenz den US-Entwurf eines Klimaabkommens an, der das Kyoto-Abkommen von 1997 nicht fortschreiben, sondern durch mehr oder weniger verbindliche Regionen- und Länderspezifische CO2-Reduktionsziele ersetzen würde. Ergebnis wäre eine Art Drei-Klassen-Klimapolitik. Völlig offen blieb in Bonn die Frage der Finanzierung von Treibhausgas-Reduktionsmaßnahmen in armen Ländern.(12. Juni 2009)

=======================================================================

Auch zweites „Major Economies Forum“ (MEF) über Klimaschutz ohne Ergebnis

„Leider sind die Europäische Union und Deutschland immer noch allein auf weiter Flur im internationalen Klimaschutz.“ Das ist das Resümee von Bundesumweltminister Sigmar Gabriel (SPD) nach Abschluss des zweitätigen internationalen Treffens zu Klimaschutz in Paris. Unter dem Namen „Major Economies Forum“ (MEF) hatte US-Präsident Barack Obama nach einem ersten Treffen Ende April zum zweiten Mal die 16 Industrie- und Schwellenländer mit den stärksten Volkswirtschaften und den höchsten „Treibhausgas“-Emissionen eingeladen.

„Das Treffen in Paris zeigt, dass es noch sehr großer Anstrengungen und hoher Verhandlungsbereitschaft auf allen Seiten bedarf, um beim Klimagipfel in Kopenhagen Ende des Jahres zu einer anspruchsvollen Anschlussvereinbarung zum Kyoto-Protokoll zu kommen“, sagte Gabriel. Die Wirtschaft kann sich jetzt also getrost darauf einstellen, dass in Kopenhagen nichts Greifbares beschlossen werden wird.

Internet: „EU und Deutschland im Klimaschutz weiter allein auf weiter Flur“ (26. Mai 2009)

Dazu passt die Meldung, die EU verabschiede sich bereits von strengen „Klimaschutz“-Vorgaben. (29. Mai 2009)

Der französische Staatspräsident Nicolas Sarkozy hatte übrigens vor, den ausgewiesenen Klimaskeptiker Claude Allègre nach den Europawahlen zum Forschungsmininister zu ernennen. Nach dem überraschend guten Abschneiden der französischen Grünen unter Daniel Cohn-Bendit bei den Europawahlen gilt das aber nun wieder als wenig wahrscheinlich. Das Elisée hat am 23. Juni abends vorzeitig eine unerwartet umfangreiche Regierungsumbildung vorgestellt. Wie erwartet, gehört der zeitweise hoch gehandelte Claude Allègre nicht zu den neuen Ministern. (24. Juni 2009)

========================================================================

Hans Mathias Kepplinger gegen einträgliche Panikmache

Lesenswert: Ein Interview mit dem Mainzer Medienforscher Hans Mathias Kepplinger in SPIEGELonline. Er sieht eine Tendenz genereller Übertreibung von Katastrophen-Gefahren in den audio-visuellen Massenmedien. Davon profitieren kostenträchtige öffentliche Einrichtungen und internationale Gremien wie die Weltgesundheitsorganisation WHO oder der Weltklimarat IPCC, die ihre Existenz rechtfertigen müssen. (11. Mai 2009)

===================================================================================

Washingtoner Klima-Gipfel ohne Ergebnis

„Wir haben so lange über CO2-Minderung geredet, dass fürs Thema Geld keine Zeit mehr blieb“, berichtete US-Chefunterhändler Todd Stern über den Verlauf des Treffens von 17 Staaten, die etwa drei Viertel des globalen CO2-Ausstoßes repräsentieren. Im Klartext: Es wurde nur heiße Luft produziert, schreibt Christian Schwägerl in SPIEGELonline. Es wird immer unwahrscheinlicher, dass der Kopenhagener Klima-Gipfel im Dezember dieses Jahres zu mehr als symbolischen Beschlüssen kommt (29. April 2009)

======================================================================

NASA: Die Sonne verhält sich zurzeit völlig unerwartet

Die US-Weltraumbehörde weist darauf hin, dass sich keines der bislang für die Prognose von Sonnenfleckenzyklen verwendeten theoretischen Modelle als nützlich erwiesen hat. Die Sonne macht, was sie will. (30. Mai 2009)

In diesem Jahr noch weniger Sonnenflecken als im Vorjahr

Alle Indikatoren der Sonnenaktivität weisen nach unten. Auf Erden müssen wir uns auf eine Jahrzehnte währende Abkühlung gefasst machen. Dazu die Analyse eines US-Meteorologen sowie ein interessantes Interview mit David Hathaway, einem führenden US-Solarforscher, der zwar an die Vorherrschaft des „Treibhauseffekts“ glaubt, sich aber dennoch Sorgen macht über die Entwicklung der Durchschnittstemperatur auf der Erde. (12. Mai 2009)

================================================================

Daily Telegraph: Kein Meeresspiegel-Anstieg seit 50 Jahren

„if there is one scientist who knows more about sea levels than anyone else in the world it is the Swedish geologist and physicist Nils-Axel Mörner, formerly chairman of the INQUA International Commission on Sea Level Change. And the uncompromising verdict of Dr Mörner, who for 35 years has been using every known scientific method to study sea levels all over the globe, is that all this talk about the sea rising is nothing but a colossal scare story.“ Christopher Booker in: „Daily Telegraph“ vom 29. März 2009)

=================================================================

Der Hamburger Meteorologe Hans von Storch bereitet die SPIEGEL-Leser sanft auf das nahende Ende des Klima-Hype vor

Nach Ansicht von Storchs „wird deutlich werden, dass es neben der Klimaproblematik weitere schwierige Entwicklungen geben wird, mit weitreichendem Einfluss auf das individuelle sowie das globale Wohlergehen des Lebens auf der Erde: Nachwirkungen der Wirtschaftskrise, Gesundheitsgefahren, Bevölkerungszuwachs, soziale Ungleichheit, Armut, Hunger, Ressourcenübernutzung, radikal verschiedene Weltsichten. Ich erwarte, dass Klima weiter als ein gewichtiges, handlungsnotwendiges Thema verstanden wird, aber eben nur als eines unter mehreren.“ Hans von Storch schließt mit folgender plausiblen Zukunftsprojektion: „Der bisherige Hype der Klima-Angst wird durch eine andere Angst ersetzt werden. Das Klimathema wird nicht mehr wirklich ernstgenommen werden, sondern vor allem zur Motivation für eine allgegenwärtige Regulierung fast aller Lebensbereiche instrumentalisiert werden. In diesem pessimistischen, aber vielleicht nicht unrealistischen Szenario, würde die Klimaforschung die gegenwärtige Aufmerksamkeit der Öffentlichkeit verlieren – trotz eines langen Feuerwerks immer wieder neu entdeckter Gefahren und in Aussicht gestellter Weltuntergänge. Am Ende stünde ein Rückzug auf die von den Wetterdiensten betriebenen Überwachungsaufgaben, spannende Nischenforschung im Elfenbeinturm und versprengte übriggebliebene Alarmisten.“

================================================================

SPIEGELonline berichtet von angeblichen bzw. angeberischen „Polarforschern“, die im Frühjahr gegen den Kältetod kämpfen. Eigentlich waren sie im Februar losgezogen, um nach Zeichen der globalen Erwärmung zu suchen. Mein Freund und Kollege Ulli Kulke hat die ganze Geschichte in der WELT als ebenso dreiste wie gedankenlose PR-Masche entlarvt. (20. März 2009)

=================================================================

In Kopenhagen trafen sich 2000 so genannte „führende Klimaforscher“, um der politischen Klasse und dem gemeinen Volk klar zu machen, dass es keine Ausrede vor der Unterwerfung unter die globale Kohlenstoff-Rationierung (sprich: Öko-Diktatur) gibt. Statt die Erkenntnis hervorzuheben, dass die globale Durchschnittstemeperatur mindestens um 6 Grad Celsius steigen müsste, um das Grönlandeis nachhaltig zum Schmelzen zu bringen (was dann übrigens mehr als tausend Jahre in Anspruch nähme), greift SPIEGELonline am 11. März 2009 mit der Überschrift „Meeresspiegelanstieg wird sich beschleunigen“ die Warnungen von der politischen Dressurelite gehätschelter Außenseiter wie Prof. Stefan Rahmstorf vom Potsdam Institut für „Klimafolgenfoschung“ (PIK) auf. Am 12. März legte das Online-Magazin nach, indem es die Warnung des esoterischen Chefs des PIK, Hans Joachim Schellnhuber, nicht mit der Erde Roulette zu spielen, zitiert. Folgte man Schellnhuber, müsste man die menschliche Zivilisation abschaffen. Die hinter der Kopenhagener Konferenz stehende Absicht ist klar: Weil die Fortschreibung des Kyoto-Protokolls auf der nächsten UN-Klimakonferenz Ende 2009 in Kopenhagen angesichts der Wirtschaftskrise und der starken Wiederausdehnung des Arktis-Eises auf der Kippe steht, mobilisieren die, deren Geschäftsmodell von der Klimakatastrophen-Angst abhängt, von Torschlusspanik ergriffen, ihr letztes Aufgebot.

Das Europäische Institut für Klima und Energie (EIKE), in Jena hat auf seiner Website unter dem Titel „Medienflops: Medien-Enten über Klima & Energie“ eine aktuelle Liste geplatzter Klima-Lügen in der deutschen Presse zusammengestellt. Es handelt sich um eine insgesamt 40-seitige fachmännische Bewertung irreführender Pressemeldungen über Klimafragen aus der Feder von Michael Limburg (Dipl.-Ing.), Prof. Dr. Horst-Joachim Lüdecke (Diplom-Physiker) und Klaus-Eckart Puls (Dipl.-Meteorologe). Ich empfehle den Besuchern meiner Website dringend den Download des pdf-Dokuments. (9. März 2009)

===================================================================

US-Geologe Don Easterbrook erwartet Jahrzehnte lange Abkühlung

Auf der diesjährigen kritischen Klima-Konferenz des Heartland Instituts in New York erklärte der emeritierte Geologieprofessor Don J. Easterbrook aufgrund einer Analyse zyklischer Entwicklungen in der Vergangenheit, warum die Erde am Beginn einer längeren Abkühlungsperiode steht. (11. März 2009)

=================================================================

US-Klimaforscher erwarten, dass die globale Erwärmung eine 30-jährige Pause einlegt

Vor allem in Nordamerika, zum Teil aber auch in Europa hat der Winter 2008/2009 den seit Beginn des neuen Jahrtausends beobachtbaren Trend zur Stagnation, wenn nicht zu einem leichten Absinken der Kurve der glpobalen Durchschnittstemperatur bestätigt. Eine Anfang März in Washington angesetzte große Demonstration „grüner“ NGOs gegen den Bau von Kohlekraftwerken und für eine Verstärkung des Kampfes gegen die „globale Erwärmung“ musste in Wirklichkeit gegen einen heftigen Schneesturm ankämpfen und bekam wenig Zulauf. Wie „Discovery News“ meldet, erwarten US-Wissenschaftler wie Kyle Swanson von der University of Wisconsin-Milwaukee, dass der Abkühlungstrend noch 30 Jahre anhalten wird. (3. März 2009)

===============================================================

Das britische Met Office fürchtet, nicht mehr erntgenommen zu werden

Wissenschaftler vom britischen Headley Center, die bislang maßgeblich daran beteiligt waren, die Hysterie über einen drohenden Hitzetod der Erde zu schüren, warnen neuerdings davor, Naturerscheinungen wie das zeitweise Schrumpfen des Arktis-Eises der angeblich von Menschen verursachten globalen Erwärmung zuzuschreiben. Denn es ist unübersehbar, dass sich die Eisbedeckung rund um den Nordpol in diesem Winter wieder über das Vorjahresniveau ausgedehnt hat und dass das Abschmelzen des Grönland-Eises zum Erliegen gekommen ist. So macht die britische Meteorologin Dr. Vicky Pope auf der Website des linken „Guardian“ ihre Kollegen darauf aufmerksam, dass das Schwanken der Eisbedeckung der Arktis höchstwahrsceinlich natürliche Ursachen hat und nicht auf menschliche Einflüsse zurückgeht. Sie fürchtet, eine Fehlinterpretation von Naturerscheinungen arbeite letztlich den „Skeptikern“ in die Hände. Das könne die an einem seidenen Faden hängende Fortschreibung des Kyoto-Protokolls zum Ende dieses Jahres auf der Klimakonferenz von Kopenhagen gefährden. (11. Februar 2009)

=============================================================

Joachim Müller Jung führt in der FAZ vor, wie die am Staatstropf hängende Zunft der Computer-Klimatologen lückenhafte und inexitente Messdaten aus der Antarktis so zurecht biegt, dass sie die verstiegene These einer vom Menschen gemachten Erderwärmung scheinbar stützen. Zum Glück zeigen etliche der auf dem FAZ-Blog eingegangenen Diskussionsbeiträge, dass die Wirklichkeit anders aussieht.

Versicherungsschäden 2008: Kein Einfluss des klimawandels feststellbar. Doch Münchner Rück und Kanzlerinberater Schellnhuber interpretieren die Rangfolge der Versicherungsschäden, wie es ihnen in den Kram passt.

============================================================

Michael Crichton zu früh verstorben

Der bekannte amerikanische Thriller-Autor Michael Crichton ist am 4. November 2008 in seinem Haus in Los Angeles im Alter von 66 Jahren einem Krebsleiden erlegen. Der Hüne Crichton war nicht nur ein hoch qualifizierter Mediziner, der durchaus auch als Universitätsprofessor hätte Karriere machen können, sondern hatte auch einen profunden Überblick über den Stand der naturwissenschaftlichen Forschung. Das kam ihm zugute bei seinem 2004/2005 veröffentlichten Thriller-Roman „Welt in Angst“, in dem er zeigt, dass die „Klimapolitik“ auf einer menschenfeindlichen politischen Religion fußt, die mindestens so gefährlich ist wie die Rassenlehre der Nazis. Mit diesem Roman hat sich Crichton die Feindschaft der Grünen aller Schattierung in Politik und Medien zugezogen. Sie verhinderten, dass der Roman in Hollywood verfilmt wurde. Eine detaillierte Besprechung von „Welt in Angst“ finden Sie im Untermenü „Für Sie gelesen…“.

==========================================================

Mein Freund Ernst Georg Beck hat auf der Jahreshauptversammlung des BLS Bundesverband für Landschaftsschutz am 25. Oktober 2008 in Köln die Indizien zusammengefasst, die für eine globale Abkühlung sprechen.

An anderer Stelle entlarvt Der Freiburger Biologe die jüngsten Warnungen vor einer dramatischen Aufheizung der Arktis als dreisten Wissenschaftsbetrug. Wohin die Entwicklung wirklich geht, zeigt das Wiederanwachsen von Gletschern in Alaska nach einem außerordentlich kühlen Sommer.

===========================================================

Der Leipziger FDP-Europa-Abgeordnete Holger Krahmer fordert eine Aussetzung des „Klimapaketes“ der EU

===========================================================

FAZ liefert ein aufschlussreiches Porträt des „Temperaturfühlers“ Hans-Joachim Schellnhuber

Ich bin der FAZ dankbar dafür, dass sie uns solche Einblicke in die Denkweise von Top-Beratern unserer Kanzlerin gewährt. Ich möchte keineswegs die Wunderkind-Eigenschaften von Herrn Schellnhuber, seine außerordentliche Begabung für einen bestimmten Zweig der theoretischen Physik in Zweifel ziehen. Doch die Füße auf der Erde hat er nicht. Seine Vorstellung, durch ein globales Management den Anstieg der Durchschnittstemperatur über den Landmassen der Erde auf 2 Grad Celsius begrenzen zu können, kann man nur als esoterisch bezeichnen. So funktioniert unsere Welt, kosmische Dimensionen eingeschlossen, einfach nicht! Es dürfte kein Zufall sein, dass es kaum Geologen gibt, die Schellnhubers Argumentation folgen. Sehr zu empfehlen in diesem Zusammenhang das Buch des niederländischen Geologen Salomon Kroonenberg (Darmstadt, 2008).

Die Ratschläge Schellnhubers dürften dafür mitverantwortlich sein, dass Frau Merkel den Klimawandel noch immer für bedrohlicher hält als die auf uns zukommende Energieverteuerung durch wachsende Abhängigkeit von der unberechenbaren Politik autoritärer Regimes. Inzwischen hat zumindest der britische Wirtschaftsminister John Hutton klar erkannt, dass die Frage der Energiesicherheit wichtiger ist als das Klima.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Heidelberger Kernphysiker rügt deutsche Medien wegen irreführender Darstellung der Klima-Problematik

Der in Heidelberg lebende und früher in Saarbrücken lehrende Kernphysiker und Buchautor Prof. Dr. Horst-Joachim Lüdecke sah sich nach der Lektüre vieler -der gängigen Irrlehre vom menschengemachten Klimawandel folgenden- Artikel im ehemals wirtschaftsliberalen Handelsblatt veranlaßt, einen richtigstellenden ausführlichen Leserbrief an den verantwortlichen Wissenschaftsautor Ferdinand Knauß zu schreiben. Weil die Vorgehensweise des Herrn Knauß beispielhaft für ganze Heerschaaren von Vertretern der Medienzunft steht, haben wir uns entschlossen den ganzen Brief zu veröffentlichen. Er steht online beim Europäischen Institut für Klima und Energie (EIKE), Jena.

Vorab nur eine kleine Auswahl der wichtigsten Aussagen:

* Sie geben als Motivation für Ihre oben genannten Artikel und Ihr Engagement in Sachen Klimaschutz Verantwortung für Umwelt und Nachkommen an. Weil ich diese Haltung teile, habe ich mir die Mühe gemacht, Ihre Artikel anzusehen. Als Folge drängen sich mir allerdings, ich bitte sehr um Ihre Nachsicht, folgende Fragen auf: ist es unzureichendes Recherchieren, journalistisches Reiten auf der Klima-Katastrophenwelle, der verlängerte Propaganda-Arm des PIK, doch ehrliches Engagement für unsere Umwelt oder die Vorgabe der Handelsblatt -Redaktion, was Ihre Beiträge steuert?

* Zunächst die Fakten, die Sie größtenteils auch in den wissenschaftlichen Berichten des IPCC nachlesen können und sollten (natürlich nicht in den Summaries for Policymakers): Bis vor etwa 12 000 Jahren war das europäische Klima von starken, kurzfristigen Änderungen geprägt, die mehrere Celsius-Grade in einem Menschenleben erreichen konnten. Danach wurde es gleichmäßiger. Es gab aber immer noch Warm- und Kaltzeiten, etwa das warme mittelalterliche Klimaoptimum (Erwärmung = Optimum, nicht Pessimum, erstaunlicherweise darf man dies noch schreiben) oder die kleine Eiszeit im 17. Jahrhundert. Im 20. Jahrhundert setzte wieder eine Erwärmungsphase ein, die seit einem knappen Jahrzehnt, in dem es sich erneut abkühlte(!), inzwischen beendet scheint.

* Da es anthropogenes CO2 praktisch erst seit 100 Jahren gibt, stellt sich die Frage, ob es für die jüngste Erwärmung verantwortlich war. Die Größenordnung der Erwärmung, insgesamt ca. 0,6 Grad in 100 Jahren, passt mit der etablierten Atmosphärenphysik bei viel gutem Willen und Augenzudrücken grob zusammen. Das IPCC gibt sogar eine logarithmische Formel an (www.ipcc.ch, report 2001, the scientific basis, TAR-06.pdf, S. 358, Tab. 6.2), die die globale Temperaturerhöhung mit der gemessenen CO2- Konzentrationszunahme der Luft verknüpft. Diese Formel liefert im Übrigen noch nicht einmal dann katastrophale Temperaturen, wenn wir alle verfügbaren fossile Brennstoffe der Erde verfeuern würden.

* Mit der Infrarotabsorption des CO2 ist es in einem extrem vereinfachten Bild wie mit einem schwarzen Tuch zum Zweck der Verdunkelung. Hängen Sie noch ein weiteres schwarzes Tuch davor (=Verdoppelung der CO2-Konzentration), wird es nicht noch dunkler. Schlussendlich bemerkenswert: Der Verlauf der nordhemisphärischen Temperaturen mit ihren Zu- und Abnahmen im 20., einschließlich dem begonnenen 21. Jahrhundert, passt mit dem stetig zunehmenden CO2 überhaupt nicht zusammen. Auf der Südhalbkugel gibt es ferner große Zonen, die sich abgekühlt haben, während sich die Nordhalbkugel erwärmte. Niemand kann dies schlüssig erklären, zu steigenden CO2-Konzentrationen passt dieses Phänomen ebenfalls nicht.

*Wir bewegen uns bis heute in Klimaverhältnissen, die absolut im natürlichen Bereich liegen. Ungewöhnliche Zunahmen von Meerespiegelhöhen oder von Extremwettern gibt es bis heute ebenfalls nicht. In einem schon länger zurückliegenden, kontroversen E-Mail-Austausch mit Kollegen Rahmstorf (nur Prof.-Kollege, ich bin von Haus aus Kernphysiker und kein Klimaspezialist), in dem ich ihn aufforderte, die Fakten über die gegenwärtig nicht vorhandenen Meeresspiegelanstiege der Öffentlichkeit doch bitteschön einmal unmissverständlich mitzuteilen, schrieb er mir „wir erwarten diese Anstiege“. Respekt! Erwarten kann man viel, dazu weiter unten mehr. Um übrigens keine Missverständnisse aufkommen zu lassen: Man beobachtet seit 150 Jahren, also seit es ordentliche Messungen gibt, natürliche Meeresspiegelanstiege von grob 2 mm pro Jahr, die mit anthropogenem CO2 nichts zu tun haben. Auch die neuesten Satellitenmessungen zeigen hiervon keine maßgebenden Abweichungen.

* Die von Rahmstorf gerne zitierten Fingerprints, die die Schuld des Menschen beweisen sollen, sind im Übrigen netter statistischer Unfug. Ich garantiere Ihnen, sehr geehrter Herr Knauß, fast jedes Phänomen, von steigenden Scheidungsraten bis hin zu steigenden Flugkilometern, mit anthropogenem CO2 und der Klimaerwärmung in Fingerprint-Zusammenhang bringen zu können. Da Anfang des vorigen Jahrhunderts die Geburtenraten zu- und die Storchpopulationen abgenommen haben, werden wohl auch die Babys vom Storch gebracht. Propagandisten wie Rahmstorf verschweigen, dass zu einer gesicherten Statistik immer zwei Dinge gehören, ein nachgewiesener Mechanismus (der hier fehlt) und eine saubere mathematische Korrelation.

* Die „Klimaprojektionen“ in den IPCC Summaries for Policymakers, die bis zum Jahre 2100 im Höchstfall von mehreren Graden Temperatursteigerungen künden, sind reine Zukunftsvisionen. Sie haben keine Messungen sondern fiktive Klima-Computer-Modellrechnungen zur Grundlage, die ihre Zuverlässigkeit noch nicht einmal für die Klimavergangenheit unter Beweis stellen konnten. Die viel einfacheren Wettermodelle sind höchstens über wenige Wochen hinaus zuverlässig. Aber „Klima- Computer-Projektionen“ über Zeiträume bis 100 Jahren soll man ernst nehmen? Klima-Computer-Modelle beruhen auf den Vorstellungen der Programmierer und nur zum Teil auf ordentlicher, nachprüfbarer Physik. Rückkoppelungsmechanismen, Tipping-Points und weitere, durch keinerlei Messungen belegte Fiktionen werden in diesen Modellen bemüht, um irgend etwas Katastrophales zusammenzukratzen. Die IPCC- Politik wünscht es so.(siehe auch hier)

* Ich bin mit vielen Physik-Professoren-Kollegen von Universitäten und FH’s befreundet bzw. näher bekannt. Keiner von ihnen, das darf ich Ihnen versichern, nimmt die zur Zeit herrschende CO2- Hysterie ernst; überwiegend amüsiert man sich königlich über den Unsinn. Die maßgebenden Politiker nehmen die Sache wohl auch kaum ernst und Frau Merkel als promovierte Dipl.-Physikerin ihr lautstark verkündetes Zulassen von höchstens weiteren 2 Grad globaler Erwärmung schon gar nicht. Für die Politik ist die Geschichte natürlich zu wichtig geworden.

* Ihr Argument, auch bei zugegebener Unsicherheit sei die Sache zu wichtig und koste doch nur einen vernachlässigbaren volkswirtschaftlichen Anteil, können Sie bei Beachtung der Grundrechenarten und dem täglichen Blick in die Zeitungen doch wohl nicht ernst meinen. Der deutsche Windrad- und Photovoltaik-Wahnsinn ist erst ein Anfang, hat den Steuerzahler bereits Milliarden gekostet, wird unsere Volkswirtschaft zunehmend schädigen, unsere in der Vergangenheit zuverlässige Energieversorgung zunehmend gefährden und Mittel von wirklich notwendigen Umweltschutzmaßnahmen abziehen.

*Das PIK als politische Proposal-Institution wird von keinem Fachmann unter vier Augen mehr ernst genommen. Es hat seinen wissenschaftlichen Ruf durch seine politische Klima-Propaganda gründlich ruiniert. Da PIK-Professor Schellnhuber „persönlicher Klimaberater“ unserer Kanzlerin ist, können Sie sich in Klimafragen besser gleich bei der CDU-Fraktion informieren. Schellnhuber und Rahmstorf majorisieren ferner das WBGU (wiss. Beirat der Bundesregierung für globale Umweltveränderungen). Besonders vielsagend ist die Wende dieses Beirats nach 1997. Im WBGU-Bericht von 1997 können Sie noch wörtlich nachlesen, ein Einfluss des anthropogenen CO2 auf Klimawerte sei nicht nachweisbar.

* Und nun zu dem immer wieder beschworenen „Konsens“ der Fachwelt: Ich verweise hierzu auf die aktuelle Diskussion in der US-Amerikanischen physikalischen Gesellschaft, die zeigt, dass Zehntausende von Physikern, deren Zahl um mindestens den Faktor 10 höher ist, als die Anzahl der am IPCC-Prozess beteiligten Forscher, mit der Klimaschädlichkeit des anthropogenen CO2 keineswegs einverstanden sind. Zu nennen sind weiter die ICSC (International Climate Science Coalition) und schlussendlich die vielen wissenschaftlichen Manifeste gegen die IPCC-Hypothese, wie der Heidelberger Aufruf, das Leipziger Manifest, die Kanadische Petition und die Oregon Petition – es haben auch Nobelpreisträger mitunterschrieben, sie ebenfalls auf der Internetpräsentation des EIKE finden.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

International Climate Science Coalition (ICSC)

Hunderte unterzeichnen realistische Klima-Erklärung – „Die globale Erwärmung“ ist keine weltweite Krise

22.04.2008 | 22:29 Uhr

Ottawa, Kanada (ots/PRNewswire) – – Die „International Climate Science Coalition“ veröffentlicht Unterzeichner der „Manhattan-Erklärung zum Klimawandel“

Die „International Climate Science Coalition“ (ICSC) gab heute die Namen von mehr als 500 Unterstützern der „Manhattan-Erklärung zum Klimawandel“ („Manhattan Declaration on Climate Change“) bekannt, die weltweite Führungspersönlichkeiten dazu aufruft, „die Auffassungen des zwischenstaatlichen Ausschusses für Klimaänderungen der Vereinten Nationen („United Nations Intergovernmental Panel on Climate Change“ – IPCC) sowie populäre, aber irreführende Arbeiten wie „Eine unbequeme Wahrheit“ („An Inconvenient Truth“) zurückzuweisen.“ Alle Steuern, Gesetze und andere Eingriffe mit dem Ziel der Reduktion von Kohlendioxid-Emissionen (CO2) sollten „unverzüglich abgeschafft“ werden, lassen die Unterzeichner verlauten.

Die Liste der Unterstützer umfasst weltweit führende Klimaforscher, Wirtschaftsexperten, Entscheidungsträger, Ingenieure, Führungspersönlichkeiten aus der Wirtschaft, Mediziner sowie andere Experten und besorgte Bürger aus zwei Dutzend Ländern. Hier der vollständige Text der Erklärung, die Unterstützerlisten und internationalen Medienkontakte für Expertenkommentare

Die vielleicht wichtigsten Aussagen der Erklärung sind:

– „Es besteht kein überzeugender Beweis dafür, dass die CO2-Emissionen der modernen, industriellen Aktivität in der Vergangenheit, in der Gegenwart, oder in der Zukunft einen katastrophalen Klimawandel verursachen.“

– „Versuche von Regierungen, teure Vorschriften über Industrie und den einzelnen Bürger zu verhängen, um die CO2-Reduktion zu fördern, werden die Entwicklung verlangsamen, ohne einen sinnvollen Einfluss auf den künftigen Verlauf des weltweiten Klimawandels zu haben. Solche Strategien werden die künftige Prosperität spürbar verringern und damit die Fähigkeit der Gesellschaften einschränken, sich an die unabänderliche Klimaänderung anzupassen und dadurch das menschliche Leid vergrössern, nicht verringern.“

„So wie das Manhattan-Projekt eine Schlüsselrolle für das Ende des Zweiten Weltkriegs war, so wird die „Manhattan-Erklärung zum Klimawandel“ eines Tages als ein essentieller Katalysator betrachtet werden, der dazu beigetragen hat, die heutige Klima-Hysterie zu beenden“, sagte das Mitglied des Wissenschaftsbeirats der ICSC, Professor Bob Carter von der James Cook University in Australien. „Der Schutz der Umwelt ist äusserst wichtig und daher muss die Umweltpolitik auf unserem besten Verständnis von Wissenschaft und Technologie basieren, verbunden mit einer realistischen Einschätzung der relevanten Optionen für Wirtschaft und Politik. Dies findet in der Klimadebatte nicht statt.“

Der Vorsitzende der ICSC, Professor Tim Patterson von der Carleton University in Ottawa (Kanada) erklärt: „Anstatt Milliarden durch die Restriktion von CO2-Emissionen zu verschwenden, einem lebenswichtigen Gas, von dem alles Leben abhängt, müssen sich die Regierungen darauf konzentrieren, bekannte Umweltprobleme zu lösen, auf die wir einen Einfluss haben – Luft-, Land- und Wasserverschmutzung sind bekannte Beispiele dafür.“

Die ICSC ist eine Vereinigung von Wissenschaftlern, Ökonomen und Experten für Energie und Politik, die sich für ein besseres Verständnis der Öffentlichkeit hinsichtlich des Klimawandels einsetzen. Die ICSC liefert eine Analyse von Klimaforschungs- und politischen Themen, die unabhängig von Lobbys und etablierten politischen Interessen eine Alternative zu den Empfehlungen des IPCC darstellt. Die ICSC unterstützt daher eine rationale, wissenschaftlich begründete, offene Diskussion aller Themen rund um das Klima.

Für weitere Informationen über die „Manhattan-Erklärung“ oder die ICSC besuchen Sie climatescienceinternational.org oder kontaktieren Sie: Tom Harris, B. Eng., M. Eng., Executive Director, International Climate Science Coalition, P.O. Box 23013, Ottawa, Kanada, K1A 4E2, +1-613-728-9200, E-Mail: tom.harris@climatescienceinternational.net; oder Professor Robert M. Carter, Ph.D., Marine Geophysical Laboratory, James Cook University, Townsville, Qld., 4811, AUSTRALIEN, Telefon: +61-7-4781-4397, Priv.: +61-7-4775-1268, Mobil: +61(0)419-701-139, E-Mail: bob.carter@jcu.edu.au; Web: members.iinet

Pressekontakt:

Für weitere Informationen über die „Manhattan-Erklärung“ oder die ICSC besuchen Sie climatescienceinternational.org oder kontaktieren Sie: Tom Harris, B. Eng., M. Eng., Executive Director, International Climate Science Coalition, P.O. Box 23013, Ottawa, Kanada, K1A 4E2, +1-613-728-9200, E-Mail:

tom.harris@climatescienceinternational.net; oder Professor Robert M. Carter, Ph.D., Marine Geophysical Laboratory, James Cook University, Townsville, Qld., 4811, AUSTRALIEN, Telefon: +61-7-4781-4397, Privat:

+61-7-4775-1268, Mobil: +61(0)419-701-139, E-Mail: bob.carter@jcu.edu.au

Und hier der NIPCC-Bericht Nature, not Human Activity, Rules the Climate. Eine deutsche Übersetzung ist unter dem Titel „Die Natur, nicht menschliche Aktivität bestimmt das Klima“ beim TvR Medienverlag, Jena 2008 erschienen.

Meinen Bericht über die Konferenz finden Sie unter dem Titel Klimaskeptiker auf verlorenem Posten? weiter unten.

Dazu mein Kommentar:

Krieg der Meme

Die letzte Woche am New Yorker Broadway über die Bühne gegangene Klima-Konferenz der „Skeptiker“ mit über 100 Fachvorträgen renommierter Atmosphären-, Meeres- und Polarforscher zeigte meines Erachtens, dass die Beweislage gegen eine nennenswerte Beteiligung des allenthalben verteufelten Kohlenstoffdioxids (CO2) an der Erderwärmung immer erdrückender wird. Denn es wird auf der Erde seit einigen Jahren wieder kühler. Schade, dass in der deutschen Presse darüber kaum berichtet wurde. Von dem in den Massenmedien so oft bemühten „Konsens“ über die Rolle des CO2 im Wettergeschehen kann jedenfalls nicht die Rede sein, wenn sich so viele Spitzenforscher offen von der offiziellen Lehrmeinung des UN-Klimarates IPCC distanzieren.

Das Wort „Konsens“ hat in der Wissenschaft ohnehin nichts zu suchen. Hier geht es nach Karl R. Popper nicht um die konsensuale Absegnung endgültiger Wahrheiten, sondern um die „Refutation“ von Hypothesen mithilfe intelligenter Experimente und kritischer Dispute. Basis eines wirklichen Konsenses im Alltag wie in der großen Politik kann nach Hannah Arendt nur der gesunde Menschenverstand sein. Und Grundlage eines halbwegs dauerhaften Friedens zwischen Menschen unterschiedlicher Weltanschauung können nur produktive Missverständnisse sein. Ich meine: Es handelt sich bei der Auseinandersetzung zwischen „Klimaskeptikern“ und den Verfechtern der IPCC-Position nicht um einen wissenschaftlichen Disput, sondern um einen neuen Kalten Krieg zwischen Freiheit und Kollektivismus mit den Waffen der politischen Memetik. Dabei geht es darum, mithilfe von Tricks möglichst viele eigene Meme (Glaubenssätze, Symbole, Info-Viren) in die Hirne der Gegenseite zu schleusen, um sie von innen aufzuweichen. Die Urväter von Greenpeace nennen diese Meme treffend Mind Bombs.

Wenn die freiheitsliebenden „Klimaskeptiker“ im politischen Prozess vorankommen wollen, dürfen sie m. E. nicht die von der Gegenseite erfundenen Begriffe und Schlagwörter wie „ökologisches Gleichgewicht“, „Treibhauseffekt“ und „Kohlenstoff-Gerechtigkeit“ oder auch „soziale Gerechtigkeit“ verwenden. Denn diese Begriffe setzen voraus, dass wir in einer geschlossenen Welt leben. Die reale Welt ist aber offen: sowohl im Hinblick auf die Sonne und das Weltall als auch auf die Zukunft. Ein Liberaler, der sich darauf einlässt, mit einem Sozialisten über „soziale Gerechtigkeit“ zu diskutieren, hat also schon verloren. Erkannt hat das der gerade wiedergewählte tschechische Staatspräsident Václav Klaus, der in seiner mit stehenden Ovationen begleiteten Rede auf der New Yorker Konferenz darauf hinwies, es gehe im Streit mit dem IPCC gar nicht in erster Linie um das Klima, sondern um die Freiheit. (31. März 2008)

============================================================

Treibhauseffekt nicht nachgewiesen

Es gibt keine einzige wissenschaftliche Arbeit, die klipp und klar zeigt, ob und wie das Spurengas Kohlenstoffdioxid (CO2) atmosphärische Vorgänge beeinflusst. Es wurden für den Nachweis des „Treibhauseffekts“ auf beiden Seiten des Atlantik lukrative Geldpreise ausgesetzt. Doch niemand hat sich bislang dafür beworben.

Das zeigt: Der „Treibhaus