Interventions françaises

Nous ne savons pas si le léger réchauffement terrestre depuis les années 1970 va se poursuivre ou si nous devons faire face à un nouveau Petit Age Glaciaire annoncé par des astronomes russes. Sous cette condition, il paraît irresponsable de concentrer toute la politique coûte que coûte sur la réduction des émissions de CO2. Or le „Grenelle de l’environnement“ préconise toute une série de mesures qui meneraient à un appauvrissement généralisé.

Bellevue 1910

par Edgar Gärtner

L’occident va tomber 100 ans en arrière

Ce que suit n’est pas un récit touristique sur le restaurant « Bellevue 1910 » dans la tour de l’Empereur Guillaume sur une lande en Allemagne de l’Est mais un bref regard sur un avenir possible. L’idée m’est venue quand un vieil ami qui souffre d’un cancer inguérissable m’a appelé dans mon bistrot préféré. « Edgar, il m’a prédit, tu vas voir que malgré tout l’activisme politique allant jusqu’à la nationalisation partielle ou complète des grandes banques le secteur financier va finir par s’effondrer. L’occident va tomber cent ans en arrière. »

Je dois avouer que ce pronostique qui me paraît trop sombre au premier égard ne m’a pas vraiment effrayé. Ceux qui aiment la liberté de foi et de décision vont facilement comprendre pourquoi la perspective d’un retour au « Monde d’hier » merveilleusement décrit dans un roman sous le même titre par l’écrivain autrichien Stefan Zweig ne me fait guère peur, mais au contraire me paraît plutôt sympa. Car en 1910, on pouvait vivre agréablement – pourvu que l’on appartienne aux couches sociales qui pouvaient s’offrir des domestiques. Mais même la perspective de retourner au statut de domestique ne devrait plus guère inquiéter nos salariés depuis que l’Union Européenne dans sa « politique du climat » a laissé entendre que dans la future économie close „pauvre en carbone“ il n’y aurait, pour le commun des mortels, que le rôle de subalterne qui s’occupe jour et nuit, sur l’ordre des autorités, de la réduction de ses émissions de gaz carbonique.

Dans le « Monde d’hier » qui a péri pendant la Première Guerre Mondiale, les gens savaient encore prier et dire la vérité quand ils se sont trouvés confrontés à des problèmes difficiles ou impossibles à resoudre. Enfin la période avant la Première Guerre Mondiale nous est racontée, malgré une série de crises, comme un âge d’or, parce qu’alors la monnaie était encore assurée par son contrepoids en or. Ce qui a permis de conclure des contrats valables mondialement sans assistance politique. La Première Guerre Mondiale a mis fin de façon abrupte à cet âge d’or de la mondialisation car, pour financer le massacre dans les trachées, un gouvernement après l’autre a abandonné le standard d’or.

Si mon inguérissable ami avait raison la perte progressive de confiance dans la fabrication de monnaie en papier par les banques centrales devrait augmenter la chance d’un retour rapide au standard de l’or. Et moi, je pourrais me réjouir de la permission à montrer à tout le monde que je suis profondement réactionnaire. Dommage (ou heureusement ?) que dans l’histoire réelle il n’y ait pas de ticket aller-retour.

(paru le 14 octobre dans le quotidien allemand DIE WELT)

===========================================================

Marcel Leroux est mort

Mon ami, le climatologue Marcel Leroux, vient de mourir, le 12 août 2008, suite à une longue maladie dans une clinique marseillaise. J’ai publié, le même jour, sur un site web libértaire une nécrologie en Allemand.

L’ingenieur à la retraite Charles Vernin, un ami de Marcel plus intime que moi-même, a fait circuler le

bulletin suivant:

Marcel LEROUX nous a quittés prématurément le 12 août 2008, emporté par un cancer.

Marcel LEROUX a consacré sa vie à la climatologie, et la climatologie était sa vie.

C’était un travailleur acharné, et, malgré la maladie, il a terminé la 3ème édition de son livre phare:

„LA DYNAMIQUE DU TEMPS ET DU CLIMAT“.

Pour lui, la climatologie est une science de l’observation, et, à ce titre, les images satellites, qui donnent accès en temps réel à la circulation atmosphérique, sont incontournables.

Il a ainsi construit un schéma de circulation de l’atmosphère où les masses d’air polaires – les Anticyclones Mobiles Polaires – jouent un rôle prépondérant.

Ce schéma nouveau qu’un non-spécialiste peut comprendre, a été accueilli parfois avec scepticisme, voire dérision, car il bousculait maintes idées considérées comme acquises.

Il n’empêche qu’actuellement, ce schéma est progressivement adopté, car il réconcilie météo et climat, et explique la dynamique du temps et du climat à toutes les échelles de phénomènes d’espace et de temps (Marcel LEROUX- 2000)

Ceux qui veulent en savoir plus peuvent consulter le site de l’ICRE.

Laboratoire de Climatologie de Lyon CNRS-UNIV LYON 3,

Marcel LEROUX : la Dynamique du Temps et du Climat (Masson Sciences).

Charles Vernin

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

José Bové très efficace

Le SMIC ne réduit pas les inégalités

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

En ce qui concerne le débat sur les origines, la direction et les conséquences du changement climatique, je recommande le site d’un physicien, ex-directeur au CNRS, qui ne peut pas révéler son vrai nom: Pensée unique.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

C’est sous le titre Grenelle de l’environnement – Waterloo du logement ? que L’ingenieur Vincent Bénard de l’Institut Hayek à Bruxelles analyse les méfaits attendus des mesures préconisés par les pourparlers du „Grenelle de l’environnement“ mises en route par le gouvernement de Nicolas Sarkozy.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Prix Nobel de guerre

Ce n’est pas la première fois que le Prix Nobel de la Paix va à un truand. On s’en souvient bien de Yassir Arafat et d’autres. Mais le discernement de ce prix à l’ancien Vize-Président américain Al Gore fait déborder le vase. Pour en savoir plus, lisez s.v.p. l’analyse de Vincent Bénard de l’institut Hayek ci-bas. Pour exprimer votre inquiétude face à cette manipulation de l’opinion publique, signez le „Manifeste de Heiligenroth.“

Pourquoi fais-je allusion à la guerre? C’est Pierre-Joseph Proudhon, l’honnête ouvrier et sociologue anarchiste de Besançon, qui, un jour, déclarait que parler de l’Humanité c’est vouloir tromper le monde. Le grand juriste allemand Carl Schmitt a repris ce dicton dans son fameux livre « La Notion de Politique » de 1932 : Celui qui s’érige en défenseur des intérêts de l’humanité met „hors-la-loi“ tous ses adversaires et leur déclare la guerre totale.

Al Gore: le prix Nobel est une ordure ?

par Vincent Bénard (Institut Hayek)

L’attribution du prix Nobel de la Paix 2007 à l’ex vice-président des USA, Al Gore, ainsi qu’au GIEC en tant qu’organisation, apparaît à de multiples points de vue comme une erreur majeure du comité Nobel, dont on se demande quels sont les ressorts qui l’animent.

Selon le communiqué de presse, ce prix est attribué en récompense „de leurs efforts pour constituer et répandre la connaissance scientifique à propos du changement climatique induit par l’homme, et pour poser les fondations des mesures à prendre pour contrer ces changements“.

Le comité Nobel remet chaque année des prix scientifiques (médecine, physique, chimie,économie etc…). Il sait donc ce que signifie „bâtir et répandre la connaissance scientifique“. On se demande donc avec quel sérieux le dossier du GIEC, et plus encore d’Al Gore, ont été étudiés par cette instance plus que centenaire, car ce que ce monsieur cherche à répandre ne s’apparente en rien à de la connaissance scientifique. Au contraire, l’attitude de Gore, et d’une partie du GIEC, consiste bel et bien à faire obstacle au développement de la connaissance scientifique, en affirmant que „le débat scientifique est clos“ sur des questions ou la faiblesse des savoirs actuels est patente, et en lançant de véritables campagnes de dénigrement à l’encontre de personnalités scientifiques pourtant reconnues, au motif qu’elles osent émettre des doutes sur la validité du dogme dominant, lequel est pourtant plus que jamais remis en cause par un nombre croissant d’études scientifiques (encore un nouvel exemple ici).

Revenons à Al Gore, et à son film du même nom. Un tribunal du Royaume Uni vient de statuer sur la valeur scientifique de cette pellicule dans une affaire qui fait honneur, quelque part, aux institutions britanniques.

Le gouvernement avait décidé de demander aux écoles la projection du film d’Al Gore à tous les élèves du système scolaire. Or, un parent a décidé d’attaquer cette décision au motif qu’elle portait atteinte à l’obligation légale de l’enseignement de ne pas participer à des tentatives d’endoctrinement (curieusement, de telles dispositions n’existent pas en France). La présentation du film de Gore ne pouvait, selon ce père, s’apparenter à de l’information, mais à de la propagande, et ne pouvait être présenté aux élèves que précédé d’un avertissement sur son caractère „one sided“ et conjointement avec des points de vue opposés. (merci à Bafweb pour la traduction du jugement)

Le juge a donné raison au père, au motif que:

„Pour pouvoir diffuser ce film, (la cour décide que) le Gouvernement doit modifier le guide de diffusion aux enseignants („Guidance Notes to Teachers“) pour mettre en évidence que : 1/ le film est une oeuvre politique qui ne montre qu’un seul point de vue 2/ si les enseignants présentent le film sans le signaler clairement, ils peuvent se trouver en violation de la section 406 de l‘ Education Act 199 et coupables d‘ endoctrinement politique. 3/ Onze inexactitudes doivent être en particulier portées à l’attention des enfants des écoles“

Ces onze inexactitudes révélés par les débats qui ont eu lieu lors du jugement portent sur des affirmations infondées d’Al Gore, qui réduisent singulièrement la valeur scientifique de son „travail“.

Les inexactitudes sont :

Le film prétend que la fonte des neige au Mont Kilimandjaro est une preuve du réchauffement climatique. L’expert du Gouvernement a été forcé de reconnaître que cela n’était pas correct.

Le film suggère que les données („evidence“) des calottes glaciaires („ice cores“) prouvent que l’augmentation du CO2 entrainait une hausse des températures sur 650 000 ans. La Cour considère („found“) que le film est trompeur („misleading“) : sur cette période l’augmentation du CO2 était en retard de la hausse des températures de 800 à 2000 ans.

Le film utilise des images à forte teneur émotionnelles („emotive“) de l’ouragan Katrina et suggère que le réchauffement climatique en est la cause. L’expert du Gouvernement a du accepter que cela n’était „pas possible“ d’attribuer des évènements uniques en leur genre („one-off“) au réchauffement climatique.

Le film montre l’assèchement du Lac Tchad et prétend que cela est une conséquence du réchauffement climatique. L’expert du Gouvernement a du accepter que cela n’était pas le cas.

Le film prétend qu’une étude montre que des ours polaires se sont noyés à cause de la fonte des glaces arctiques. Il s’est révélé que Mr. Gore a mal lu („misread“) l’étude ; en réalité quatre ours polaires se sont noyés et cela était du à un orage particulièrement violent.

Le film annonce („threatens“) que le réchauffement climatique pourraient stopper le Gulf Stream et renvoyer l’Europe à l’âge de glace. Les preuves du plaignant (the Claimant’s evidence) montrent que cela est une impossibilité scientifique.

Le film accuse le réchauffement climatique d’être à l’origine de la disparition d’espèces, dont le blanchissement („bleaching) des récifs coraliens. Le Gouvernement n’a pu trouver de preuves pour corroborer cette affirmation.

Le film suggère que la calotte de glace du Groenland pourrait fondre et entraîner une hausse alarmante du niveau des mers. Les preuves montrent que le Groenland ne pourrait fondre avant des millénaires.

Le film suggère que la calotte antarctique est en train de fondre. Les preuves montrent que leur volume augmente.

Le film suggère que les mers pourraient augmenter de 7 mètres, entrainant le déplacement de millions de personnes. En réalité les preuves montrent que la hausse prévue du niveau des mers est de 40 cm sur les cent prochaines années et qu’il n’y a pas de menace d’un déplacement massif de population.

Le film prétend que la hausse du niveau des mers a causé l’évacuation de certaines îles du Pacifique en direction de la Nouvelle Zélande. Le Gouvernement n’a pas été en mesure de corroborer cela, et la Cour a noté que cela ressemblait à une fausse affirmation.

Le tribunal statue on ne peut plus clairement que de nombreuses affirmations cléfs d’Al Gore ne sont que des affirmations péremptoires dénuées de fondement scientifique.

De là à parler de propagande, il n’y a qu’un pas que pour ma part, je franchis… allègrement. On pourraît imaginer que Gore, dans un élan d’enthousiasme pour sa si noble cause (sauver la planète !), se soit laissé aveugler par ses convictions, en toute sincérité.

Gore étant un politicien professionnel, j’ai du mal à lui accorder une présomption de sincérité. Ma méfiance est renforcée par ses propres propos dans cette interview :

Question de l’interviewer : „There’s a lot of debate right now over the best way to communicate about global warming and get people motivated. Do you scare people or give them hope? What’s the right mix?“

Al Gore : „(…) I believe it is appropriate to have an over-representation of factual presentations on how dangerous it is, as a predicate for opening up the audience to listen to what the solutions are, and how hopeful it is that we are going to solve this crisis. „

La démarche de Gore est claire: il ne s’agit pas de présenter des faits et de laisser l’esprit critique des individus en conduire l’analyse, mais de maquiller les faits pour faire évoluer l’audience, en bon français, d’une manipulation parfaitement assumée par un auteur qui affiche clairement ses objectifs propagandistes. C’est cela que le comité Nobel vient de récompenser comme une contribution à la diffusion des connaissances scientifiques. Lamentable.

Dans son dernier ouvrage, „Ma vérité sur la planète“ (page 66), Claude Allègre dénonce les motivations très matérielles de Gore (qu’il traîte de „truand“), qui a organisé autour du réchauffement, je cite, „une gigantesque pompe à fric: une conférence lui rapporte 200 000 dollars de l’heure, son film au moins 50 millions“. Loin de moi l’idée de critiquer l’appât du gain, comme le fait Allègre, mais lorsque l’auteur d’une théorie à la mode, génératrice de nombreux revenus dérivés, reconnait l’emploi de procédés manipulatoires pour assurer le succès de son entreprise, alors on est en droit de se demander si M. Al Gore n’est pas tout simplement coupable d’une très lucrative tromperie vis à vis de l’humanité.

L’association britannique Scientific Alliance, dont le but est de promouvoir un vrai débat scientifique sur l’environnement, dans un communiqué de presse relatif au jugement de la haute cour exposé plus haut, constate que même des partisans les plus investis de la thèse du réchauffement climatique dû à l’homme s’interrogent sur les méthodes employées par Al Gore et son staff. Le spécialiste de l’environnement à la BBC, Roger Harrabin, fait partie de ces journalistes engagés. Toutefois, lorsqu’il a interviewé Al Gore, en bon professionnel, il a cru bon de l’obliger à approfondir certains points de son film objets de critiques scientifiques.

„Harrabin is a true believer in the anthropogenic global warming hypothesis, and makes this very clear. He presents An Inconvenient Truth as Al Gore’s attempt to counter the „often cynical“ campaign of the sceptics („many in the pay of the oil industry“). Nevertheless, as a professional journalist, he challenged Gore about misrepresentation of the historical evidence of the link between temperature and carbon dioxide level on BBC television. The reaction? „And after the interview he and his assistant stood over me shouting that my questions had been scurrilous, and implying that I was some sort of climate-sceptic traitor. It is miserable when such a vastly important debate is reduced to this.“

Des personnes sincères et certaines du bien fondé de la cause qu’elles défendent réagiraient-elles ainsi ? Lorsque l’on insulte des personnes amenant la moindre once de contestation en les affublant d’épithètes tels que „traitres“, ou, en d’autres occasions, de „négationnistes“, veut on contribuer à diffuser de la connaissance scientifique ? Ou a-t-on peur de voir ses propres insuffisances mises au jour ?

L’attitude d’Al Gore, dont internet a révélé le mode de vie très luxueux, son goût pour les voyages en jet privé, sa consommation énergétique personnelle, ne correspondent en rien au message de modération et de modification comportementale qu’il prétend vouloir faire adopter par le reste du monde. L’intolérance qu’il semble manifester en maintes occasions ne témoigne pas d’une grande confiance dans la valeur réelle de son propre propos.

Il est donc permis de se demander si Al Gore n’a pas sa place au panthéon des ordures nobélisées, aux côtés d’un Arafat ou d’un Jimmy Carter.

Espérons que les comités en charge de la remise des prix Nobel scientifiques, à commencer par ceux qui désigneront le prix d’économie ce lundi, ne sombreront pas dans la même dérive médiatique et politicienne que leurs collègues du comité d’Oslo. Espérons que les grands médias ne se borneront pas à se prosterner respectueusement devant le nouveau lauréat du prix Nobel, qu’une telle distinction pourrait élever à la dignité d’icône intouchable, mais qu’il s’en trouvera au contraire beaucoup pour s’étonner, avec force arguments, d’un choix aussi fortement contestable.

© Institut Hayek, 2007

========================================================================

Le Manifeste de Heiligenroth sur le climat

Impressum: BLS (Bundesverband Landschaftsschutz) Ferdinand Fürst zu Hohenlohe-Bartenstein, Schloß, 74575 Schrozberg,

info@klimamanifest-von-heiligenroth.de

Vouz pouvez joindre votre signature par courriel à burghard@schmanck.de

Voici l’histoire des entretiens de Heiligenroth

C’est sur l’invitation de l’architecte Dieter Krämer que quinze experts de disciplines diverses se sont rencontrés, le samedi 21 juillet 2007, à Heiligenroth (Rhénanie-Palatinat) pour le 1er Entretien de Heiligenroth sur le climat. La composition de cette réunion était fortuite. Dieter Krämer avait tout simplement convoqué des personnalités connues pour leur opposition à la multiplication des éoliennes et la manipulation politique de la climatologie. Le lieu fut choisi avec préméditation pour faire allusion au rassemblement des grands de ce monde à Heiligendamm et à la campagne médiatique qui a accompagné cet événement. Spontanément l’architecte suisse Paul Bossert et Ernst Beck, professeur de biologie à Freiburg, avaient fait venir une équipe de la télévision suisse (SF1), qui a enregistré presque toute la discussion et en a fait un petit documentaire qui a été diffusé, le 25 juillet 2007, sous le titre « La dispute sur le climat » (voir aussi l’enrégistrement vidéo sur Youtube). Les participants de cette réunion ont formulé ensemble un manifeste compact sur le climat en six points suivi d’une explication plus détaillée. Ce texte a reçu sa finition et son approbation lors de la 2ème rencontre de Heiligenroth, qui s’est tenu le 15 Septembre 2007. Ce jour-là, deux personnalités connues, le célèbre journaliste TV Günter Ederer et le Prince Ferdinand de Hohenlohe-Bartenstein, qui préside la société fédérale pour la protection des paysages, ont rejoint la table ronde.

Notre Motivation

C’est le Groupement Intergouvernemental d’Étude du Climat (GIEC) de l’ONU qui utilise des scénarios de l’évolution future du climat. Les gouvernements de la planète se sont engagés, lors du sommet mondial de Rio en 1992, de lutter contre le « changement climatique d’origine humaine». Toutes les mesures prises depuis ont été justifiées par la thèse, selon laquelle des émissions supplémentaires de CO2 dans l’atmosphère depuis la révolution industrielle du 19ème siècle ont conduit au réchauffement terrestre enregistré au 20ème siècle. Cette thèse s’appuie sur quelques rares enregistrements de températures depuis la fin du 19ème siècle, sur des dosages de la concentration de CO2 depuis le milieu du 20ème siècle et sur des simulations numériques effectuées par ordinateur.

Mais toutes les lois naturelles connues suggèrent un rapport inverse : à savoir que c’est l’augmentation de la température qui provoque la libération de CO2. Ceci peut être vérifié par l’observation des fluctuations diurnes et saisonnières. L’augmentation de la concentration de CO2 suit toujours la montée de la température avec un certain délai.

C’est pourquoi dans l’histoire du climat, depuis 600 millions d’années, il ne se trouve aucune phase de réchauffement qui pourrait être interprétée comme un effet du CO2. Actuellement la teneur moyenne de l’air ambiant en CO2 est de l’ordre de 380 ppm (parts par million). Cette concentration est si infime qu’il peut être exclu qu’elle puisse exercer une action dominante. La part d’origine humaine en est estimée à 3%. Ainsi seulement 11,4 ppm (ou 0,00114%) de l’air sont supposés être responsables de l’effet de serre. C’est physiquement impossible !

Les prévisions météorologiques ne sont guère valables plus de trois jours. Elles ne reposent pas sur le rayonnement de particules, mais sur des paramètres comme la pression, la température, l’humidité et la vitesse de l’air. 71% de la surface du globe sont couverts par l’océan, qui constitue le plus grand régulateur thermique et chimique de l’atmosphère. Par rapport à cela les influences humaines à travers l’urbanisation et l’agriculture paraissent négligeables. D’une manière simplifiée il est permis de dire que le climat est la statistique de la météo et que cette statistique est clairement influencée par des facteurs astrophysiques. Par contre l’influence humaine reste indécelable.

Des reconstructions reconnues de l’évolution de la température et de la teneur en CO2 de l’atmosphère montrent que ces deux paramètres sont complètement indépendants. La température moyenne de l’atmosphère s’élevait à +22°C, ce niveau fut interrompue de façon cyclique par quatre périodes froides. Nous vivons aujourd’hui dans une telle phase. Depuis les 600 millions d’années que la terre est dominée par la vie, la concentration moyenne du CO2 est descendue de façon irrégulière de 6.000 ppm à 380 ppm actuellement. Il semble qu’il n’y a aucune corrélation entre la concentration du CO2 et la température. Par contre, les courtes phases de réchauffement étaient toujours accompagnées d’une libération de CO2 par l’océan.

Aussi dans les 10.000 ans depuis la dernière glaciation, la température est descendue de plusieurs centigrades et a alterné assez régulièrement entre phases chaudes et froides. Pour toute cette période, le GIEC suppose une concentration constante de CO2. Ce qui prouverait que le CO2 n’exerce aucune influence sur la température moyenne.

La dernière glaciation est historiquement aussi bien documentée que les réchauffements du Moyen Age ou de l’ère romaine. Il n’y a aucun modèle numérique qui soit capable de reproduire les fluctuations climatiques des dernières 1.000, 10.000 ou 600 millions d’années.

Hannibal était capable, vers la fin du réchauffement romain, de traverser les Alpes avec ses éléphants. Les Romains ont creusé dans les Alpes des mines de fer et d’autres minerais à 2.800 mètres d’altitude. Ultérieurement, les entrées de ces galeries ont été bouchées par la glace. C’est au cours du Moyen Age et du réchauffement actuel que les trous sont réapparus. Jusqu’à nos jours le blé ne pousse pas hors des serres au Groenland, comme cela fut le cas pendant la colonisation de l’île par les Viking. Des troncs d’arbres conservés sous les glaciers et remis à jour par la fonte actuelle des glaces prouvent que la limite supérieure du boisement était autrefois beaucoup plus élevée. Depuis le Petit Age Glaciaire du 18ème siècle, les fleuves et les canaux des Pays Bas et de l’Angleterre n’ont plus été couverts de glace pour longtemps et les glaciers qui s’étaient formés alors dans les Alpes se sont retirés vers la fin du 20ème siècle. Depuis quelques années nous observons de nouveau un léger refroidissement qui est sensible surtout dans l’hémisphère Sud où les glaciers ont recommencé à croître.

Malgré sa faible teneur dans l’air le CO2 est, à travers la photosynthèse, une matière indispensable pour la croissance des plantes. C’est pourquoi nous ne pouvons pas considérer le CO2 comme polluant. Une augmentation de la concentration du CO2 et de la température favorise la croissance des végétaux et facilite l’alimentation des humains et des animaux. Les périodes chaudes de l’histoire se sont toujours avérées bénéfiques pour la qualité de la vie, l’invention de nouvelles techniques et le développement de la culture, tandis que les phases de refroidissement ont entraîné la famine et la mort.

Le projet de la lutte pour la prévention d’une « catastrophe climatique » se fonde sur des modèles biaisés, sur l’interprétation partiale de connaissances scientifiques et la discrimination de chercheurs sceptiques. Il ne justifie pas les coûteuses mesures annoncées qui nuisent à l’économie sans améliorer l’environnement.

Heiligenroth, le 15 Septembre 2007

==============================================================================

Le Gouvernement de Sarkozy lance le « Grenelle de l’environnement »

Depuis la campagne pour les élections présidentielles au printemps toute la classe politique française s’est mise au « vert » puisque tous les candidats (y compris la communiste Marie-George Buffet et le nationaliste archaïque Jean-Marie Le Pen) ont signé le « Pacte écologique » proposé par le présentateur TV « chouchou » Nicolas Hulot. Sur ce document, l’ex ministre (socialiste) de l’éducation nationale a déjà dit l’essentiel de ce qu’il faut dire (voir le compte rendu de son livre « Ma vérité sur la planète » ci-dessous). On devrait y rajouter que le « Pacte » de Nicolas Hulot ne laisse qu’une place infime à la responsabilité individuelle et au jeu du libre marché qui s’est avéré depuis longtemps comme la méthode la plus efficace pour découvrir des solutions convenables de tout genre de problèmes techniques, sociaux et écologiques.

A propos de Grenelle : les jeunes générations ne savent plus aujourd’hui ce que ça signifie exactement. Ils savent tout au moins que dans le rue Grenelle à Paris se trouvent toujours, entre autres, le gigantesque ministère de l’éducation nationale et une partie du ministère du travail. Après les émeutes de Mai 1968 se sont réunies à cette adresse divers « partenaires sociaux » pour chercher un compromis ouvrant la voie à une nouvelle paix sociale en France. L’accord négocié, à l’époque, passe toujours comme le modèle pour les accords sociaux dites « durables ». En fait la hausse massive du SMIC, imposée alors par les syndicats politisés, a durablement déstabilisé l’économie française. On peut donc s’attendre au pire quant à un nouveau « Grenelle ».

Il y a de quoi s’inquiéter, car ce dossier semble prioritaire pour le président et son gouvernement : dernières réunions des groupes de travail dans la première quinzaine de septembre ; publication des propositions des groupes fin septembre ; consultation publique (internet et régions) début octobre ; après le 22 octobre : grande table ronde avec les associations écologistes et décisions finales. A-t-on jamais vu pareil empressement pour les autres reformes qui attendent ? Les thèmes des groupes de travail indiquent déjà la direction que le gouvernement songe prendre : climat et énergie, biodiversité, production et agriculture, environnement et santé, économie, démocratie écologique (qu’est-ce que s’est ?). Nathalie Kosciusco-Morizet, le secrétaire d’Etat à l’écologie, y voit très grand : « On est à un moment de l’histoire où il peut se passer des choses fortes en matière de politique environnementale ». Ce qui semble déjà acquis, c’est que « la fiscalité environnementale devrait voir son rôle s’accroitre grandement », rapporte le quotidien Le Monde.

« En France, quel que soit le problème, tout se termine toujours par la création de nouveaux impôts. Le gouvernement ne connait-il pas les instruments de l’écologie de marché et préfère-t-il donc ceux de l’écologie politique ? Concernant le problème crucial de l’énergie, va-t-on adopter des mesures contraignantes, accroitre la réglementation comme c’est le cas actuellement en Allemagne sous le gouvernement d’Angela Merkel, continuer à faire la chasse aux automobilistes, rendre quasi-obligatoires les transports collectifs, au détriment de la liberté individuelle ? En ce qui concerne les OGM, va-t-on continuer dans les délires obscurantistes à la José Bové, en condamnant toute recherche, ou va-t-on saisir une chance en découvrant des produits nouveaux, capables de nourrir le monde entier ?», demanda le grand économiste français Jacques Garello lors de la 30ème Université d’été de la nouvelle économie qui se tenait fin août 2007 à Aix en Provence (voir aussi le site internet de l’ALEPS). Garello trouve inquiétante aussi la dimension institutionnelle du nouveau „Grenelle“ : nouveaux indicateurs économiques prenant en compte l’état de l’écologie ; refonte du conseil économique et social « refondu pour la préoccupation écologique », création d’une Commission permanente sur le développement durable à l’Assemblée nationale ce qui rejoint la déclaration des droits de l’homme et du développement durable voulue par le super-ministre Jean-Louis Borloo. Celui-ci vient d’ailleurs d’afficher ses ambitions en matière de „Développement durable“ en France et au niveau planétaire dans un long entretien qu’il a accordé au „Figaro Magazine.“ Borloo veut surtout poursuivre l’initiative de Jacques Chirac de créer une «Organisation des Nations unies pour l’environnement (Onue)» en transformant les différents programmes des Nations unies pour l’environnement (PNUE) en une sorte d’OMC de l’environnement. En ce qui concerne la France, Borloo veut „réunir autour de la table une véritable machine de guerre.“ L’allusion qu’il fait à la guerre n’est pas fortuite. A la fin de son entretien il réclame même: „Je demande l’union sacrée de tous les Français.“ L’union sacrée, c’était bien en 1914, ne s’est pas?

Quelles seront les chances pour le gouvernement français de faire de la France un modèle de la „gouvernance écologique“? On peut tout au moins remarquer que le récente fusion entre Gaz de France (GdF) et Suez, arrangée par ´Nicolas Sarkozy lui même, va plutôt dans le sens d’une „rénationalisation“ de la politique énegétique et va à l’encontre de la gestion planétaire reclamée. En plus à l’intérieur la politique de l’union sacrée devrait se heurter tout naturellement aux interêts vitaux de differentes professions. D’ores et déjà les transporteurs routiers protestent contre la limitation de la vitesse à 80 km/h prévue sur les autoroutes et contre la nouvelle taxe pour les poids lourds basée sur le coût en CO2. Et des agriculteurs s’inquiètent de l’avenir des OGM. En fin de compte qu’est-ce que va rester du développement durable à la française? „Enfin, on va créer quelques commissions et agences de plus, qui seront autant de fromages profitables pour les professionnels des subventions publiques, alors que l’urgence est de réduire le nombre des institutions publiques“, souligna Jacques Garello. Gérard Bramoullé, le doyen de la faculté et maire adjoint d’Aix a souligné à cette occasion que la notion de „développement durable“ est en soi indéfinissable et sert d’argument pour faire perdurer l’arbitraire du pouvoir politique. (10 Septembre 2007)

=========================================================================

Ecologie évolutive vs. écologie repressive

Claude Allègre défend le rationalisme des Lumières face à la religion irrationaliste et autodestructrice voire nihiliste que constitue l’écologisme. Le grand succès du livre « Pour un pacte écologique » de Nicolas Hulot, qui a été soutenu par tous les candidats aux dernières élections présidentielles, montre que toute la classe politique française est devenue écolo. Cet unanimisme s’appuie en premier lieu sur le prétendu « consensus » scientifique sur le rôle primordial du gaz carbonique (CO2) dans le réchauffement terrestre. Or « le mot consensus devrait être rayé du vocabulaire scientifique », précise Claude Allègre.

Il nous avertit: « Si le programme de Nicolas Hulot était appliqué tel quel en France, écrit Allègre, il créerait chaque année pendant dix ans plusieurs centaines de milliers de chômeurs supplémentaires dans l’industrie automobile, dans les transports, dans l’agriculture. Il conduirait de mettre en place un système de rationnement et de quotas comme nous n’en avons pas connu depuis l’occupation allemande… C’est l’écologie répressive dans toute son horreur. » Pire : Avec son programme et le « consensus » apparent le soutenant Hulot a réussi à évacuer l’écologie, c’est-à-dire les questions qui vont coûter le plus cher aux citoyens dans les années qui viennent, complètement du débat politique. Contre cette écologie répressive et rétrograde Claude Allègre réclame un « pacte de croissance » fondé sur une « écologie réparatrice et évolutive. »

Allègre s’en prend aussi à l’ancien vice-président américain Al Gore qu’il n’hésite pas à appeler « truand », car celui-ci se souci en réalité bien d’avantage de ses affaires lui rapportant des milliards que du sort de la planète et de ses habitants. C’est le fameux « principe de précaution » mal défini, mais codifié dans des traités européens et inscrit dans la constitution française, qui permet désormais de justifier n’importe qu’elle escroquerie aux dépens des gens les plus démunis et au profit d’une petite secte „verte“.

Concernant le changement climatique, Allègre ne pense pas que la notion de température moyenne soit un paramètre valable. Il cite les travaux du climatologue émérite Marcel Leroux qui met l’accent d’avantage sur l’analyse de l’accélération de la circulation de masses d’air froid venant des régions polaires à l’aide de photos prises par satellite et l’augmentation de le pression atmosphérique moyenne que celle-ci entraîne. Ces observations font plutôt craindre un refroidissement que la poursuite du léger réchauffement terrestre enregistré les dernières décennies. De toute façon quoi qu’il advienne, la réponse la plus rationnelle serait de s’y adapter au lieu de s’engager dans une coûteuse lutte sans issue, pense Claude Allègre. « L’urgence pour la France et pour l’Europe, ce n’est pas la réduction soudaine des émissions de CO2 car le prix à payer sur le plan économique et social serait trop grand. D’autant plus qu’on n’a aucune indication sur l’attitude future des Etats-Unis, de la Chine et de l’Inde », souligne Allègre. Je regrette seulement que Claude Allègre, en tant que socialiste qu’il reste malgrè son départ du PS, veut fonder l’économie écologique sur le Keynesianisme et qu’en tant que géologue il mise essentiellement sur la séquestration du gas carbonique (pourtant jugé inoffensiv par lui-même) dans le sous-sol. Est-ce parce qu’il est personellement impliqué dans des recherches servant à préparer cette „solution“ ?

Claude Allègre : Ma vérité sur la planète ; Ed. Plon, Paris 2007. ISBN : 978-2-259-20675-4. 240 pages. Prix : € 18,-

(31 juillet 2007)

=============================================================================

Vue de l’extérieur, il n’y pas de presse vraiment libre en France. C’est certainement une des raisons de l’immobilisme politique et économique du pays que Nicolas Sarkozy a promis – à tort ou à raison – de surmonter. Mais compte tenu des structures médiatiques en place, cela paraît plutôt difficile. Ces structures nationales font aussi qu’il ne peut jamais se former une opinion publique voir un contre pouvoir médiatique au niveau européen. Pour en savoir plus, lisez l’analyse de l’Institut Hayek ci-dessous. Il convient de préciser que le sort du journal „BILD“ ne me préoccupe guère personellement. Ils s’agit d’une question de principe.

Bild killed

par Vincent Bénard (Institut Hayek)

Entendu sur BFM: le groupe de presse allemand Axel Springer renonce à lancer en France l’équivalent de son quotidien à succès „Bild“ en France. Motifs invoqué: trop risqué.

Au fur et à mesure qu’ils avançaient dans leur étude de faisabilité, les chefs de projet d’Axel Springer se sont aperçus que le modèle monopolistique français de distribution de la presse verrouillé par le monopole du syndicat CGT du livre rendait leur aventure non viable. Selon l’expert interviewé par BFM:

• les unités d’impression des NMPP (Nouvelles messageries de la presse parisienne) sont obsolètes et inadaptées à la production d’un quotidien en couleur moderne

• leurs salariés sont également d’un autre âge, mal formés aux techniques les plus récentes,

• les exigences du syndicat CGT du livre, „productivité faible et salaires élevés“, sont exorbitantes, et donc…

• …de fait les coûts de distribution de la presse, plus élevés que partout ailleurs, obèrent gravement les marges des journaux, tout en contribuant à rendre la presse française plus chère. A part les échos et l’équipe, on peine à identifier un quotidien français gagnant de l’argent.

• L’organisation des points de vente, elle aussi verrouillée par le système NMPP, est jugée trop rigide et insuffisante en nombre.

Axel Springer en est arrivé à la conclusion que lancer un tel projet nécessiterait 300 Millions d’Euros de mise de départ au lieu des 120 Millions prévus initialement, par analogie aux coûts observés ailleurs. Le journal devant être vendu plus cher que prévu, le risque d’échec n’en devenait que plus grand. Le groupe, déjà présent dans la presse magazine en France, a donc renoncé à son expansion dans la presse quotidienne.

60 ans de monopole cégétiste sur la distribution de la presse quotidienne française ont abouti à une situation industrielle désastreuse, où les titres ne survivent que grâce à des aides de l’état (TVA à 2,1%, etc…) qui représentent 12% de leurs ventes selon un rapport sénatorial de 2003. Dans tous les autres pays développés, ou la presse est réellement libre, elle est économiquement florissante.

Cette situation dissuade de nouveaux acteurs d’entrer sur notre marché, alors que les mêmes qui défendent l’exception française des NMPP dénoncent la concentration croissante de la presse aux mains de deux grands groupes (Lagardère et Dassault). Le monopole confié aux NMPP en 1947 avait pour objectif „d’assurer la pluralité de la presse“ en permettant à tout nouveau titre d’être distribué. Cherchez l’erreur.

Pour que renaisse une presse vraiment libre, plurielle et florissante, libérez-la de l’état et du monopole des NMPP !

==============================================================================

En soutenant les révendications retrogrades basées sur la vision archaique du monde propagé par Nicolas Hulot pendant sa campagne électorale, Nicolas Sarkozy a montré qu’il est insensible à l’avertissement que j’ai publié dans la presse française à l’occasion de la présentation du nouveau rapport du GIEC sur le réchauffement terrestre. Je reproduis ici ce que j’ai publié, il y a quelques mois, dans la presse française:

Vers un totalitarisme écologique ?

Par Edgar Gärtner

Si un remède ne marche pas vous n’avez qu’à quadrupler la dose. C’est cette logique digne du Dr. Knock de Jules Romains qui semble se cacher derrière la revendication, répétée lors de la conférence internationale sur le changement climatique à Nairobi, de faire suivre le traité de Kyoto par un Kyoto II encore plus contraignant. Une fuite en avant qui n’est pas sans évoquer cette définition du totalitarisme, inspirée de « L’homme révolté » d’Albert Camus : Mobilisation de masse pour des buts que l’on ne peut jamais atteindre.

Le Protocole de Kyoto part de la supposition que le changement climatique, qui est indéniable, est causé par l’augmentation de la concentration de gaz carbonique (CO2) dans l’atmosphère. Cette supposition ne peut pas s’appuyer sur des expériences scientifiques mais relève d’un raisonnement purement spéculatif, jugé suffisant cependant, en Europe, pour justifier l’imposition de mesures coûteuses menaçant de manière radicale notre mode de vie.

Dans l’esquisse du nouveau rapport du GIEC (Groupe Intergouvernemental d’Experts sur l’Evolution du Climat, l’organisme de l’ONU chargé de l’évaluation du changement climatique), qui est déjà accessible sur la Toile, on estime le coût d’un plafonnement de la concentration du CO2 à 550 ppm (parts par million) à 5 % du PIB, ce qui est considérable. Mais l’UE s’est fixé un but encore plus ambitieux : limiter le taux du CO2 à 450 ppm. Cela causerait un appauvrissement généralisé de la population certainement plus dommageable que la passivité face au changement climatique. Le rapport Stern, publié récemment en Angleterre, arrive à des conclusions différentes uniquement parce qu’il cache les gains possibles du réchauffement (comme par exemple la possibilité d’augmenter les rendements agricoles dans le Nord) et minore les estimations du coût des investissements nécessaires pour diminuer les émissions de CO2 par les centrales, usines, chauffages domestiques et transports.

En l’état actuel des connaissances, le diagnostique du GIEC n’est pas scientifique mais politique. Il est établi scientifiquement depuis le « Compendium météorologique » de la société américaine de Météorologie, en 1951, que le principal agent de l’effet de serre est la vapeur d’eau (à concurrence de 95%), laquelle échappe à l’emprise humaine. Le CO2 joue un rôle mineur ; et encore les émissions de CO2 ne sont-elles que très partiellement d’origine humaine. Y-a-t-il eu jamais une expérience dont les résultats pourraient contredire cette conclusion ?

On ne peut pas expérimenter avec l’atmosphère et il faut donc se contenter de simulations sur des ordinateurs puissants, rétorquent les défenseurs de Kyoto. Mais avec des simulations électroniques il est possible de démontrer n’importe quoi en manipulant les algorithmes dans la direction souhaitée. En réalité il est aujourd’hui tout à fait possible de clarifier des questions clefs de la météorologie soit par des observations directes de la circulation atmosphérique à l’aide de photos prises par des satellites ou, dans certains cas, par des expériences en laboratoire. Une équipe de physiciens danois sous la direction de Henrik SVENSMARK vient d’ailleurs de publier, début octobre 2006, les résultats très parlants d’une expérience en chambre close qui montrent que le réchauffement terrestre, enregistré ces dernières décennies, peut aussi bien avoir été provoqué par un accroissement parallèle du champ magnétique du soleil (indiqué par la présence plus grande de taches à la surface du soleil). Ce renforcement du champ magnétique solaire empêche l’entrée de particules cosmiques dans l’atmosphère, qui normalement favorisent la formation de bas nuages qui empêchent les rayons solaires de chauffer le sol terrestre. Une augmentation des taches solaires devrait donc être suivie, à l’inverse, d’une raréfaction des nuages : d’où le réchauffement. L’équipe de Svensmark a justement démontré dans une chambre dite de Wilson que les particules cosmiques qui ne sont pas déviées par le champ magnétique solaire provoquent l’ionisation de molécules d’air, ce qui facilite grandement la formation de nuages. Voilà à n’en pas douter une théorie qui concurrence sérieusement à la théorie du CO2.

L’expérience des Danois va probablement être répétée bientôt au Centre Européen de Recherche Nucléaire CERN à Genève. Si cette expérience appelée « CLOUD » (nuage) confirme les conclusions de l’équipe danoise, l’agenda de la recherche en climatologie et de la politique internationale devrait être profondément remanié. Car il faut s’attendre à ce que le cycle solaire qui nous a donné, pendant trois décennies, du beau temps (chaud en été, mais parfois très froid en hiver), touche bientôt à sa fin. Des astronomes russes et américains ont annoncé un refroidissement terrestre vers le milieu du siècle qui devrait déjà être sensible dans une dizaine d’années. D’ailleurs le climatologue français Marcel Leroux a conclu d’une analyse minutieuse de séries de photos prises par satellite contenue dans un volumineux livre sur le réchauffement terrestre, paru en 2005, que la circulation atmosphérique s’accélère depuis les années 70. D’après Leroux la plus fréquente descente de masses d’air froid des pôles vers l’équateur devrait être interprété comme signe avant coureur de la prochaine glaciation. Des coûteuses réductions de CO2 (un gaz qui, il faut le souligner, ne peut pas être appelé polluant car il nourrit la végétation et conditionne à ce titre la vie même) deviendraient alors non seulement superflues, mais nuisibles. Voilà qui viendrait opportunément rappeler à tous les marchands de peur que l’humanité n’est pas enfermée dans une serre, mais continue à évoluer dans un monde ouvert dont l’intelligence nous échappe encore largement.

(paru dans „Le Figaro“ du 26 Décembre et dans Les Échos du 28 Décembre 2006)

Entretien

avec Edgar Gärtner, Directeur environnement au Centre for the New Europe (CNE)

« Le rôle du CO2 n’est pas démontré »

Directeur du forum environnement au Centre for the New Europe à Bruxelles, une fondation privée qui défend les idées libérales, Edgar Gärtner n’est d’accord sur les causes et les conséquences du réchauffement climatique. Cela lui vaut d’être régulièrement pris à partie par d’autres chercheurs dans un style qui n’est pas sans évoquer les attaques subies, en d’autres temps, par tous ceux qui mettaient doute la réalité des paradis communistes.

Que pensez-vous de la proposition de la Commission européenne, qui devrait être débattue au cours du Conseil des ministres de l’Union les 8 et 9 mars, d’engager unilatéralement l’Europe dans une réduction d’au moins 20% de ses émissions de gaz à effet de serre entre 1990 et 2020 et même de moins 30% au delà ?

Il est évident que l’Europe cherche à prouver qu’elle sert encore à quelque chose. Cette surenchère sur le sujet des rejets des gaz à effet de serre lui permet de montrer l’exemple aux autres pays industrialisés et aux pays en voie de développement. Mais il y a des risques extrêmement sérieux. Si l’Europe reste seule à appliquer les sévères et couteuses limitations qu’elle préconise son économie va certainement souffrir. La performance mondiale en matière d’environnement se dégradera parallèlement si de larges pans de l’industrie européenne se délocalisent dans des parties du monde où les réglementations anti-pollution demeureront nettement moins contraignantes.

De nombreux scientifiques sont persuadés que l’augmentation de la concentration de gaz carbonique dans l’atmosphère est extrêmement inquiétante. D’où vient cette certitude ? Jusque dans les années 50 on s’accordait pour dire que l’hypothèse, échafaudée en 1896 par le savant suédois Svante Arrhenius, à savoir que la combustion du carbone allait amplifier l’effet de serre et augmenter la température du globe était réfutée par des mesures spectroscopiques. Malgré tout, cette hypothèse a été reprise par l’océanographe américain Roger Revelle, le mentor d’Al Gore, et a donné naissance à la théorie de réchauffement global, du au CO2. En vérité, le CO2 à lui seul ne peut avoir qu’une influence infime sur l’atmosphère. C’est la vapeur d’eau qui est de loin le principal gaz à effet de serre. Sachant cela, certains chercheurs ont supposé que l’effet très limité du CO2 puisse être amplifié par la vapeur d’eau. Mais cette hypothèse reste invérifiable pour la simple raison que la vapeur d’eau peut avoir deux effets opposés : soit piéger la chaleur, soit accélérer le transport de la chaleur par convection. Le premier entraine une augmentation de la température, le second un refroidissement de la surface terrestre notamment à travers la formation de nuages. Lequel des deux effets prévaut, dans une situation donnée, ne peut pas être déterminé expérimentalement. L’hypothèse d’un « feedback » positif entre CO2 et vapeur d’eau repose donc uniquement sur des simulations informatiques dont les algorithmes sont faciles à manipuler. Si cette hypothèse était la bonne, le cycle global du carbone devrait faire marcher le cycle d’eau. Mais ce serait le monde à l’envers puisque nous savons que le cycle d’eau est très prédominant sur les autres cycles de matière. Le cycle de carbone ne vient qu’à la troisième place derrière l’oxygène. Le cycle d’eau ne peut être mis en marche que de l’extérieur, par les rayons du soleil. Les fluctuations de l’activité solaire expliquent largement les changements climatiques du passé. Je crois qu’elles sont aussi à l’origine du changement actuel.

Pourtant de très nombreux scientifiques se sont unis dans le GIEC (Groupe intergouvernemental d’experts sur l’évolution du climat) qui affirme que l’augmentation du gaz carbonique est la cause principale du réchauffement de la planète ? Cet organisme, mis en place en 1988 par l’ONU et l’Organisation météorologique mondiale est à l’origine de trois rapports en 1990, 1995 et 2001. Le prochain est pour cette année mais n’apportera, à mon avis, rien de bien nouveau sur le sujet. Les rapports se composent de plusieurs milliers de pages écrites par 3.000 scientifiques internationaux qui envisagent de nombreuses hypothèses sur l’évolution du climat terrestre. Ce premier travail est repris par les représentants de chaque pays, qui sont choisis par leurs gouvernements. Il en sort une synthèse d’une cinquantaine de pages nettement orientée politiquement et plus particulièrement dans le sens du réchauffement du au CO2. Ce choix n’a, à mon avis, aucune base scientifique, mais relève plutôt du domaine religieux. Il me parait évident que l’influence hypothétique du CO2 sur la météo est devenu le dernier rempart de ceux qui veulent nous faire croire que nous vivons dans un monde fermé dans lequel il faudrait, avec l’échange des quotas d’émission, c’est à dire le coûteux commerce d’air chaud, rationner toutes les ressources.

(paru dans „Valeurs actuelles“ N° 3661, 26 janvier 2007)

Réponse à l’article de Jean-Pascal van Ypersele paru dans « Le Figaro » du 11 janvier :

Vivons nous dans un monde ouvert ou fermé ? par Edgar Gärtner*)

Il n’est guère étonnant qu’un membre du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), payé par les contribuables, s’attaque à un travailleur indépendant dirigeant, à titre honorifique et bénévole, un forum de discussion sur l’environnement. Il n’est pas important pour moi quelles entreprises sponsorisent actuellement ce forum tant que je puisse m’y exprimer librement pour faire partager mes préoccupations face à certains « experts » qui prétendent savoir d’avantage sur l’avenir que le commun des mortels.

Nous savons tous que dans un monde ouvert dans tous les sens l’avenir n’est pas prévisible. Nous ne connaissons donc pas le temps qu’il va faire d’ici 2, 10 ou 50 ans. Il peut aussi bien faire plus froid que plus chaud. Mais nous devrions tous savoir que ni dans l’un ni dans l’autre des deux cas le CO2 en sera le principal responsable. Car tous les scientifiques (y compris M. van Ypersele) sont d’accord depuis longtemps que le CO2 à lui seul ne peut avoir qu’une influence infime sur l’atmosphère. Il ne peut pas absorber les rayons infrarouge qui ont déjà été absorbés par la vapeur d’eau, de loin le principal gaz à « effet de serre ». Sachant cela, certains chercheurs ont supposé que l’effet très limité du CO2 puisse être amplifié par la vapeur d’eau. Mais cette hypothèse reste invérifiable pour la simple raison que la vapeur d’eau peut avoir deux effets opposés : soit piéger la chaleur, soit accélérer le transport de la chaleur par convection. Celle-ci entraîne un refroidissement de la surface terrestre – notamment à travers la formation de nuages. Lequel des deux effets prévaut, dans une situation donnée, ne peut pas être clarifié expérimentalement. Il semble que dans les basses couches de l’atmosphère la convection soit dans la plupart des cas plus importante que le rayonnement.

Néanmoins tous les modèles climatiques en question ne prennent que la première possibilité en compte. Ce choix n’a, à mon avis, aucune base scientifique, mais relève plutôt du registre religieux. Etant moi même écologue de formation j’ai travaillé, pendant quelques années, pour le WWF. C’est dans cette fonction que j’ai participé, en 1995, à la grande conférence sur le climat à Berlin. A cette occasion j’ai pu observer de près comment certains hommes (et femmes) politiques, aidés par des chercheurs avides de crédits, ont transformé une hypothèse en dogme d’une religion politique. En France on a nommé cette nouvelle raison d’état à juste titre « tyrannie de la pénitence » (Pascal Bruckner). J’ai quitté le WWF en conséquence car, d’origine catholique et antifasciste, je suis allergique à toute religion d’état.

Il me parait évident que l’influence hypothétique du CO2 sur la météo est devenu le dernier rempart de tous ceux qui veulent nous faire croire que nous vivons dans un monde fermé dans lequel il faudrait (à travers l’échange des quotas d’émission, c’est à dire le coûteux commerce d’air chaud) rationner toutes les ressources. La récente demande de M. Stavros Dimas, Commissaire Européen à l’environnement, d’établir une « économie de guerre » pour lutter contre l’effet de serre, montre clairement quel avenir les Eurocrates nous préparent. Je ne voudrais pas que mes enfants vivent dans un tel monde.

*)Centre for the New Europe, Bruxelles

Öko-Nihilismus-Debatte

Über zwei Jahre sind nun seit dem Erscheinen meines grundlegenden Buches „Öko-Nihilismus. Eine Kritik der Politischen Ökologie“ vergangen. Von den politisch korrekten Massenmedien weitgehend totgeschwiegen, hat es in Fachmedien und im Internet lebhafte Debatten provoziert. Die Aussagen dieses Buches, von manchen als zu radikal oder als zu pessimistisch eingestuft, sind durch aktuelle Entwicklungen voll bestätigt worden.

Edgar Gärtner: Öko-Nihilismus. Eine Kritik der Politischen Ökologie. CFACT Europe, Thuss & van Riesen Medienverlag, Jena 2007. ISBN 978-3-00-020598-9. Preis Euro 24,50

Erhältlich bei Amazon.de

factum-magazin: Gegen die Vergötzung der Natur

Das in der Schweiz erscheinende christliche Familienmagazin factum bringt in seiner Ausgabe 5/08 unter dem Titel „Die überhitzte Prognose“ eine kritische Auseinandersetzung des Journalisten Thomas Lachenmaier mit dem nihilistischen Menschenbild der „Klimapolitik“ und stellt eine Reihe bekannter „Skeptiker“ vor. So den Mainzer Medienforscher Prof. Mathias Kepplinger, den tschechischen Staatspräsidenten Václav Klaus und meine Wenigkeit.

Hier das Interview, das ich Thomas Lachenmaier gab:

factum: In ihrem Buch kritisieren sie die politische Ökologie als eine

nihilistische Weltanschauung, die das Gute postuliert und am Ende doch

nur Verhängnis bringt. Wie lautet ihr Vorwurf?

Gärtner: So genannte Gutmenschen vergessen, dass alles im Leben seinen Preis hat.

Etwas Gutes muss oft mit üblen Nebenwirkungen erkauft werden. Die Menschen müssen sich dann nicht nur zwischen einer guten Tat und einer Sünde entscheiden, sondern zwischen zwei Übeln. Solche Entscheidungen in Form einer bewussten rationalen Abwägung treffen zu wollen, bringt die Menschen schnell ins Schwitzen. Zum Glück für unser seelisches Wohlbefinden erfolgen solche Entscheidungen meist unbewusst. Dabei spielen Glaubensinhalte und tief verwurzelte Überzeugungen eine wichtige Rolle. Die Abkehr von den christlichen Wurzeln des Humanismus und das dadurch entstandene Defizit unhinterfragter Glaubensinhalte macht meines Erachtens viele Europäer unfähig, in verschiedenen Entscheidungssituationen das kleinere Übel auszumachen.

factum: Haben Sie dafür ein Beispiel?

Gärtner: Das beste Beispiel dafür ist zurzeit die so genannte Klimapolitik. Damit die Durchschnittstemperatur der Erde nicht um mehr als zwei Grad Celsius von einem als normal erklärten globalen Mittelwert abweicht, setzt sie über die gewollte Verteuerung von Energieträgern und Nahrungsmitteln nicht nur unsere Freiheit und unseren wirtschaftlichen Wohlstand aufs Spiel, sondern ist letzten Endes sogar bereit, dem Ziel des Temperaturmittelwertschutzes (ich sage bewusst nicht Klimaschutz) größere Teile der Menschheit zu opfern. Bekanntlich haben Vordenker der Ökologiebewegung wie Paul Ehrlich in den USA oder Herbert Gruhl in Deutschland in den 70er Jahren offen die Schrumpfung der Weltbevölkerung auf anderthalb Milliarden Menschen gepredigt. Das zeigt, dass sie den christlichen Gott, der keine Menschenopfer fordert, weil Jesus Christus das mit seinem Opfergang ein für allemal aus der Welt geschafft hat, durch einen Götzen ersetzt haben.

factum: Die meisten Wissenschaftler gehen davon aus, dass der

CO2-Ausstoss die Ursache für die Klimaerwärmung ist. Aber es gibt auch

renommierte Wissenschafter, die anderer Meinung sind und Studien, die

andere Rückschüsse zulassen. Sie verfolgen als Wissenschaftsjournalist

die Debatte intensiv. Was ist ihr Eindruck von der wissenschaftlichen

Auseinandersetzung?

Gärtner: Eine wissenschaftliche Auseinandersetzung, die diesen Namen verdient, gibt es über die Frage nach den Ursachen des Klimawandels schon seit Jahren nicht mehr. Ein internationales Netzwerk von Top-Bürokraten und Versicherungsmanagern hat es mithilfe sogenannter Nichtregierungsorganisationen geschafft, den „Weltklimarat“ IPCC mit dem klaren Auftrag zu versehen, den Menschen, genauer: ihren industriellen Errungenschaften die Schuld am Klimawandel zuzuschieben. Sie können das nachlesen in dem vor einigen Jahren erschienenen Buch „The Carbon War“, in dem der Ex-Greenpeace-Mann Jeremy Leggett erstaunlich offen schildert, wie es dazu kam, dass der industrielle Ausstoß von Kohlenstoffdioxid (CO2) zur einzig relevanten Ursache des Klimawandels erklärt wurde. Die wissenschaftliche Debatte, die eigentlich nie stattgefunden hat, gilt damit als abgeschlossen. Der Mainzer Medienforscher Mattias Kepplinger hat zusammen mit seiner Mitarbeiterin Senja Post durch die direkte Befragung aller in Deutschland mit Klimaforschung befassten Wissenschaftler herausgefunden, dass in Wirklichkeit nur eine Minderheit von ihnen von der offiziellen Erklärung überzeugt ist. Die andern müssen schweigen, um ihre Karriere nicht zu gefährden.

factum: Wie beurteilen Sie die Folgen des weltweiten Handelns gegen den

Klimawandel?

Gärtner: Zunächst einmal grundsätzlich: Wir Menschen können meines Erachtens gegen den Klimawandel nichts unternehmen. Denn hier sind Kräfte am Werk, die unsere Einflussmöglichkeiten weit übersteigen. Als Humanist wehre ich mich einerseits dagegen, die Menschen klein zu machen, zu erniedrigen. Andererseits sollten wir es aber auch vermeiden, in Größenwahn zu verfallen. Das Christentum schützte uns bislang in gewissem Maße gegen diese Versuchung. Die Säkularisierung hat solche Hemmschwellen zum Teil wieder beseitigt.

Dass die Menschen das Klima lediglich lokal und regional beeinflussen können, und zwar vor allem durch die Umwandlung von Wald in Acker- oder Weideland und durch den Bau großer Städte, aber keinen nennenswerten Einfluss auf die globale Entwicklung ausüben, zeigt meines Erachtens die Entwicklung der bodennahen Durchschnittstemperatur in den vergangenen zehn Jahren: Obwohl der CO2-Ausstoß – vor allem infolge des Wirtschaftsbooms in Asien – kräftig anstieg, ist die Mitteltemperatur der Erde konstant geblieben, wenn nicht sogar gesunken.

Aber es wurde für den vorgeblichen Klimaschutz schon sehr viel Geld ausgegeben, das natürlich an anderer Stelle fehlt. Es gäbe auf der Welt, wie der dänische Statistikprofessor Björn Lomborg zu wiederholen nicht müde wird, sicher viel dringendere Probleme wie zum Beispiel die Versorgung der Armen mit sauberem Trinkwasser und sanitären Einrichtungen. Diese wäre für einen Bruchteil der Summen zu haben, die der „Klimaschutz“ heute schon kostet. Ich sehe hier nicht nur ein wirtschaftliches, sondern auch ein moralisches Problem und wundere mich, wie leicht es den angeblichen Klimaschützern gelingen konnte, in unseren Massenmedien die moralische Oberhoheit zu erlangen.

factum: An den Empfehlungen des Weltklimarates (IPCC) orientieren sich

Regierungen in der ganzen Welt. Es gibt weltweit wohl kein zweites

beratendes Gremium, dessen Aussagen so weitreichende poltische Folgen

hat. Wie beurteilen Sie den Einfluss dieses Gremiums?

Gärtner: Das Gremium besteht nur zu einem kleinen Teil aus Forschern, sondern überwiegend aus Funktionären, die von ihren jeweiligen Regierungen entsandt werden und ist insofern Ausdruck der Tatsache, dass die Politik selbst in die Hände von Bürokraten gelangt ist, dass es wirkliche Politiker vom Schlage eines Winston Churchill heute gar nicht mehr gibt. Es ist immer problematisch, wenn sich die Politik auf Wissenschaft beruft. Wohin das führt, kann man am Beispiel der Eugenik studieren. Diese wurde ja nicht nur von den Nazis, sondern von Linksparteien in allen Teilen der Welt vertreten und praktisch umgesetzt. Grundlage der großen Politik sollten der gesunde Menschenverstand und eine klare Feindbildbestimmung sein. Ich habe den Eindruck, das Feindbild der Bürokraten, die sich heute Politiker nennen, ist das Leben selbst.

factum: Wie konnte es dazu kommen, dass sich die Politik nicht mehr vom „gesunden Menschenverstand“ leiten lässt?

Gärtner: Die jüdische Philosophin Hannah Arendt hat in ihrer 1000 Seiten starken Untersuchung über Elemente und Ursprünge totaler Herrschaft nachgezeichnet, dass die Politik der großen europäischen Mächte in dem Maße den Bezug zum gesunden Menschenverstand der kleinen Leute verloren hat, wie sie imperialistisch wurde. Die ausgebeuteten und geknechteten Menschen in den Kolonien hatten, im Unterschied zum Proletariat in den „Mutterländern“, keine Möglichkeit, sich über Wahlen oder außerparlamentarische Protestaktionen Gehör in den Parlamenten zu verschaffen. Infolgedessen koppelte sich die politische Klasse in den Metropolen immer mehr vom Denken und Fühlen normaler Menschen ab.

factum: Untersuchungen zeigen, dass viele Menschen bereit sind, aus

Gründen des Klimaschutzes persönliche Opfer auf sich zu nehmen. Wie

beurteilen sie das?

Gärtner: Gute Marktstudien zeigen vor allem, dass es mit der Opferbereitschaft der kleinen Leute bislang, Gott sei Dank, nicht weit her ist. Eine Mehrheit findet Öko-Steuern und Klimaschutz-Zuschläge zwar sympathisch, aber kaum jemand möchte sie gerne bezahlen. Ich möchte da auf eine Studie verweisen, die im letzten Herbst im Auftrag der ARAG-Rechtschutzversicherung durchgeführt wurde.

factum: Sie sind in einem christlichen Elternhaus aufgewachsen. Wie

beurteilen Sie vor diesem Hintergrund die Produktion von Treibstoff aus

Getreide?

Gärtner: Ich habe in der Tat gelernt, das tägliche Brot nicht als selbstverständliche „Commodity“ zu betrachten, sondern darum zu beten, dafür zu danken und es nicht zu verschwenden. Getreide nur anzubauen, um es zu verfeuern, halte ich für einen Frevel. Ich weiß nicht, was in den Köpfen derer vor sicht geht, sie so etwas anordnen. Bei uns in Deutschland ist es leider gelungen, die katholische Bischofskonferenz wie den Rat der Evangelischen Kirchen EKD und mit ihnen viele Gläubige für solcher Art „Klimaschutz“ zu mobilisieren. Als Begründung musste die biblische Forderung, die Schöpfung zu bewahren, herhalten. Aber gehören das CO2, ohne das kein pflanzliches Leben auf der Erde möglich ist, und die Menschen, die es umso mehr emittieren, je intensiver sie leben, etwa nicht zur Schöpfung?

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Interview von Regina Károlyi (Media-Mania.de)

Media-Mania.de: Gleich zu Beginn eine Frage zum Titel Ihres Buchs: Sind Menschen, die sich für Umwelt- und Klimaschutz einsetzen, in Ihren Augen Nihilisten? Diese Menschen haben doch ein konkretes Ziel vor Augen.

Edgar L. Gärtner: Der Begriff „Nihilismus“ war früher bekannter. Heute gibt es viele Leute, die sich darunter nichts vorstellen können. Ich werde stets danach gefragt. Wenn ich irgendwo auftrete, fange ich immer damit an, zu erklären, was Nihilismus überhaupt ist.

Bei Wikipedia findet man eine Definition des Nihilismus, die nahelegt, Nihilisten würden an gar nichts glauben. Das ist natürlich nicht der Fall. Die Nihilisten glauben durchaus an etwas, und zwar an etwas Gutes, an das absolut Gute. Dabei vergessen sie aber, abzuwägen. Im normalen Leben, das weiß jeder, muss man täglich „Nebenwirkungen“ in Kauf nehmen. Wenn man morgens aus dem Haus und zur Arbeit geht, muss man bereits abwägen, denn man könnte ja unterwegs umkommen. Das ganze Leben ist eine Abwägung. Diese Sichtweise ist den Nihilisten relativ fremd, sie sehen nicht, dass alles einen Preis hat. Im Extremfall geht das so weit, dass Klimaschützer den größten Teil der Menschheit opfern würden, um die globale Durchschnittstemperatur konstant zu halten. Es gibt Aktivisten, die sagen, wir müssen auf null CO2-Ausstoß kommen. Aber solange es Menschen gibt, werden diese immer CO2 produzieren. Wenn man null Emissionen haben will, muss man also auf Milliarden von Menschen verzichten. Zitate belegen, dass manche Leute bereit sind, so weit zu gehen. Das ist zwar nicht die Mehrheit, aber diese Einstellung existiert.

Media-Mania.de: Wie kamen Sie als ausgebildeter Ökologe dazu, sich dem Öko-„Mainstream“ zu widersetzen?

Edgar L. Gärtner: Man macht einen Lernprozess durch. Ich bin zur Ökologie gekommen, als diese noch etwas Ungewöhnliches war. In der ersten Phase meines Studiums habe ich sehr viel Biochemie gemacht, das war damals „in“. Die Biochemiker haben die Struktur der Enzyme enträtselt. Heute erledigen das Computer. Aber damals musste man es mühsam Schritt für Schritt herausbekommen. Und dann gewann an unseren Universitäten ganz langsam die Ökologie an Bedeutung.

Als ich studierte, wurde an der Frankfurter Universität die erste Professur für Ökologie eingerichtet. Jemand, der sich für Ökologie interessierte, war also damals, zu Beginn der 70er, alles andere als „Mainstream“. Man war Pionier, man musste sich durchsetzen und hatte dabei nicht das Gefühl, dass man daraus eine Religion machte. Man ging ziemlich pragmatisch ‚ran. Ich war ja damals in Frankfurt, und zu dieser Zeit war der Main tot – na gut, nicht tot, tot ist ein Gewässer nie. Ich habe den Main selbst analysiert, es gab darin jede Menge Pilze und Bakterien, aber kein höheres Leben. Niemand wäre damals auf die Idee gekommen, da hineinzuspringen, das war eine ganz eklige Brühe.

Damals haben wir uns engagiert, wir hatten auch Bürgerinitiativen, wir kämpften für Kläranlagen. Ich weiß noch, nach einigem Hin und Her hat dann Hoechst angefangen, Kläranlagen zu bauen. Die existierten noch gar nicht, als ich mit dem Studium anfing. Insofern war das schon eine andere Situation als heute. Ab den 70ern wurden nach und nach Investitionen getätigt, und irgendwann gab es im Main wieder Fische. Seit etwa fünfzehn oder zwanzig Jahren gibt es am Main sogar wieder Berufsfischer, was viele Leute gar nicht wissen. Der Main ist also wiederhergestellt und möglicherweise sogar in besserem Zustand, als er vorher war.

Die Menschen haben aber immer noch den Eindruck, dass die Umwelt extrem gefährdet sei, und schimpfen auf die Industrie. Sie sehen darin nicht Hersteller von Produkten, die unser Leben angenehmer machen; sie sehen in der Industrie etwas Böses, das die Umwelt kaputt macht. Und dieser Eindruck hat überhaupt nichts mehr mit der Realität zu tun. Die Realität ist, dass der Main heute wieder weitgehend sauber ist. Eigenartigerweise nimmt das kaum jemand wahr.

Media-Mania.de: Sie kritisieren sowohl die Nachhaltigkeitspolitik als auch das Vorsorgeprinzip. Müssen wir denn nicht, auch im Sinne unserer Kinder, nachhaltig mit den natürlichen Ressourcen umgehen? Und, was die Vorsorge angeht: sicherlich haben Sie auch eine Haftpflicht-, Berufsunfähigkeits- oder ähnliche Versicherung? Wenn der Einzelne sich schon gegen Unwägbarkeiten absichert, sollten das dann nicht erst recht Regierungen tun, die für sehr viele Menschen verantwortlich sind?

Edgar L. Gärtner: Das Versicherungsprinzip und der Gedanke der Vorsorge sind ja etwas Wichtiges. Ich treibe persönlich selbstverständlich auch Vorsorge, als Freiberufler Altersvorsorge, natürlich auch eine Lebensversicherung, Unfallversicherung, Berufsunfähigkeitsversicherung, Haftpflicht und Berufshaftpflicht.

Das kostet einen natürlich Geld. Nun sind wir schon beim Thema Geld: Es gibt durchaus einen Punkt, wo die Prämien so teuer werden, dass einem nichts mehr zum Leben bleibt. Und das ist das Problem beim Vorsorgeprinzip, das man von der Vorsorge abgrenzen sollte. Das Vorsorgeprinzip wurde 1992 auf der Rio-Konferenz definiert. Diese Definition ist unscharf und interpretationsbedürftig. Der Begriff „Kosten“ taucht zwar darin auf, es wird aber nicht explizit gesagt, dass man das Prinzip der Verhältnismäßigkeit respektieren muss. Das heißt, die Kosten müssen in einem vernünftigen Verhältnis zum Nutzen stehen. Ich habe eine ganze Zitatesammlung, die zeigt, dass manche nur noch an Vorsorge gedacht haben und nicht mehr an die Kosten. So zum Beispiel der damals in der EU federführende österreichische Umweltminister Josef Pröll, der das Vorsorgeprinzip im Jahre 2006 wie folgt auslegte: „Wenn Du Dir nicht sicher bist, welche Auswirkungen etwas hat, lasse die Finger davon.“ Hätten sich die Menschen immer danach gerichtet, hätten sie weder das Feuer gezähmt noch das Rad erfunden!

Sobald die Kosten den Nutzen überschreiten, wird es völlig irrational. Niemand würde eine Versicherung bezahlen, die ihn so viel kostet, dass ihm nichts mehr zum Leben bleibt.

In Amerika ist es schon so weit, dass sich viele Leute bewusst gegen eine Versicherung entscheiden. Die Deutschen sind ja nach Auskunft der Versicherungsfachleute meistens eher überversichert. Das ist unsere Mentalität. Es gibt andere Länder, wo man das etwas anders sieht. Man wägt immer ab: Erst kommt das Leben, dann die Vorsorge, und kein vernünftiger Mensch würde am Leben sparen um der Vorsorge willen.

Die aktuelle Wellnessbewegung ist in dieser Hinsicht auch interessant. Da machen viele Menschen ständig Diät, Gymnastik und so weiter, um ihre Gesundheit zu erhalten, aber leben überhaupt nicht mehr richtig, freuen sich nicht mehr, trinken nicht mal mehr einen und heben sich ihre Gesundheit sozusagen fürs Alter auf. Neulich hat ein bekannter Psychiater gesagt: „Auch wer gesund stirbt, ist definitiv tot.“ Das ist das Problem.

Media-Mania.de: Umwelt- und Klimaschützer möchten Einfluss auf die Politik nehmen. Die „Klimaskeptiker“, auch Sie, werfen diesen um das Wohl des Planeten besorgten, engagierten Menschen vor, eine Art neuer Religion gegründet zu haben. Wie ist das zu verstehen?

Edgar L. Gärtner: Ich habe ja selbst diese Entwicklung mitgemacht; ich habe einige Jahre für den WWF gearbeitet, der sich für den Artenschutz engagiert hat. Dann kam diese, nennen wir’s mal Mode, mit dem Klimaschutz. Nach harten verbandsinternen Diskussionen hat der Verband dann umgeschaltet, und es haben sich die Leute durchgesetzt, die sagten: „Wenn wir keinen Klimaschutz machen, wird uns Greenpeace beim Spendenaufkommen endgültig abhängen.“ Opportunismus also.

Es gab eine Zeit zu Anfang der 70er-Jahre, ich habe das ja von Anfang an mitverfolgt, da war das Klima eine ganz vage Geschichte. Damals waren die meisten davon überzeugt, dass wir uns auf die nächste Eiszeit vorbereiten sollten. Dann, in der zweiten Hälfte der 70er, hat sich Schritt für Schritt die Überzeugung durchgesetzt, dass die Erwärmung die größere Gefahr sei. Aber damals wurde immer noch diskutiert, da hat man auch mal Daten verglichen – so viele gab es noch nicht, die Satellitenbeobachtung begann ja erst in den späten 60ern. Es war also alles noch offen. Irgendwann gab es einen eindeutig feststellbaren Umschlag, wo Fakten eigentlich nicht mehr zählten.

Die Datenlage ist, objektiv betrachtet, so unsicher, dass man eigentlich nichts ausschließen kann. Es kann in den nächsten zwanzig Jahren kühler werden, es kann aber auch weiter wärmer werden, kein Mensch weiß das so genau. Irgendwann hat sich diese Diskussion verselbstständigt: Auf einmal hat die Politik offiziell nur noch auf Erwärmung gesetzt, und hier nun wird es religiös, wird es zur Staatsreligion. Man nimmt also Einwände nicht mehr zur Kenntnis, etwa die Tatsache, dass es seit fast zehn Jahren nicht mehr wärmer wird. Das ist eindeutig, das haben Satelliten gemessen, auch die Bodenmessungen haben das festgestellt.

Media-Mania.de: Wobei Stefan Rahmstorf [vom Potsdam-Institut für Klimafolgenforschung, Anm. Media-Mania.de] ja sagt, die Satellitenmessungen seien unzuverlässig …

Edgar L. Gärtner: Das stimmt nun gerade nicht, unzuverlässig sind die Bodenstationen. Das ist mittlerweile bekannt, weil sie oft in Gegenden stehen, wo in der Nachkriegszeit Veränderungen vorgenommen wurden. So gibt es Stationen, die einmal auf dem freien Feld standen, und mittlerweile befinden sie sich in dicht bebauten Gebieten. Die Temperatur auf einem Parkplatz mit Asphalt kann nicht die gleiche sein wie über einem freien Feld. Die Bedingungen für die Bodenstationen haben sich also über die Jahre geändert. Man kann die Daten, die dort gemessen wurden, gar nicht mehr vergleichen.

Die Satelliten sind Hightech. Sie haben sensible, sehr präzise Messinstrumente, die nur richtig geeicht werden müssen, das ist richtig. Dahingehend muss man investieren. Diesbezüglich hat man auch Korrekturen vorgenommen. Beispielsweise hat man zunächst nicht zur Kenntnis genommen, dass die Satelliten nicht stationär auf derselben Umlaufbahn bleiben, während sie um die Erde kreisen, sondern die ärgerliche Tendenz haben, etwas abzusinken. Also hat man inzwischen die nötigen Korrekturfaktoren eingeführt. Trotzdem zeigen die Messungen in den letzten zehn Jahren keinen Anstieg.

Ich beobachte, dass es Leute gibt, die davon keine Notiz nehmen, weil sie offenbar ein fest gefügtes Weltbild haben. Das ist aber die Charakteristik von Ideologie im Vergleich zur Wissenschaft. Wissenschaft ist ja immer etwas Vorläufiges. Wir Menschen haben zwar Vernunft, ich sage aber immer: Das Licht der Vernunft ist eigentlich nur eine Funzel. Man darf die Vernunft nicht überschätzen, wir sind nicht wirklich in der Lage, mit unserem Gehirn die Welt zu durchschauen. Sie ist so kompliziert, dass wir immer nur einen kleinen Ausschnitt erkennen können.

Wenn Sie z. B. als Chemiker/-in etwas im Labor machen, dann bekommen Sie das ganz gut in den Griff, weil Sie ja alle Randbedingungen konstant halten können. Und wenn es keine Einflüsse gibt, die Sie übersehen haben, können Sie mit Ihrem Experiment wirklich eine Aussage machen. In der freien Natur ist das so nicht möglich, sie ist einfach zu komplex, und man muss sich immer bewusst machen, dass wir nur beschränkte Möglichkeiten haben, diese komplexe Welt wirklich zu erkennen.

Wichtig ist, was man messen kann, und sobald Menschen Computermodellen mehr glauben als Messungen, bin ich alarmiert, weil ich weiß, dass ein Computermodell, selbst wenn es mit größtmöglicher Sorgfalt gemacht ist, nur den jeweils aktuellen Erkenntnisstand abbilden kann: einen winzigen Ausschnitt aus der unendlichen Komplexität. Nicht nur die Luft-, sondern auch die Meerestemperatur ist übrigens in den letzten zehn Jahren nicht gestiegen, sondern eher leicht gesunken.

Media-Mania.de: Von meiner subjektiven Wahrnehmung her waren die Sommer ab 2003 allerdings extrem warm.

Edgar L. Gärtner: Es ist da schon was dran. Ich kann mich erinnern, dass es in den 60ern und 70ern Sommer gab, in denen man froh war, wenn man mal zwei Tage ins Schwimmbad konnte; manche Sommer waren absolut verregnet. Und ich habe bemerkt, dass es in den 90ern, gerade in der zweiten Hälfte der 90er, eine Reihe von sehr schönen Sommern gab. Ich mache mir darüber gar keine Sorgen, sondern freue mich darüber, wenn es wärmer ist, und ich wäre auch froh, wenn es so bliebe. Der letzte Sommer war allerdings daneben.

Media-Mania.de: Sie wohnen ja nicht auf einem Atoll …

Edgar L. Gärtner: Sie meinen den Meeresspiegelanstieg. Man beobachtet einen seit hundert Jahren ziemlich konstanten Meeresspiegelanstieg. Das ist auch bekannt, es gibt in den Häfen offizielle Pegel, die man per Anruf abfragen kann, und in letzter Zeit wird dort sogar eine Verlangsamung des Anstiegs beobachtet. Für den von Al Gore in seinem Film postulierten Anstieg des Meeres um sechs Meter gibt es heute keinerlei Anhaltspunkte.

Media-Mania.de: Durch den Ökologismus – die ins Pseudoreligiöse abgleitende Spielart der Wissenschaft Ökologie – und die daraus resultierende Politik sehen Sie die Freiheit in Gefahr. Bedeuten Einschränkungen beim Konsum, vielleicht auch bezüglich der Mobilität denn wirklich Freiheitsverlust? Müsste man, gerade wenn es um den Weg hin zu erneuerbaren Energien geht, nicht das Wohl der Menschheit in ihrer Gesamtheit über solch luxuriöse kleine Freiheiten stellen?

Edgar L. Gärtner: Ich würde erst einmal gar nicht von Freiheiten reden, sondern von der Freiheit, denn für mich gibt es Freiheit nur im Singular. Wenn man von „Freiheiten“ spricht, könnte man ja auch von „Gleichheiten“ reden. Da würde jeder sofort merken, dass das Unsinn ist. In der französischen Revolution ging es ja nicht umsonst um Freiheit und Gleichheit. Außer um Freiheit, Gleichheit und Brüderlichkeit ging es übrigens auch um Eigentum, was heute manche vergessen – und alles steht in der Einzahl.

Freiheit kann man nur negativ formulieren. Frei sein heißt, kein Sklave sein, nicht abhängig sein von den Launen eines anderen, der über einem steht. Gehorchen soll man nur dem Gesetz und auf dessen Grundlage selbst entscheiden können, was man tut.

Wir wissen, wie gesagt, nicht, wie das Wetter in zehn, zwanzig Jahren sein wird. Insofern finde ich es sehr wichtig, dass jeder selbst entscheiden kann, was er tun möchte. Wer heute ein Haus baut, muss eigentlich alle Möglichkeiten in Betracht ziehen. Wer solide baut, macht keinen Fehler. Da kommt die Kosten-Nutzen-Abwägung ins Spiel. Mancher baut „für die Kinder“, aber wer weiß, ob diese nicht einen ganz anderen Geschmack haben? Schon da fängt es an, da muss man abwägen: Soll man ein Haus für die Ewigkeit bauen oder so, wie man es sich leisten kann, dass es eben über die eigene Lebensspanne hält – und mit wieder verwendbaren Materialien? Das wäre ein durchaus interessanter Aspekt.

Ich sehe das so, dass man nach dem gesunden Menschenverstand selbst entscheiden sollte. Derzeit schreibt man den Leuten bestimmte Maßnahmen vor, beim Hausbau zum Beispiel diese Isolierungen, deren Wirkung zum Teil gar nicht wissenschaftlich erforscht ist, wie mir Ingenieure und Bauwissenschaftler aus dem Bekanntenkreis bestätigt haben. Diese sagen, vieles, was in den Normen steht, sei schlicht und einfach Unsinn.

Zum Beispiel ist der K-Wert für den Wärmedurchgang durch eine Wand ein rein theoretischer Wert. Entscheidend ist die Höhe des effektiven Energieverbrauchs in einem Gebäude. Da erlebt man Überraschungen. Ich kenne einen Architekten in der Schweiz, der herausgefunden hat, dass in mehrstöckigen Gebäuden aus der Vorkriegszeit am wenigsten Energie verbraucht wird. Sehr schlecht sind Betonbauten aus der Nachkriegszeit, sehr gut hingegen Backsteinbauten. Der Staat schreibt den Leuten nun vor, sie müssen einige Dezimeter Schaumstoff auf die Außenwand auftragen; das nützt gar nichts.

Sinnvoll sind Fenster mit Doppel- oder Dreifachverglasung. Mit der Isolierung der Außenwand wäre ich sehr vorsichtig. Man weiß, dass eine nach Süden ausgerichtete Backsteinmauer, gerade wenn sie unverputzt ist, im Winter sehr viel Sonnenwärme von außen aufnehmen und nach innen abgeben kann und auch eine sehr gute Feuchtigkeitsregulierung bewirkt. Jetzt kommt der Staat, schreibt den Leuten einige Dezimeter Kunststoff außen vor, sie machen alles dicht – und 50% der Besitzer von Häusern mit Wärmedämmung haben Probleme mit Schimmelbildung. Es gibt zwar auch 50 %, die keine Probleme haben, aber es ist doch ein großes Risiko.

Media-Mania.de: Die Erdöl- und Gaspreise steigen massiv, abgesehen davon, dass die Ressourcen angesichts des zunehmenden Verbrauchs über kurz oder lang, wenn auch deutlich später als vom „Club of Rome“ vorausgesagt, erschöpft sein werden. Sollte eine Rückbesinnung auf die Kernenergie stattfinden, so wird sich auch das Uran irgendwann verknappen und maßlos verteuern. Wenn wir also mittelfristig doch auf erneuerbare Energien angewiesen sind, warum sollten wir nicht möglichst rasch reagieren und von den auf dem Markt umkämpften Rohstoffen unabhängig werden?

Edgar L. Gärtner: Von einer absoluten Verknappung von Erdöl und auch Kohle kann aktuell nicht die Rede sein. Es gibt jede Menge Erdöl, allerdings ist eine Zeit lang nicht viel in die Exploration neuer Vorkommen investiert worden. Das Kartell der Förderländer wird nie offen eine Angabe zur Höhe der Vorräte machen, denn das wirkt sich auf den Preis aus, der natürlich hoch bleiben soll. Ein bisschen passen sie freilich auf, denn sie wollen die Verbraucherländer nicht erdrosseln, wodurch ja der Verbrauch sinken würde. Also versucht man, nicht über die Schmerzgrenze hinauszugehen, aber der heutige Preis ist eindeutig manipuliert – und zwar in mehrfacher Hinsicht. Viele Menschen wissen gar nicht, dass sogar der größte Erdölkonzern, Exxon, kaum über eigene Quellen verfügt und daher sehr wenig Einfluss hat. Der Ölmarkt ist nun einmal kein freier Markt. Viel besser sind die Verhältnisse bei der Kohle, von der zurzeit kaum jemand behauptet, dass sie knapp wird. Niemand weiß genau, wie viel Erdöl es gibt. Manche Geologen sagen, es sei viel mehr da, als offiziell angegeben wird. Man muss auch erwähnen, dass Erdöl selbst eine erneuerbare Energie ist.

Media-Mania.de: Ich habe darüber in Ihrem Buch gelesen, aber das sollten Sie erläutern, denn ich habe davon vorher noch nie gehört.

Edgar L. Gärtner: Mit der Analytik befasste Chemiker müssen öfters bestimmen, ob Fette oder Öle aus Erdöl oder von Pflanzen oder Tieren stammen. Die üblichen Analysenmethoden gehen davon aus, dass Erdöl abiotisch, nicht biologisch, entstanden ist. Offiziell gilt es aber immer noch als biologischen Ursprungs, das stimmt aber höchstwahrscheinlich nicht. Es entsteht in der Erdkruste spontan unter bestimmten Bedingungen, die man in Versuchen nachstellen kann. Alle Zutaten zur Entstehung komplexer Kohlenwasserstoffe sind ja in der Erdkruste vorhanden, Kohlenstoff sowieso reichlich; es muss nur ein ausreichender Druck vorhanden sein, und es bildet sich spontan Erdöl. Das ist natürlich nicht immer erreichbar für uns, sondern oft viel zu tief, und häufig braucht es Erdkrustenbewegungen, um in unsere Reichweite zu gelangen. Ich würde aber davon ausgehen, dass Erdöl im Prinzip eine erneuerbare Ressource ist.

Media-Mania.de: Es kommt dann natürlich auf das Verhältnis Neubildung zu Verbrauch an, gerade, weil China und Indien nun dazukommen …

Edgar L. Gärtner: Da gibt es noch viel zu erforschen. Es gibt auch bekannte Vorkommen wie die Teersande, deren Erschließung einen großen Aufwand erfordert. Länder wie Kanada mit großen Vorkommen an Ölsanden freuen sich natürlich, wenn der Ölpreis über 100 Dollar bleibt, weil sich dann die Nutzbarmachung lohnt. Der Aufwand, ans Öl zu kommen, wird natürlich immer größer werden, aber das heißt nicht, dass kein Öl mehr da ist. Es wird dadurch selbstverständlich auch teurer, weil man immer tiefer bohren und auf Öle zurückgreifen muss, die nicht die optimale Zusammensetzung haben, zum Beispiel Ölsande oder schwere Öle, die ziemlich großen Raffinerie-Aufwand erfordern. Meiner Meinung nach gibt es aber keinen wirklichen Engpass, und man sollte in diesem Bereich die Probleme ein Stück weit auf sich zukommen lassen. Nun kommt wieder die Vorsorge ins Spiel und die Grenze, ab der sie irrational wird und die Kosten den Nutzen überwiegen. Man sorgt sich um ungelegte Eier und investiert in Technik, die man vielleicht überhaupt nicht braucht. Erdöl wird sicher nie ganz knapp werden, aber wohl irgendwann so teuer, dass man es sich nicht mehr leisten kann; bis dahin wird man sicher Alternativen haben. Vor Jahren sagte der damalige saudi-arabische Ölminister, Scheich Yamani, das Ölzeitalter werde nicht wegen einer echten Ölknappheit zu Ende gehen, ebenso, wie die Steinzeit nicht aufgrund einer Knappheit an Steinen endete.

Media-Mania.de: Im Folgenden nenne ich mehrere Einwände, die den „Klimaskeptikern“ häufig entgegengebracht werden. Bitte nehmen Sie dazu Stellung.

Erstens: Die „Klimaskeptiker“ werden von Lobbys aus der Erdöl-, Braunkohle- und Atomindustrie gesponsert und sind deshalb alles andere als unparteiisch.

Edgar L. Gärtner: Das ist sehr leicht zu beantworten. Heute hat man es bei der offiziellen Klimatheorie längst mit einer Art Staatsreligion zu tun, es gibt zurzeit weltweit keinen einzigen Konzern, der bereit wäre, auch nur einen Euro locker zu machen für die Position der Klimaskeptiker. Vor einem Monat war ich in New York auf einer großen Konferenz von „Skeptikern“, die von einem reichen Privatmann finanziert wurde, der zwar sicher sein Geld irgendwo in der Wirtschaft gemacht hat, aber es steckte keine Firma, kein Konzern dahinter. Es war eine Ausnahme, fast ein Zufall, dass sich jemand fand, der das finanziert hat. Keine Firma macht das heute mehr, nicht mal Exxon, die immer im Verdacht standen, so was zu machen. Aber das ist nun schon länger her.

Media-Mania.de: Und die Atomindustrie auch nicht?

Edgar L. Gärtner: Bei der Atomindustrie ist es etwas komplizierter. In der Vergangenheit hat sicher mancher von ihr profitiert. In der deutschen Atomindustrie gab es Leute, die fleißig mitgeholfen haben, die Klimahysterie zu schüren, weil sie dachten, auf diesem Umweg die Atomenergie praktisch wieder geschäftsfähig zu machen. Dieses Kalkül ist bislang nicht aufgegangen, aber da ist sicher einiges gelaufen.

Media-Mania.de: In letzter Zeit hat die Anzahl „klimaskeptischer“ Veröffentlichungen etwas zugenommen, sodass der Eindruck entstehen könnte, es fände tatsächlich eine Auseinandersetzung über das Thema „Klimaschutz und –wandel“ statt. In Wirklichkeit legen aber nur ein paar vereinzelte Personen ihre provokativen Thesen dar, denen Tausende renommierter Wissenschaftler gegenüberstehen.

Edgar L. Gärtner: Klar, auf dem deutschen Buchmarkt gibt es zurzeit mehr „skeptische“ Bücher, glaube ich, als „fromme“, möglicherweise sogar bezüglich der Verkaufszahlen, aber die aktuellen Zahlen kenne ich nicht. Die Diskussion ist nicht abgeschlossen. Gerade wird im Europaparlament eine Resolution diskutiert, in der gleich zu Anfang steht, dass die Klimafrage wissenschaftlich abgeschlossen sei. Also besteht kein weiterer Forschungsbedarf mehr, alles ist klar, das ist die offizielle Version. Die findet man natürlich nicht so häufig in Büchern, denn ein Wissenschaftsjournalist, der seine Aufgabe ernst nimmt, kann so etwas gar nicht schreiben: Eine Wissenschaft ist nie abgeschlossen. Wissenschaften und ihre Aussagen sind immer vorläufig, es kommt immer jemand, der etwas besser weiß, und selbst bewährte Theorien werden irgendwann relativiert, wie zum Beispiel Newton durch Einstein. Natürlich wirft man Newton nicht zum alten Eisen, weil Einstein gekommen ist, aber er wurde eben relativiert. Und so ist es immer in der Wissenschaft – jemanden, der behauptet, es bestünde kein Forschungsbedarf, den kann man nicht ernst nehmen.

Es gibt auch immer mehr Forschungsergebnisse, die nicht in das bisherige Bild passen. Um ein Beispiel zu nennen: Die Klimamodelle gehen ja davon aus, dass der Erwärmungseffekt nicht allein vom CO2 ausgeht – 0, 038 % Anteil in der Atmosphäre können das nicht bewirken -, sondern dass es ein positives Feedback gibt zwischen CO2 und Wasserdampf, denn es ist viel mehr Wasserdampf da, und er ist viel wichtiger für die Temperaturentwicklung in der Atmosphäre.

Nun gibt es Satellitenmessungen – keine Modelle, Messungen! -, die nach Ansicht von Roy Spencer von der University of Alabama zeigen, dass Wasserdampf hauptsächlich ein negatives Feedback erzeugt, das heißt, wenn die Luft wärmer wird, wird sie auch feuchter; das tritt vor allem in den Tropen auf. Dort kann man die Satelliten auch sehr einfach auf einer stationären Umlaufbahn halten. Wenn es wärmer wird, gibt es mehr Wasserdampf in der Atmosphäre, mehr Wolken und mehr Niederschläge. Es existiert ein enger Zusammenhang zwischen Temperatur und Niederschlägen, und man kann sagen, dass diese Gase mehr wie ein Thermostat als wie ein Treibhaus wirken, das sich immer mehr aufheizt. Ich nenne sie gar nicht mehr Treibhausgase, sondern bezeichne das als messbaren „Thermostateffekt“.

Man kennt die Klimahistorie inzwischen ganz gut und weiß, dass Afrika immer von wärmeren Phasen der Klimageschichte profitiert hat. Nach der letzten Eiszeit gab es ja eine Warmzeit, ein so genanntes Klimaoptimum, da war die Sahara extrem zusammengeschrumpft und regelrecht grün geworden. Die Ausdehnung des Tschadsees ist aufgrund von Ablagerungen bekannt – dazu braucht man keine Computer, das kann man mit bloßem Auge sehen. Der Tschadsee hatte seine größte Ausdehnung, wenn es auf der Erde wärmer war, und ist geschrumpft, wenn es kühler wurde. Insofern ist die Erwärmung für Afrika eine gute Nachricht, und wenn sich die Erde in den kommenden Jahrzehnten wieder abkühlen sollte, wie manche befürchten, würde sich das auf ganz Afrika negativ auswirken. Eine Erwärmung wäre also durchaus wünschenswert, und man müsste und sollte keine Milliarden investieren, um sie zu bekämpfen. Heute [04.04.08, Anm. Media-Mania.de] konnte man in der FAZ nachlesen, dass in der Zeitschrift „Nature“ führende Leute des IPCC wie Tom Wigley und Roger Pielke jr. darauf hingewiesen haben, dass alles, was man jetzt für den Klimaschutz tut, nichts nützen wird. Die ziehen allerdings daraus den Schluss, Nullemission zu fordern. Ich hingegen würde daraus schließen: Wenn das, was man jetzt tun will, nichts nützt, verzichtet man darauf und lässt den Dingen ihren Lauf. Wir würden ja auch gerne Erdbeben verhindern, können es aber einfach nicht.

Media-Mania.de: Die „Klimaskeptiker“ werfen den Mitgliedern des IPCC oft eine unwissenschaftliche Vorgehensweise vor. Doch bei diesen handelt es sich um qualifizierte Wissenschaftler. Sonst wären sie sicher auch gar nicht in dieses Gremium gelangt.

Edgar L. Gärtner: Das IPCC ist ein Gremium aus zweieinhalbtausend Leuten, und von diesen zweieinhalbtausend sind, glaube ich, nur etwas über hundert wirklich aktive Forscher. Die meisten Mitglieder würde ich als Klimafunktionäre bezeichnen; sie werden von ihren jeweiligen Regierungen entsandt. Die meisten der knapp zweihundert UNO-Mitgliedsstaaten haben Funktionäre in dieses Gremium entsandt, aber viele dieser Staaten, darunter kleine Inselstaaten, betreiben keine eigene Klimaforschung, die haben kein einziges Institut.

Die aktiven Forscher sind also in der Minderheit, und auch sie werden entsandt und kommen nicht über ein Qualifizierungsverfahren in das Gremium. Zudem weiß man, dass einige sehr gute Forscher nicht im IPCC sind, und es gibt auch einige, die das Gremium auf eigenen Wunsch in den letzten Jahren wieder verlassen haben, weil das Verfahren ihnen zu undurchsichtig erschien, und sie falsch zitiert wurden.

Man muss auch erwähnen, dass die IPCC-Reports von zwei Handvoll Leuten geschrieben werden. Wie gesagt, es handelt sich um Klimafunktionäre oder Klimadiplomaten, aus Deutschland etwa werden Leute aus den zuständigen Ministerien entsandt. Obwohl sie ein Studium und eine Qualifikation vorweisen können, sind sie keine Forscher, sondern Diplomaten. Und die diskutieren dann das Summary for Policy Makers, den einzigen Teil der Reports, der eventuell noch gelesen wird. Da wird jedes Wort von dem ganzen Gremium diskutiert, man einigt sich auf den kleinsten gemeinsamen Nenner und kommt dann oft zu nichts sagenden Aussagen, weil eben im Endeffekt alle zustimmen müssen. Ich will damit nichts gegen die UNO sagen, das ist ein anderes Problem.

Auch Leute wie Tom Wigley, die wirklich unmittelbar involviert sind, haben offen gesagt: „Wir waren nicht ehrlich.“ So wie jetzt in „Nature“, wo er meint, die Aussagen über die Gegenmaßnahmen seien nicht gedeckt vom Forschungsstand, und die Gegenmaßnahmen nützten nichts. Wenn das stimmt, wenn die Modelle, auf die sich das IPCC stützt und die ja übrigens eine große Spannbreite haben (interessanterweise sagt keines dieser Modelle eine Abkühlung voraus, was ja statistisch zu erwarten wäre), dann ist die neueste Erkenntnis die, dass die Erwärmung unvermeidlich ist, und dann hat es auch keinen Sinn, Milliarden für ihre Bekämpfung auszugeben.

Ich persönlich halte mich meistens den ganzen Sommer über am Mittelmeer auf und könnte mit einer mäßigen Erwärmung gut leben; es gibt auch Studien, die besagen, dass eine solche Erwärmung den Menschen zuträglich wäre: Man hätte weniger Erkältungskrankheiten – es gibt einen eindeutigen Zusammenhang zwischen kalten Wintern und Erkältungshäufigkeit, in kalten Wintern sterben auch viel mehr Leute. Nicht zufällig ist die Lebenserwartung in Südfrankreich um einige Jahre höher als in Nordfrankreich. Der Wirtschaft ginge es insgesamt besser, der Landwirtschaft sowieso. Das wäre günstig für die Ernährungssituation, denn man könnte die Landwirtschaft bis ins nördlichere Sibirien ausdehnen. Wie schon erwähnt, wäre für Afrika die Erwärmung ein Segen, weil es dort in wärmeren Zeiten mehr regnet. Daraus ergäbe sich also wohl kein Problem.

Es gibt eine enge Korrelation zwischen Temperatur und Sonnenaktivität. Ich bin zwar kein Spezialist dafür, aber die Korrelation ist eindeutig …

Media-Mania.de: So viel ich weiß, stimmt sie für die letzten Jahre aber nicht mehr.

Edgar L. Gärtner: Doch, in der Diskussion waren einige Leute wie Prof. Rahmstorf vom Potsdam Institut für Klimafolgenforschung (PIK) etwas voreilig, denn der Sonnenzyklus hat sich zwar schon eine Weile abgeschwächt, richtig, das läuft auseinander, aber man muss annehmen, dass es da eine Zeitverzögerung gibt. Das ist auch einsichtig, denn die Erde absorbiert den größten Teil der Sonnenenergie über die Meere, also über warmes Wasser. Der Löwenanteil der Sonnenstrahlen besteht ja aus Infrarotstrahlen, es sind also schon Wärmestrahlen, die ankommen. Und diese heizen die riesigen Ozeane auf. Wasser hat eine große thermische Trägheit, von der wir auch profitieren. Sonst würde es im Winter ja viel kälter. Manche Leute rechnen daher mit einer Verzögerung von zehn Jahren. Und dann wäre das stimmig, denn, wie schon erwähnt, haben sich die Ozeane in den letzten Jahren nicht mehr erwärmt.

Media-Mania.de: Ich komme kurz auf die Forscher zurück. Sie sagen, es gebe im IPCC sehr wenige Forscher – muss man denn dort nicht vor allem Leute haben, die weniger an vorderster Front forschen, sondern eher Forschungsergebnisse kompetent zusammenführen und interpretieren?

Edgar L. Gärtner: Als Wissenschaftsjournalist habe ich mich natürlich mit der Aggregierung von Wissen befasst, denn die meisten Forscher sind ja, wie man abwertend sagt, Fachidioten, weil man Hochleistungsforschung natürlich nur auf einem sehr engen Gebiet machen kann. Ein Generalist kann keine wirkliche Forschung betreiben. Wer an vorderster Front forscht, ist also stark spezialisiert und hat nicht mehr die Übersicht. Man muss irgendwelche Mechanismen finden, die diese Aggregierung leisten, das ist richtig, und das gilt auch nicht nur für die Wissenschaft. Es gibt ein Buch von James Surowiecki, „Die Weisheit der Vielen“, und das bezieht sich zum Beispiel auch auf die Wirtschaft. Der Autor leitet darin viele sauber aufgelistete Erkenntnisse ab, und er sagt sinngemäß: „Wenn man erreichen will, dass ein Kollektiv schlauer ist als ein Einzelner, muss gewährleistet sein, dass die Einzelnen, die ihre Meinungen kundtun, voneinander unabhängig sind.“ Das ist ja auch der Grund, weshalb man in Wahlkabinen und nicht öffentlich wählen lässt.

Eine andere Bedingung ist, dass es in der Aggregierung eine Art Marktmechanismus gibt, eine Art Wissensmarkt, ein Wechselspiel von Angebot und Nachfrage mit einer gewissen Auslese. Wenn man das IPCC sieht, beobachtet man, dass diese Voraussetzungen nicht gegeben sind, denn die Mitglieder des IPCC sind nicht voneinander unabhängig. Deren Karriere hängt extrem davon ab, was andere über sie denken, weshalb sie sich oft gar nicht leisten können, ihre Gedanken offen auszusprechen. Was eben auch dazu führt, dass eine Reihe von bekannten „Skeptikern“ alte Leute sind, denn die konnten ihren Mund erst aufmachen, als sie pensioniert wurden. Ein aktuelles Beispiel ist ein führender französischer Physiker, der vor kurzem pensioniert wurde und nun unter dem Pseudonym Jean Martin den Blog „Pensée unique“ betreibt. Er möchte seine Identität nicht preisgeben, um die Mitarbeiter des Instituts, das er geleitet hat, nicht in Schwierigkeiten zu bringen.

Die Gegenseite sagt: „Das sind alte Knacker, die haben nicht mehr die Kurve gekriegt, sind verkalkt“ und so weiter. Ich sehe das eher positiv, weil diese Menschen unabhängig sind, keine Karriereperspektiven mehr haben und deshalb sagen können, was sie wirklich denken und aufgrund ihrer reichen Erfahrungen einiges besser einschätzen können als junge Leute, die neu in der Materie sind.

Man muss ja auch erwähnen, dass Klimaforscher nicht unbedingt Spezialisten sind, viele von ihnen kennen sich besser mit Computern aus als mit dem realen Wetter. In meinem Studium habe ich selbst Bioklimatologie betrieben: Wir haben anhand von Zeigerpflanzen Klimazonen festgelegt; anhand des Jahresgangs der Temperatur und der Niederschläge kann man eigentlich alles einteilen, und dann nimmt man Pflanzen, vorzugsweise Bäume, und kann damit Klimazonen auf den Kilometer, teils Meter, festlegen. Da habe ich also aktiv mitgearbeitet. Viele von den Leuten, die Modelle bauen, kennen das gar nicht. Die haben Mathematik oder Physik studiert und waren wahrscheinlich auch ganz gute Studenten, wissen aber zu wenig über das Klima.

Media-Mania.de: Es müssten also zum Beispiel mehr Meteorologen im IPCC sein.

Edgar L. Gärtner: Ja, es sind erstaunlich wenige Meteorologen dabei. Als Beispiel: Stefan Rahmstorf ist theoretischer Physiker und hatte ein Thema, das in Richtung Einstein ging. Damit hat er sich wohl nur geringe Karrierechancen ausgerechnet und sich noch im Rahmen seines Studiums umorientiert. Aber er hat nicht Meteorologie oder Klimatologie studiert.

Media-Mania.de: Haben Sie ein weiteres Buch in Planung oder in Arbeit, und wenn ja, worum wird es darin gehen?

Edgar L. Gärtner: Ich beschäftige mich sehr stark mit dem Problem des gesunden Menschenverstandes, was schon mit der Frage beginnt, ob es so etwas überhaupt gibt, denn manche streiten das ab. Ich habe im Moment nicht vor, darüber ein Buch zu schreiben, aber später vielleicht schon. Das ist auch ein sehr politisches Thema. Natürlich wird es auch ein paar Aspekte aus der Hirnforschung geben, weil sich da zurzeit viel tut, aber das wäre nicht die Hauptsache. Ich bin da sehr stark beeinflusst von der Philosophin Hannah Arendt. Es gibt nicht viele Philosophen, die über den gesunden Menschenverstand geschrieben haben. Dieses Projekt ist jedoch noch nicht so konkret.

Ich möchte aber gerne vorher ein Büchlein schreiben zum Thema „Achtung! Das funktioniert!“, ausgehend von der Beobachtung, dass heute etwas, das funktioniert, schon fast verdächtig wirkt. Die Leute sehnen sich ständig nach Dingen, die nicht funktionieren können. Ich möchte eine Art Lexikon machen – alphabetisch, nicht so verschachtelt, etwas leichter. Über mein Buch [„Öko-Nihilismus“, Anm. Media-Mania.de] haben viele Leute gesagt, es sei gut, aber nicht so leicht zu lesen, man brauche viel Zeit. Es ist in der Tat etwas dicht geschrieben, aber der Umfang war vom Verlag vorgegeben. Und da möchte ich nun etwas leichtere Kost bieten, ein Lexikon also, sozusagen Kraut und Rüben, Technik, aber auch Politik und Aspekte aus dem normalen Leben bis hin zur Religion, denn dort gibt es ja auch Dinge, die funktionieren.

Media-Mania.de: Ich bedanke mich für das Interview und wünsche Ihnen weiterhin viel Erfolg bei Ihrer Arbeit.

Edgar L. Gärtner: Danke.

(Dieses Interview wurde von Regina Károlyi am 04.04.2008 2008 in Frankfurt/Main geführt.)

=============================================================================================

Besprechungen

Media-Mania, 15. Februar 2008

Wenn ein ausgebildeter und versierter Ökologe die gängige Politik im Namen der Ökologie scharf angreift, so mag das auf den ersten Blick verwundern. Traut man sich, ein Buch zu lesen, das sich massiv gegen den “Mainstream“ der Publikationen zum Thema Klima- und Umweltschutz wendet, dann wundert man sich anschließend eher darüber, dass sich nicht mehr Fachkundige wie Edgar L. Gärtner kritisch bezüglich der aktuellen Politik und Stimmungsmache äußern.

Denn, so vermag der Autor schlüssig und unkompliziert nachzuweisen, die Klimadebatte und die damit verbundenen Restriktionen für den Einzelnen beruhen größtenteils nicht auf Daten, die mittels naturwissenschaftlicher, eindeutiger Methoden gewonnen wurden, sondern auf Computersimulationen, die auch heute noch extrem fehlerbehaftet sind und sich an Größen orientieren, die nach dem aktuellen Wissensstand so nicht stimmen und im Grunde jedes gewünschte Ergebnis liefern können.

Schritt für Schritt analysiert Edgar L. Gärtner die Umweltschutzpolitik der letzten Jahrzehnte. Er zeigt, dass Nachhaltigkeit, von der Idee her durchaus klug, in der von Politikern propagierten Form nur zu Verarmung eines Großteils der Bevölkerung und zu einem wirtschaftlichen Rückschritt führen kann. Vor allem geht es ihm darum, deutlich zu machen, dass die von oben verordnete und logisch nicht nachvollziehbare Klimaschutzpolitik auf einen massiven Verlust des Einzelnen an Freiheit, einem demokratischen Grundrecht, abzielt. Dazu gehören nicht einmal so sehr die Versuche, die Mobilität des Bürgers durch unmäßiges Verteuern und Verleiden des Autofahrens einzuschränken, sondern sondern durch regelrechte Planwirtschaft (beispielsweise Reduktion eines erheblichen Teils der Kohlendioxidemissionen in kürzester Zeit, obwohl mittlerweile vieles gegen das Kohlendioxid als wesentlicher Faktor im Klimageschehen spricht). Politiker versuchen, ein neues, die Bevölkerung in ihrer Angst einigendes Feindbild zu kreieren, das Kohlendioxid, nachdem der alte Feind “Kommunismus“ mit dem Ende des Kalten Kriegs abhanden gekommen ist.

Die Ökologie hat sich dem Autor und seinen Argumenten zufolge zum Ökologismus gewandelt, einer Religion oder einem Religionsersatz zur Erzeugung eines schlechten Gewissens und eines Heilsgedankens; diese Religion hält sich allerdings für die allein verbindliche und stellt somit unser Recht auf Religionsfreiheit infrage.

Gärtner spürt vielen Aspekten des Ökologismus seit seinen Anfängen nach, die etwa bei Rousseau anzusiedeln sind: dem Nachhaltigkeitsgedanken, dem “Vorsorgeprinzip“, das vor lauter Sorge um die Zukunft die Gegenwart brachliegen lässt, und dem eigenartigen Demokratieverständnis der Anhänger des Ökologismus.

Wer sich ausschließlich an den Massenmedien orientiert, ohne den gesunden Menschenverstand einzusetzen, wird diesem Buch wenig abgewinnen können, denn es fordert den berühmt-berüchtigten “Common Sense“ ein und dazu den Willen, sich auf naturwissenschaftliche Zusammenhänge einzulassen und anzuerkennen, dass es keineswegs die viel propagierte Übereinstimmung unter den so genannten Klimaforschern gibt, sondern vor allem eine Jagd nach ziemlich willkürlich verteilten Fördergeldern. Warum sonst würden Klimaforscher, lange Zeit dem “Mainstream“ angehörig, nach ihrer Pensionierung plötzlich gegen diesen angehen?

Der Autor als Naturwissenschaftler kritisiert nicht zu Unrecht, dass in den zum Klimaschutz berufenen Gremien hauptsächlich Computerspezialisten sitzen, nicht jedoch, wie anzunehmen, Naturwissenschaftler, vor allem auch Geologen und Astronomen. Angesichts dieser Tatsachen fällt es Gärtner leicht, Aussagen nicht nur des “Club of Rome“ in den 70er-Jahren des letzten Jahrhunderts, sondern auch aus populärwissenschaftlichen oder Fachartikeln zum Thema ad absurdum zu führen.

Gärtner untersucht die Ursachen des aktuellen Verlustes an Freiheit (Meinungsfreiheit eingeschlossen, denn wer sich kritisch-fundiert zur politisch motivierten Ökologie äußert, muss, wie auch die Rezensentin weiß, ein starkes Rückgrat haben), der von einem nicht geringen Teil der Bevölkerung schweigend mitgetragen wird, und damit einhergehende Phänomene auf ihre Relevanz für die künftige Wirtschaft.

Dass sich im Sinne der Unterbindung der Freiheit abseits der öffentlich zugänglichen Räume einiges tut, ist unbestritten, und der liberale Autor zeigt zudem auf, wie die zunehmende Freiheitsbeschneidung sich gerade auf die abhängig Beschäftigten auswirkt. Denn jeder einzelne Mitarbeiter sollte, meint Gärtner, seinen Grundrechten entsprechend, seine Zukunft und die seiner Kinder und Enkel weitestgehend selbst gestalten dürfen, was schon allein aufgrund der exorbitanten Einkommensbesteuerung zunehmend schlechter möglich ist.

Kaum ein Aspekt zum Thema, den Gärtner sich nicht vornimmt, und die Parteienlandschaft kommt durch die Bank schlecht weg. Ob sich der Leser nun über den wirklich notwendigen Umweltschutz oder den Sinn und Nutzen einer Gelben Tonne informiert, der Autor argumentiert immer logisch. Allerdings setzt er gelegentlich mehr angelesenes oder an der Hochschule erworbenes Sachwissen voraus, als der Leser unter Umständen mitbringt, und sein Stil wirkt streckenweise zu gedrängt. Er zeigt jedoch schonungslos auf, woran etliche Menschen heute auf Kosten der Mehrheit verdienen, und gibt allen anderen die Chance, dies zu unterbinden. Man muss nicht unbedingt in jedem Detail mit Gärtner übereinstimmen, sollte aber im Sinne einer differenzierten Meinungsbildung Bücher wie dieses gelesen haben.

Regina Károlyi, Media-Mania.de

==============================================================================================

Eine philosophische Abrechnung mit der Politischen Ökologie

von Dr. Gerhard Voss

Einen nicht ganz einfachen Lesestoff präsentiert der studierte Hydrobiologe und Umweltjournalist Edgar L. Gärtner mit seinem fast 300 Seiten umfassenden Buch über die Hintergründe der weltweiten umwelt- und klimapolitischen Entwicklungen. Als früherer Akteur der „grünen“ Bewegung gehört Gärtner heute zu den selteneren kritischen Geistern in der Umweltdiskussion. Sein Buch ist deshalb auch nicht nur eine distanzierte Würdigung aktueller umweltpolitischer Daten und Fakten, sondern mehr eine engagierte, mit vielen historischen Bezügen und philosophischen Argumenten gespickte Abrechnung mit der politischen Ökologie.

In einer Gesellschaft, die gerade auch in der Umwelt- und Klimapolitik auf political correctness Wert legt, wirkt schon der Titel des Buches provozierend. Um die Studie richtig einordnen zu können, muss man sich unvoreingenommen auf die Suche nach dem Wertegerüst begeben, von dem aus der Autor die politischen Entwicklungen beurteilt. So lässt er gleich zu Beginn in einer persönlichen Vorbemerkung den Leser wissen, dass er sich politisch bei den “Radikal-Liberalen“ oder “Libertären“ und „Konservativen mit mehr oder weniger engen religiösen Bindungen“ verortet. Unmissverständlicher könnte seine Positionsbestimmung auch lauten: Liberal mit religiösen Bindungen. Märkte sind für ihn nicht von sich aus frei, sondern bedürfen „der politischen Gestaltung einer universal-moralisch begründeten Rahmenordnung“ (S. 230). Dabei beruft Gärtner sich auch auf Friedrich August von Hayek, der wiederholt auf Bezüge zwischen Marktwirtschaft und christlicher Religion hingewiesen hat.

Wichtig für den Standpunkt des Autors ist aber auch seine Definition von Nihilismus, die im ersten Kapitel auf Seite 22 erfolgt. Nihilist sein bedeutet nicht, an nichts zu glauben, sondern nicht zu glauben an das, was ist. Der Realitätsverlust so mancher Politiker ist ein Symptom dieser Haltung. Am Schluss des Buches, im Abschnitt „Ein amerikanischer Traum von Europa“, wird Gärtners Weltsicht nochmals komprimiert beschrieben: Das Argumentationsmuster, mit dem Albert Camus seinerzeit totalitäre und nihilistische Entwicklungen im 20. Jahrhundert gegeißelt hat, bildet den anspruchsvollen politischen, philosophischen und letztlich auch religiösen Hintergrund des Buches. Öko-Nihilismus steht bei Gärtner für Verachtung der „unveränderlichen menschlichen Natur“, für „Ersatz individueller Freiheitsrechte durch Wertekataloge, die Gesinnungsterror rechtfertigen“ wollen. In diesen Kontext ist auch der „gesunde Menschenverstand“ einzuordnen, dem der Autor mit Verweis auf das Subsidiaritätsprinzip der katholischen Soziallehre sozusagen die Rolle eines generellen Problemlösers zuweist.

Vor dem Hintergrund des beschriebenen Wertegerüstes entwickelt der Autor seine harsche Kritik am Wohlfahrtsstaat und an der politischen Ökologie, wie sie sich in den letzten Jahrzehnten entwickelt haben. Aufgrund seiner intimen Kenntnisse über die Entwicklung der Umweltbewegung in Deutschland werden die verschiedensten polit-ökologischen Strömungen sowie umweltpolitische Aktionsprogramme und Maßnahmen unter die Lupe genommen. Kritik wird vor allem am Vorsorgeprinzip geübt. Wie in der Sozialpolitik des Wohlfahrtsstaates würden auch in der Umweltpolitik mit diesem Prinzip Maßnahmen, Programme, Gesetze und Verordnungen begründet, die dem Einzelnen die Luft zum Atmen rauben würden. Die Wurzeln dieser Entwicklung liegen nach Ansicht des Autors bei dem heute dominierenden „jakobinschen“ Primat der Politik, „bei dem das Recht auf Freiheit hinter das Recht auf Existenz durch staatliche Fürsorge zurücktritt“ (S. 173). Nicht zuletzt auch die Programme und Pläne für eine nachhaltige Entwicklung hätten nichts anderes zum Inhalt, als dass sie die Menschen zu ihrem Glück zwingen wollten. Nachhaltigkeit ist für Edgar Gärtner, so wie es auch die Enquete-Kommission des Bundestages „Schutz des Menschen und der Umwelt“ formuliert hat, kein planbarer, wissenschaftlich begründbarer Zustand, sondern eine „regulative Idee“ im Sinne Kants, „ein offenes erkenntnistheoretisches Konstrukt, das dem menschlichen Verstand bei Such- und Lernprozessen die Richtung weist“ (S.193).

Allerdings ist auch der Autor selbst nicht gefeit vor Polemik und überzogenen Positionen. Das ist beispielsweise bei den an vielen Stellen des Buches fast ideologisch anmutenden Ausführungen zu den klimapolitischen Zusammenhängen der Fall. Die Einordnung von Theorien über eine drohende Klimakatastrophe – so fragwürdig sie auch sein mögen – als „von selbsternannten Hohepriestern frei erfunden“ (S. 243), überschreitet nicht nur das Gebot der political correctness, sondern schneidet auch den Weg ab für eine bessere politische Bewertung von Erkenntnissen der Klimaforschung. Insgesamt fehlt die konstruktive Würdigung der Existenz globaler politischer Gestaltungsaufgaben, gerade auch in der Umwelt- und Klimapolitik. Auch so mancher vernünftige Ansatz in der Wirtschaft und Gesellschaft für den Umwelt- und Klimaschutz sowie die internationale Zusammenarbeit gehen im Kritikhagel des Autors unter. Zudem erscheint die Beschreibung der Umwelt- und Klimapolitik als ein Werkzeug der Kalten Krieger sehr eigenwillig. Auch so manche Problemgewichtung und Kritik ist unverhältnismäßig. Es wird mit Kanonen auf Spatzen geschossen. So wird beispielsweise die Agenda 21 sehr einseitig ausgelegt und in ihrer Bedeutung weit überschätzt. Das gilt auch für den Emissionshandel. Für den im Umwelt- und Klimaschutz engagierten Bürger, Wissenschaftler und Politiker bietet das Buch dann auch für den Alltag nur begrenzte Hilfestellungen. Aber es provoziert und zwingt den Leser zur Überprüfung seiner eigenen Position oder Vorurteile.

Unabhängig von seiner umwelt- und klimapolitischen Einordnung ist das Buch aber ein eindrucksvolles Plädoyer für eine freiheitliche Wirtschaft und Gesellschaft, die nicht einfach dem Laissez-faire frönt, sondern in der die individuelle Freiheit und Verantwortung des Einzelnen in den Vordergrund gestellt wird. Lesenswert ist das Buch vor allem auch deswegen, weil das Plädoyer für die Freiheit mit vielen originellen historischen Bezügen und philosophischen Darstellungen verknüpft wird. Dabei erfolgt auch eine lehrreiche, zum Teil recht eigenwillige Auseinadersetzung mit einschlägigen Philosophen, Soziologen, Historikern und politischen Strömungen.

Dr. Gerhard Voss

Langjähriger Leiter der Forschungsstelle Ökonomie/Ökologie im IW Institut der deutschen Wirtschaft, Köln

(erschienen in: Zeitschrift für Umweltpolitik & Umweltrecht (ZfU), Nr. 4/2008)

=========================================================================================

DIE WELT vom 1. September 2007

Buchtipp

Jungks Atomstaat geht, Gabriels Karbonstaat kommt

Von Ulli Kulke 1. September 2007, 13:00 Uhr

Edgar L. Gärtner plädiert dafür, in der Klimadebatte einen kühlen Kopf zu bewahren. Nicht der Islamismus ist für den Autoren der Nachfolger des Kommunismus als Gefahr für den Westen, sondern der ökologische Totalitarismus. Die Naturwissenschaft wird zur Umweltwissenschaft.

Öko-Nihilismus

Im Jahre 1977 veröffentlichte der Sachbuchautor Robert Jungk seinen Klassiker „Der Atomstaat“. Ein düsteres Szenario. Jungk stellte neben die damals um sich greifende Angst vor atomarer Strahlung, vor dem GAU, vor der Jahrtausendlast Atommüll, auch noch die Furcht vor dem totalen Überwachungsstaat. Durch diesen, so lautete die Lesart Jungks, werde die Bundesregierung die nuklearen Risiken der geplanten rund 50 Atomkraftwerke einzudämmen versuchen – mit ungewissem Ausgang, versteht sich.

Jungks Szenario blieb ein Horrorgemälde, der GAU im Lande kam nicht, auch Big Brother war weiterhin Science fiction. Wenn sich heute Totalitäres abzeichnet, so aus einer ganz anderen Richtung, platt gesagt aus der Gegenströmung heraus. Auch wenn es abermals um den Energiebereich im Lande geht, die Grundlage der Volkswirtschaft. Edgar Gärtner warnt in seinem neuen Buch „Öko-Nihilismus“ vor den einschneidenden Konsequenzen, die die aus seiner Sicht mehr als fragwürdig verlaufende, aber dennoch verhängnisvolle Klimadebatte auf unser Leben haben wird.

Gerade auch dieser Tage, lange nach Drucklegung des Buches, wird deutlich, wie einschneidend sich im Zuge des neuen Diskurses die Rolle des Staates in Wirtschaft und Gesellschaft verändern wird. Die mit viel Aplomb und professioneller Medienarbeit im Frühjahr vorgestellten Weltklimaberichte waren da nur der publicityträchtige Überbau, jetzt aber wird es ernst.

Der „Klimacent“ ist in die Debatte geworfen. Auch wenn seine Einführung sogleich dementiert wurde: Die Steuer wird kommen, und sie wird gewaltig ausfallen, schließlich soll die Energie aus dem Markt genommen und in eine staatlich bestallte Branche überführt werden, in dem nicht mehr die 2,5 Cent teure Kilowattstunde aus der Kernkraft dominiert, sondern die viermal so teure aus Wind und Sonne – gespeist aus Steuermitteln. Der Staat wird auch das andere Ende der Stromleitung beherrschen: Niemand soll mehr Strom und Wärme nach Gutdünken ins eigene Haus holen dürfen. Baden-Württemberg macht den Anfang und schreibt vor, welche Aggregate im Keller oder auf dem Dach zu installieren sind. Bundesweit schließlich wird kein Haus mehr privat verkauft werden dürfen, ohne dass es einem staatlichen Klimacheck unterworfen wurde, vom First bis zum Fundament.

Die immer anspruchsvolleren Klimaziele, die sich nicht nur die Bundesregierung, sondern alle Parteien, alle gesellschaftlichen Gruppierungen gesetzt haben, zeigen: Dies ist nur der Anfang. Sehr verhalten nur beginnt es nun den Wirtschaftsverbänden zu dämmern, wohin der mit erneuerbaren Energien getriebene Zug im Lande hinrollt: Werden die Verbände, ja wird die ganze Marktwirtschaft obsolet wie bei der letzten großen Umwälzung der Heizer auf der E-Lok? Wird der unheimliche Lenin wiederauferstehen und seinen alten Spruch „Sozialismus ist Sowjetmacht plus Elektrifizierung“ nun etwas abgewandelt unter die Leute bringen: „Sozialismus ist Grüne Macht plus Solarstrom?“

Kein Zufall ist es jedenfalls: Die Energiewirtschaft, die Schlüsselbranche, scheint nur allzu verlockend zu sein als Hebel für politische Umbrüche, ob gewaltsam oder auf leisen Sohlen. Sie ist gut

Vom Schwarzen zum Grünen Tod

Paul K. Driessen: Öko-Imperialismus. Grüne Politik mit tödlichen Folgen. TvR Medienverlag, Jena 2006, 220 Seiten. € 19,-. ISBN-10: 3-00-018838-X

Öko-Imperialismus: Paul K. DriessenDas durch Science fiction (Rachel Carsons „Silent Spring“) und eine darauf aufbauende „grüne“ Heilslehre begründete weltweite DDT-Verbot hat dazu geführt, dass jahraus, jahrein etwa eine halbe Milliarde Menschen an Malaria erkrankt, wovon etwa drei Millionen sterben. Es brauchte Jahrzehnte, bis die Top-Bürokaten der Weltgesundheitsorganisation WHO einsahen, dass die beschränkte Wiederzulassung des umstrittenen chlorierten Insektizids für die Innenraumanwendung der einzige bezahlbare und verlässliche Weg ist, um die Ausbreitung der Krankheit vor allem in Afrika zu stoppen. Das DDT-Verbot zeigt am drastischsten, wie gut gemeinte politische Eingriffe in den Welthandel unter dem Banner der „nachhaltigen Entwicklung“ und des „Vorsorgeprinzips“ die gesundheitliche und wirtschaftliche Entwicklung ganzer Kontinente hemmen und die Lösung dringender Menschheitsprobleme erschweren, wenn nicht gänzlich vereiteln können. Weiterlesen

Michael Crichtons verhinderter Bestseller

Michael Crichton: Welt in Angst. Roman. Aus dem Amerikanischen von Ulrike Wasel und Klaus Timmermann. 608 Seiten mit zahlreichen s/w-Abbildungen. Geb., € 24,90. ISBN 3-89667-210-X

Welt in AngstWas dem dänischen Statistiker Björn Lomborg mit seinem Buch „Apokalypse No“ in Deutschland nicht gelang, hätte doch nun vielleicht in Ansätzen dem vor allem durch die erfolgreich verfilmte Horror-Vision „Jurassic Park“ bekannt gewordenen US-Bestsellerautor Michael Crichton gelingen sollen: Die Einsicht zu befördern, dass die vorgeblich einzig um das Überleben der Menschheit besorgten Warner vor einer drohenden Klimakatastrophe nicht nur unglaubwürdig, sondern auch gefährlich sind, weil sie lähmende Angst verbreiten, die zur Zementierung überkommener Machtverhältnisse ausgenutzt wird. Damit liefert Crichton gleich das Drehbuch für einen Film, dessen Anliegen dem des Horrorfilms „The Day After Tomorrow“ von Roland Emmerich gerade entgegengesetzt wäre. Weiterlesen

Grüner Selbstbetrug

Das Weltbild der Grünen scheint unerschütterlich, zumal es inzwischen von den meisten Deutschen geteilt wird. Zwar erinnern sich die Grünen, seit sie in der Berliner Regierung Bundeswehreinsätze auf dem Balkan und am Hindukusch mitverantworten müssen, nur noch ungern öko-pazifistischer Parolen aus ihren Gründungstagen wie „Frieden schaffen ohne Waffen!“ Doch noch immer eint sie die Vorstellung, nicht durch die Förderung der Glaubensfreiheit und des Freihandels komme man dem Weltfrieden näher, sondern durch den ökologischen Umbau der Wirtschaft in eine „nachhaltige“ Hauswirtschaft.

Grüner Selbstbetrug in der Energiepolitik

Von Edgar Gärtner

Das Weltbild der Grünen scheint unerschütterlich, zumal es inzwischen von den meisten Deutschen geteilt wird. Zwar erinnern sich die Grünen, seit sie in der Berliner Regierung Bundeswehreinsätze auf dem Balkan und am Hindukusch mitverantworten müssen, nur noch ungern öko-pazifistischer Parolen aus ihren Gründungstagen wie „Frieden schaffen ohne Waffen!“ Doch noch immer eint sie die Vorstellung, nicht durch die Förderung der Glaubensfreiheit und des Freihandels komme man dem Weltfrieden näher, sondern durch den ökologischen Umbau der Wirtschaft in eine „nachhaltige“ Hauswirtschaft. Nach dem Motto „Am deutschen Wesen soll die Welt genesen“ empfehlen sie das inzwischen ergrünte Modell des deutschen Korporatismus der ganzen Welt zur Nachahmung.

Unser Globus sei ein geschlossenes System natürlicher Stoffkreisläufe, in das sich die Menschen durch die Drosselung des Einsatzes, wenn nicht durch den völligen Verzicht auf den Verbrauch nicht erneuerbarer fossiler Energieträger und mineralischer Rohstoffe bei Strafe ihres Untergangs im „Klimakollaps“ einfügen müssten, predigen die zeitgenössischen Jünger Kassandras nun seit über 30 Jahren. Das sei auch der einzige Weg zum Weltfrieden, denn Kriege würden hauptsächlich wegen des Streits um knapper werdende Naturgaben wie Wasser und Energie geführt, glauben viele. Dabei ließ bereits der tumultartige Karlsruher Gründungsparteitag der Grünen vor nunmehr 25 Jahren erahnen, dass das ökologistische Weltbild nicht unbedingt den Frieden fördert.

Aber in einem zutiefst verunsicherten, von Ängsten und Selbstzweifeln geplagten Volk finden die wahrlich hausbackenen Vorstellungen von einem statischen Universum immer noch Anklang. Was zählt da schon der Einwand, dass die reale Welt in jeder Hinsicht offen ist und zu (mitunter unangenehmen) Überraschungen neigt, weil sie aus dem Kosmos nicht nur energiereiche Strahlung, sondern auch tonnenweise Materie empfängt und weil ihr flüssiger bis breiiger heißer Kern von einer Kruste umschlossen wird, die nur scheinbar festgefügt ist? Was zählt der Hinweis, die nach oben offene Erdatmosphäre könne sich schwerlich wie ein Treibhaus aufheizen?

Freilich sind die Grünen inzwischen auf etlichen Gebieten der Politik in der Realität angekommen. Sie haben gelernt, nicht mehr alles sofort und auf einmal zu fordern. Viele von ihnen haben mit der einst verteufelten Chlorchemie, mit PVC-Kunststoff und mit der Müllverbrennung ihren Frieden gemacht. Doch in der Energie- und Klimapolitik ziehen es die meisten vor, an den Mythen ihrer Gründertage festzuhalten. Dazu gehört der Glaube, durch eine Drosselung des globalen Kohlenstoffkreislaufs mithilfe des verstärkten Einsatzes kohlenstofffreier Energiequellen wie Wasserturbinen und Windrädern die globale Erwärmung aufhalten zu können. Der „Klimaschutz“ (es geht dabei eigentlich um den aberwitzigen Versuch, ein statistisches Konstrukt, die Durchschnittstemperatur über den Landmassen der Erde, zu stabilisieren) gilt als das absolut Gute, bei dem sich eine nüchterne Kosten-Nutzen-Abwägung verbietet.

Ohnehin erscheint es in einem Land, in dem, von vielen bejubelt, der Begriff „Humankapital“ zum Unwort des Jahres erklärt wurde, als unanständig, nach der wirtschaftlichen Machbarkeit von etwas gut Gemeintem zu fragen. So konnte die rot-grüne Regierung den Deutschen auch ungestraft verschweigen, warum die USA das Kioto-Protokoll über die Reduktion des Ausstoßes von Kohlendioxid und anderer „Treibhausgase“ nicht ratifizieren wollen, obwohl auch deren Politiker mehrheitlich an die dem Abkommen zugrunde liegende Treibhaus-Hypothese glauben: In dieser Hinsicht völlig unverdächtige linksliberale Ökonomen vom MIT in Boston (William D. Nordhaus und Charles Boyer) hatten überzeugend vorgerechnet, dass die Kosten einer Umsetzung des Kioto-Abkommens mindestens doppelt so hoch wären wie ihr absehbarer Nutzen.

Wer den Schweige-Konsens durchbricht, hat in Deutschland keinen leichten Stand. Das musste der Vorgänger von Bundeswirtschaftsminister Wolfgang Clement (SPD), der parteilose Werner Müller, erfahren, als er im Jahre 2001 die Kosten der nicht nur von den Grünen geforderten Absenkung der Kohlendioxid-Emissionen um 40 Prozent bis zum Jahre 2020 abschätzen ließ. Herausgekommen waren nicht weniger als 256 Milliarden Euro. Mit diesem Betrag werde in Deutschland eine Emissionsminderung von 400 Millionen Tonnen CO2 erzielt. „Das reicht nicht einmal aus, um den globalen Anstieg der CO2-Emissionen eines einzigen Jahres zu kompensieren“, heißt es in Müllers Energiebericht (S.69) lapidar. Bundesumweltminister Jürgen Trittin (Die Grünen) setzte viel daran, die Publikation dieses Berichtes zu verhindern. Zumindest erreichte er, dass die Kostenschätzung von 256 Milliarden Euro im Innern des Berichts versteckt und nicht in der zusammenfassenden Übersicht hervorgehoben wurde. Müller warf das Handtuch und kehrte in die Privatwirtschaft zurück. In der zweiten rot-grünen Regierung hat Bundeskanzler Gerhard Schröder dann auf Betreiben der Grünen dem Wirtschaftsministerium gleich die Zuständigkeit für die Umsetzung des im Jahre 2000 verabschiedeten Gesetzes für den Vorrang Erneuerbarer Energien (EEG) entzogen und sie in die Hand des Umweltministeriums gelegt. Somit scheint gewährleistet, dass Wirtschaftlichkeitsüberlegungen auf diesem Gebiet gar nicht erst angestellt werden.

Hauptinhalt des EEG ist die marktwidrige Verpflichtung der Stromnetzbetreiber, Strom aus Wasser-, Wind-, Sonnen- und Biomassekraftwerken unabhängig vom tatsächlichen Bedarf jederzeit gegen eine garantierte kostendeckende „Einspeisevergütung“ abzunehmen. Diese müssen die Stromkunden bezahlen, auch wenn sie solch teuren Strom gar nicht bestellt haben. Die Folgen ließen nicht auf sich warten. Angelockt durch den Garantiepreis von 9,1 Cent je Kilowattstunde Windstrom, stellten „grüne“ Investmentfonds mit dem Geld von Zahnärzten und anderen Besserverdienenden binnen weniger Jahre etwa 16.500 Propeller-Ungetüme in die norddeutsche Tiefebene und in Mittelgebirgslandschaften. Dieser Boom hat inzwischen einen Dämpfer erhalten. Einige Windkraft-Aktien sind abgestürzt. Etliche Windkraftfonds sind notleidend, weil sich die von der Politik auf den Plan gerufene Wachstumsbranche wegen langer Windflauten und zahlreicher technischer Pannen doch nicht als so lukrativ erwies wie zunächst angenommen. Nicht zuletzt macht sich der Widerstand genervter Landbewohner gegen die „Verspargelung“ der Landschaft durch brummende und blinkende Stahlmonster immer deutlicher bemerkbar.

Nun sorgt die im letzten Sommer vom Parlamentarischen Beirat des Bundesverbandes Erneuerbare Energien (BEE) nach Art eines „Ganovenstücks“ (so die FDP-Bundestagsabgeordnete Angelika Brunkhorst) durch Bundestag und Vermittlungsausschuss getrickste Novelle des EEG für einen neuen künstlichen Boom an der Börse. Jetzt ist es vor allem der vom EEG garantierte Abnahmepreis von bis zu 57,4 Cent je Kilowattstunde Solarstrom, der die Phantasie betuchter Anleger beflügelt. Aktien von Anbietern von Photovoltaik-Anlagen wie der Bonner SolarWorld AG des Grünen Frank Asbeck legten in den letzten Monaten um 500 Prozent und mehr zu. Die Unternehmensvereinigung Solarwirtschaft (UVS) brüstet sich, im vergangen Jahr ihren Umsatz um 60 Prozent auf über zwei Milliarden Euro und die Zahl der Arbeitsplätze um 5.000 auf insgesamt 30.000 gesteigert zu haben. Im Jahre 2004 seien in Deutschland nicht weniger als 100.000 neue Photovoltaikanlagen installiert worden. Diese brächten eine Spitzenleistung von 300 Megawatt. Deutschland habe damit im Wettlauf um die Nutzbarmachung der Sonnenenergie Japan vom ersten Platz verdrängt. Man fühlt sich fast wie in Kalifornien, wenn man das liest. Doch gilt die Leistungsangabe nur für die wenigen Tage, an denen die Sonne in unseren Breiten scheint. Deshalb beeilte sich UVS-Geschäftsführer Carsten Körnig, hinzuzufügen: „Unsere im Inlandsgeschäft erworbene Vorreiterrolle ist ein ideales Sprungbrett für die Erschließung weltweiter Exportmärkte.“ Dort winke ein Potenzial von über 100 Milliarden Euro.

Die Grünen sahen deshalb allen Grund, das 25-jährige Jubiläum ihrer Parteigründung vor dem Hintergrund hoher Treibstoffpreise zu nutzen, um an ihre „Agenda 2020“ zu erinnern. Die lautet: „Weg vom Öl.“ Griffig formulierte das die Grüne Bundestagsfraktion kürzlich auf ihrer Tagung in Wörlitz in Form des Konzeptes „4 mal 25“: 25 Prozent nachwachsende Rohstoffe, 25 Prozent Strom und 25 Prozent Wärme aus „erneuerbaren“ Energiequellen und 25 Prozent Bio-Kraftstoffe für den Verkehr. Weiter gehende Grüne Projektionen sehen schon für 2050 die völlige Umstellung der Wirtschaft auf „erneuerbare“ Energien und Rohstoffe vor.

Man könnte darüber schmunzeln, stünden die Grünen damit alleine. Doch dem ist nicht so. Längst haben sich bedeutende Teile der korporatistischen Deutschland AG solche Visionen zu eigen gemacht. Das erklärt, warum die Novellierung des EEG so prompt zu einem Boom an der Börse führte und warum ausgerechnet die Allianz-Versicherung der mit Abstand größte Spender der Grünen Partei ist. Dazu passt auch, dass im erwähnten Parlamentarier-Kreis des BEE Vertreter aller Bundestagsparteien einmütig zusammen sitzen. Dessen Vorsitzender ist der SPD-Abgeordnete Hermann Scheer, der zugleich Präsident des Interessenverbandes EUROSOLAR ist. Stellvertretende Vorsitzende ist die Grünen-Abgeordnete Michaele Hustedt. Ihr zur Seite stehen Hans-Josef Fell, der gleichzeitig Geschäftsführer der Hammelburger Solarstromgeselllschaft ist, und Reinhard Loske, der gleichzeitig dem Kuratorium der Düsseldorfer Naturstrom AG und dem Umweltrat der Nürnberger Umweltbank angehört. Zu den Vertretern der SPD zählen noch die jungen Abgeordneten Axel Berg und Marco Bülow. Bekanntester Vertreter der CDU ist deren haushaltspolitischer Sprecher Dietrich Austermann, der dem Verwaltungsrat der bundeseigenen KfW Kreditanstalt für Wiederaufbau angehört und die Privilegierung von Windrädern im Baugesetz durchgesetzt hat. Hinzu kommt neben anderen bekannten Namen Peter Harry Carstensen, der CDU-Kandidat für das Amt des Ministerpräsidenten Schleswig-Holsteins. Die CSU ist unter anderen mit dem Abgeordneten Josef Göppel und Doris Mayer und die FDP mit Hans-Michael Goldmann in dem einflusseichen Kreis vertreten.

Diese Volksvertreter, die zum Teil an der Subventionierung „erneuerbarer“ Energien durch gesetzlich garantierte hohe Stromabnahmepreise mitverdienen, können auf die Ergebnisse von Meinungsumfragen verweisen, wonach eine überwältigende Mehrheit der Deutschen sogar noch einen Ausbau der öffentlichen Förderung von Wind- und Sonnenenergie wünscht. Sie sind fest davon überzeugt, dass ihr guter Zweck, der „Klimaschutz“, beinahe jedes Mittel heiligt. Deshalb stören sie sich auch nicht daran, dass die von der Landbevölkerung gefürchteten Windpark-Projekte in finanziell klammen Gemeinden mit Methoden durchgeboxt werden, die vielerorts staatsanwaltliche Ermittlungen nach sich zogen.

Die Freunde der „Erneuerbaren“ sind dermaßen davon überzeugt, dem absolut Guten zum Durchbruch zu verhelfen, dass sie wirtschaftlichen Einwänden gegenüber völlig taub und blind werden. So hat der Bremer Ökonom Wolfgang Pfaffenberger schon vor zwei Jahren im Auftrag der gewerkschaftsnahen Hans-Böckler-Stiftung ermittelt, dass der von Bundesumweltminister Jürgen Trittin als „Jobmotor“ gepriesene Ausbau der Windenergie durch die allgemeine Verteuerung des Stroms unterm Strich mittelfristig mehr Arbeitsplätze unrentabel macht als neu schafft. Während ihres angenommenen 20-jährigen Betriebs vernichte eine einzige Windkraftanlage in Deutschland per saldo acht Arbeitsplätze, fand Pfaffenberger.

Mögliche technische Fortschritte bei der Gewinnung von Windstrom dürften daran nicht viel ändern, zumal die Stromerzeugung durch die schon projektierten drei Dutzend Offshore-Windparks in der Nordsee allein schon wegen der Notwendigkeit des Baus neuer Hochspannungstrassen oder der Verlegung gasisolierter Erdkabel und durch aufwändige Sicherheitsvorkehrungen gegen Großtankerunfälle deutlich teurer werden wird als die zur Zeit durch das EEG garantierte Einspeisevergütung von 9,1 Eurocent je Kilowattstunde. Noch weiß niemand, wie man den unregelmäßig anfallenden Strom aus diesen fernab der Verbrauchsorte vorgesehenen riesigen Windmühlen überhaupt im bestehenden Stromnetz unterbringen könnte, ohne Änderungen der Netzfrequenz, Kurzschlüsse und großflächige Blackouts zu riskieren. Um das zu untersuchen, hatte die überwiegend vom Bund und der bundeseigenen KfW Kreditanstalt für Wiederaufbau getragene Deutsche Energieagentur (Dena) unter Federführung des Energiewirtschaftlichen Instituts der Uni Köln (Ewi) eine 800.000 Euro teure Studie erarbeiten lassen, mit deren Hilfe ein Konsens zwischen den Windstrom-Anbietern und den etablierten Stromkonzernen über das technisch und wirtschaftlich Machbare hergestellt werden sollte. Da die Ergebnisse der Studie nicht im Sinne der Windmüller und deren politischen Freunde ausfielen, droht dieser nun das gleiche Schicksal wie dem zitierten Energiebericht Werner Müllers.

Jürgen Trittin macht sich dafür stark, auf hoher See Windkraft-Kapazitäten in der Größenordnung von 20.000 Megawatt zu errichten. Peter Ahmels, der Präsident des Bundesverbandes WindEnergie (BWE), sieht zunächst größere Chancen für die Errichtung weiterer Windparks mit größeren Windrädern auf dem deutschen Festland. Hier gebe es noch ein Ausbaupotential von 12.000 Megawatt. Zur Zeit erreichen die auf dem deutschen Festland stehenden Windräder eine Spitzenkapazität von etwa 17.000 Megawatt. Würde diese wegen aufkommenden Sturms mit einem Schlag vom Netz genommen, sänke die Netzfrequenz von 50 auf 49 Hertz. Laien mag das als kleiner Schönheitsfehler an den Sinuskurven der Wechselspannung erscheinen. In Wirklichkeit wäre es schon beinahe eine Katastrophe, weil in Deutschland nur Speicherkapazitäten von 6.000 Megawatt zur Verfügung stehen, um Betriebsstörungen unzähliger lebenswichtiger Motoren entgegenzuwirken. Käme es zusätzlich zum simultanen Ausfall der projektierten Offshore-Kapazitäten, könnte die Netzfrequenz bis auf den Wert von 47,5 Hertz sinken, bei dem alle Generatoren automatisch abschalten. Der Blackout wäre perfekt. Noch ist aber völlig offen, ob die Träume von mehreren Tausend großen Windmühlen auf hoher See jemals wahr werden. Nicht nur die Weigerung der Banken, Offshore-Projekten Kredite zu gewähren, sondern auch Naturschutzanliegen sprechen dagegen.

Deshalb setzen die führenden Windanlagen-Bauer fürs erste auf die Errichtung weiterer Windparks im Binnenland und den Ersatz bereits installierter Windräder durch weitaus größere. „Repowering“ nennen sie das. So forderte der Elektroingenieur Aloys Wobben, Chef der Enercon GmbH in Aurich in Ostfriesland, die den deutschen Windkraftanlagen-Markt mit einem Anteil von über 54 Prozent unangefochten dominiert, kürzlich den Bau von 5.700 großen Windkraftanlagen (WKA) vom Typ Enercon 112 mit einer Nabenhöhe von 124 Metern und einem Rotordurchmesser von 114 Metern. Nur so könnten die 4.000 Arbeitsplätze seiner Firma in Deutschland (von über 6.000 weltweit) gesichert werden. Angesichts hoher Stahlpreise, die Windanlagenbauern derzeit zu schaffen machen, hält sich Wobben zugute, dass die Türme des von seiner Firma angebotenen WKA-Modells in Beton gegossen werden.

Die in Waigandshain im Westerwald angesiedelte Fuhrländer AG bietet neuerdings das WKA-Modell FL-2500 mit einer Nennleistung von bis zu 2.700 Megawatt und einer Rotorspanne von bis zu 96 Metern auf Gittermasten mit einer Nabenhöhe von bis zu 160 Metern speziell für den Einsatz in bewaldeten Mittelgebirgen an. Diese waren bislang wegen der Abbremsung des Windes durch die hohe „Bodenrauhigkeit“ des Waldes als WKA-Standorte wenig attraktiv. Als besonderen Vorteil preist die Firma die Möglichkeit an, diese Ungetüme ohne die Hilfe großer Kräne aufstellen zu können. So bestehen die technischen Voraussetzungen für einen neuen Windkraft-Boom im Binnenland.

Dabei sorgen die immer zahlreicher und immer größer werdenden Windräder an Land auch heute schon im Normalbetrieb mancherorts für Engpässe, die ihrem erklärten Zweck, der Einsparung von CO2-Emissionen, Hohn sprechen. So verweigert der zuständige Stromnetzbetreiber Vattenfall einem Chemiewerk in Brandenburg (BASF Schwarzheide) für den kommenden Sommer die Abnahme von Überschuss-Strom, den das Werk umweltfreundlich mithilfe der Kraft-Wärme-Koppelung (KWK) erzeugt. Der Grund: Das regionale Stromnetz ist bereits durch Windstrom überlastet und kann wegen der üblichen langen Genehmigungszeiten kurzfristig nicht verstärkt werden. Windstrom hat nach dem EEG, trotz seiner Unzuverlässigkeit, absoluten Vorrang vor KWK-Strom, auch wenn dieser viel effizienter erzeugt worden sein sollte.

Als kleineres Übel erscheint da der von der EU-Kommission im „Klimaschutz“ favorisierte Zertifikatehandel, dessen Logik dem deutschen EEG fundamental widerspricht: Warum Windmühlen bauen, die CO2-Emissionen, wenn überhaupt, nur zu Kosten von bis zu 100 Euro je Tonne vermeiden können, wenn an der Leipziger Energiebörse EEX CO2-Zertifikate derzeit für etwa sieben Euro je Tonne erhältlich sind? Warum 100.000 Solaranlagen in einem Land aufstellen, in dem nur selten die Sonne scheint, wenn die vom Freiburger Öko-Institut vorgeschlagenen Tradable Renewable Electricity Ceritificates (TRECs) künftig dafür sorgen könnten, dass sich Solaranlagen eher bei den Mittelmeeranrainern rechnen?

Das scheinbar harmonische Weltbild der Grünen erweist sich also als Selbstbetrug. Die über 16.500 Windräder, mit denen eine hochsubventionierte neue Wirtschaftsbranche unser Land verunstaltet hat, haben wegen der Notwendigkeit des Betriebs von „Schattenkraftwerken“ für windstille Zeiten bislang kein einziges konventionelles Kraftwerk überflüssig gemacht. Nach Schätzungen des Ewi können nur fünf Prozent der Windkraft-Kapazität als „gesicherte Leistung“ verplant werden. Und die im vergangenen Jahr installierten 100.000 Photovoltaik-Anlagen werden den für ihre Herstellung nötigen hohen Energiebedarf frühestens in sieben Jahren beglichen haben – wenn die Sonne lange genug scheint.

Würde der von der rot-grünen Regierung mit der Stromwirtschaft im „Konsens“ beschlossene Atomausstieg wie geplant vollzogen, entstünde in Deutschland ein ernster Energiemangel. Damit droht uns eine wachsende Abhängigkeit von Gas- und Rohöl-Lieferungen der unheimlichen und unberechenbaren Kreml AG Wladimir Putins. Russland ist übrigens, wie man vor kurzem im Ingenieur-Blatt VDI-Nachrichten lesen konnte, bereits dabei, seine Erdgas- und Erdölexporte in die wachstumsstärkeren Regionen Asiens und in die USA umzulenken. Was dabei für die von Gerhard Schröder und Wolfgang Clement gefeierte „langfristige strategische Partnerschaft“ zwischen Russland und Deutschland übrig bleibt, steht in den Sternen.

Das nährt den Verdacht, die Grünen seien in Wirklichkeit nur nützliche Idioten der Atomlobby, die darauf hofft, der absehbare Energiemangel in Deutschland werde am Ende zumindest zu einer Verlängerung der Laufzeit der jetzt noch am Netz hängenden Atomkraftwerke führen. Manche Urheber des EEG scheinen überdies in der Verbreitung der Klimakatastrophen-Theorie und in der Förderung unwirtschaftlicher Windräder von vornherein ein Mittel gesehen zu haben, um der nach Tschernobyl diskreditierten Atomkraft wieder zu einer Renaissance zu verhelfen. Zumindest BEE-Beirat Dietrich Austermann dürfte das nicht dementieren.

Veranstaltungen

Der Vortrag von Lord Monckton auf der unten angekündigten 2. Intermationalen Berliner Klima-Konferenz ist inzwischen auf CFACT.TV verfügbar. Wer danach noch glaubt, „Climategate“ beweise nicht, dass es sich bei der These von der menschlichen Schuld an der globalen Erwärmung um eine organisierte Lüge handelt, dem ist nicht mehr zu helfen.

———————————————————————————————————————-

4.12.2009: Zweite Internationale Klimakonferenz in Berlin

Diese Veranstaltung gibt Ihnen die Möglichkeit, wissenschaftliche Fakten jenseits des medien- und politikgerechten Mainstreams zu erfahren und den Referenten vertiefende Fragen zu stellen.

In Kooperation mit dem Europäischen Institut für Klima und Energie (EIKE), Committee for a Constructive Tomorrow (CFACT), dem Haus der Zukunft, dem Liberalen Institut der Stiftung für die Freiheit, dem Institut für Unternehmerische Freiheit (IUF) und dem Bund Freiheit der Wissenschaft.

Programm – 4. Dezember 2009

13:00 Uhr Pressekonferenz

Prof. Dr. S. Fred Singer NIPCC

Christopher Monckton, 3rd Viscount Monckton of Brenchley

Ort: Melia Hotel

Für Simultanübersetzung ist gesorgt.

14.30 Uhr Registrierung

15:00 Uhr Begrüßung

Dr. Holger Thuss European Institute for Climate and Energy (EIKE)

Wolfgang Mueller Institute for Free Enterprise (IUF)

Prof. Dr. S. Fred Singer NIPCC

15:30 Uhr Vorträge

Wie wissenschaftlich ist das IPCC? Bericht aus dem NIPCC

Prof. Dr. S. Fred Singer NIPCC

Climate Change and Science

Christopher Monckton, 3rd Viscount Monckton of Brenchley

Ist Klimaschutz in der heutigen Form sinnvoll?

Prof. em. Dr. Horst-Joachim Lüdecke HTW des Saarlandes

Gletscher als Klimazeugen

Prof. Gernot Patzelt Universität Innsbruck

Ways to see that sensitivity is low

Dr. Lubos Motl The reference frame

Die klimatische Rolle der Sonne und der kosmischen Strahlung

Dr. Henrik Svensmark

Direktor des Centre for Sun-Climate Research des Danish National Space Center (DNSC).

The proposed global sea level rise: observational facts vs modeling!

Prof. em. Nils Axel Mörner ehem. Dekan der Fakultät für Paleogeophysik und Geodynamik an der Universität Stockholm.

18:15 Uhr Pause

18:45 Uhr Panel Session

Current Global Climate Change Policy’s Impact on Science, Economics and Prosperity

20:00 Uhr Fragen & Diskussion

21:00 Ende der Konferenz – Buffet, Signieren der Bücher

Änderungen vorbehalten

======================================================================================================================

26./27. Juni 2008

Hayek-Tage 2008 in Freiburg i. Br.

Programm im Internet

Hier meine Präsentation „Wirtschaftlicher Selbstmord aus Angst vor der Klimakastrophe.“

Die FAZ hat am 30. Juni erstaunlich objektiv über die Podiumsdiskussion in Freiburg berichtet:

„Klima-Planwirtschaft“

Hayek-Gesellschaft diskutiert über Umwelt und Freiheit

ppl. FREIBURG, 29. Juni. Der Versuch der Politik, mit langfristigen Mengenzielen für Kohlendioxid (CO2) und mit Quoten für bestimmte Energieformen den Klimawandel zu beeinflussen, stößt auf große Skepsis bei den Ökonomen der liberalen Hayek-Gesellschaft. Auf ihrer Jahrestagung in Freiburg gab es Warnungen vor einer „Klima-Planwirtschaft“ und einer Einschränkung der Freiheitsräume der Bürger, wenn die Politik immer engere Vorgaben und immer mehr Verbote beschließe. Oft genug sei der ökologische Nutzen der Maßnahmen gar nicht erwiesen. Dagegen seien hohe Kosten und steigende Steuern zu befürchten.

In einer Diskussion zum Thema „Umwelt und Freiheit“ betonte der Biologe und Klimaforscher Josef Reichholf von der Universität München, dass es seit der letzten Eiszeit mehrere stark ausgeprägte Warmzeiten gegeben habe. Diese seien stets günstig für die Entwicklung der Zivilisation und auch der Natur gewesen. So fielen in diese warmen Perioden das Aufkommen des Ackerbaus, die Entstehung der frühen Hochkulturen, die Blüte der Römerzeit und der Aufschwung im Hochmittelalter. Der Beginn der kleinen Eiszeit in der Neuzeit brachte härtere Wetterbedingungen in Europa und mehr Naturkatastrophen, etwa Stürme und Hochwasser. Angesichts des Ausmaßes der klimatischen Schwankungen in der Vergangenheit ohne jedes Zutun der Menschen, das Reichholf in seinem Bestseller „Eine kurze Naturgeschichte des letzten Jahrtausends“ beschrieben hat, bezweifelt er die These von einer allein vom Menschen verursachten Erderwärmung der jüngsten Zeit. Es werde aber Druck auf Wissenschaftler ausgeübt, keine kritischen Meinungen zu äußern.

Auch in der Politik gebe es Zweifler, ergänzte der Ökonom und frühere Finanzminister von Sachsen-Anhalt, Karlheinz Paqué (FDP), der nun an der Universität Magdeburg lehrt. „Aber wer sich öffentlich gegen die derzeitige Klimapolitik stellt, der begeht politischen Selbstmord, so aufgeladen ist das politische Klima.“ Im Jahr 2030 verursache Deutschland nur knapp 1,2 Prozent der weltweiten CO2- Emissionen, China dagegen gut ein Viertel, rechnete der Umweltpublizist Edgar Gärtner vor. Europa werde klimapolitisch immer unwichtiger. Die Beschlüsse der Bundesregierung von Meseberg und die EU-Pläne zur Reduktion des Kohlendioxids kosteten die Verbraucher und die Steuerzahler viele hundert Milliarden, wenn nicht gar Billionen Euro. „Ihr messbarer Effekt ist aber gleich null“, meinte Gärtner. „Wenn Deutschland aufhören würde zu existieren, dann würde das Weltklima es nicht einmal merken“, sagte Reichholf. Seiner Ansicht nach wird der zu erwartende Bevölkerungsrückgang in Deutschland von 20 Prozent bis zum Jahr 2050 die CO2-Reduktion von selbst erledigen.

Der Umweltjournalist Michael Miersch kritisierte, dass es in Umweltfragen zu viel Symbolpolitik gebe, die teuer und zuweilen sogar kontraproduktiv sei. Die hochsubventionierte Windkraft habe in Deutschland „bis heute kein einziges konventionelles Kraftwerk eingespart, weil der Wind nicht die konstante Grundlast garantieren kann“, unterstrich er. Als weiteres Beispiel führte Miersch die Produktion von Biosprit an, die zunächst bejubelt wurde, nun aber verteufelt werde. Der Journalist Günter Ederer erinnerte daran, dass jeder einzelne Arbeitsplatz in der deutschen Solarindustrie jährlich mit 153000 Euro subventioniert werde – weit mehr als die 78000 Euro Subvention für jeden Kohlearbeiter.

Allgemein herrschte auf der Tagung Skepsis bezüglich der Aussagekraft von Prognosen. Der Ökonom Klaus-Werner Schatz vom Institut der deutschen Wirtschaft erinnerte daran, dass Umwelt-Apokalyptiker sich bereits in früheren Großprognosen schwer geirrt hätten. „Der weitbeachtete Bericht über ,Die Grenzen des Wachstums‘ des Club of Rome von 1972 hat völlig falsch eine Zukunft von Chaos und Elend vorausgesagt.“ Das Modell sei damals auch mit den modernsten Computern durchgerechnet worden. Doch sei etwa der technologische Fortschritt unterschätzt worden. Weit in die Zukunft gerichtete Makroplanungen beruhten auf einer „Anmaßung von Wissen“, kritisierte auch der Berliner Wirtschaftshistoriker Gerd Habermann. So war der allgemeine Tenor der Vorträge, dass die Zukunft des Klimawandels eher unsicher, die zunehmende Ausbeutung der Steuerzahler hingegen sicher sei.

Text: F.A.Z., 30.06.2008, Nr. 150 / Seite 16

**********************************************************************************************************************

12./13. Juni

Umweltschutz als Freiheitsschutz

Symposium 2008 des Liberalen Instituts, Zürich

Hier das Programm

Die Thesen einiger Referenten stehen nun im Internet:

1. Julian Morris: Wealth, Health and the Environment

2. Edgar Gärtner: Umweltschutz jenseits der Rationalität (Thesen)

**********************************************************************************************************************

24. Mai 2008

3. Heiligenrother Klimagespräch

Tagungsort

Gasthaus Zur Linde, Heiligenroth

Folgende Kernaussagen wurden diskutiert:

1. Das Klimamanifest von Heiligenroth fordert Realitätsbewusstsein in der Politik.

2. Die Natur, nicht menschliche Aktivität, bestimmt das Klima.

3. Der Klimawahn und die CO2-Hysterie führen die Menschen in Armut.

Ein Video über den Konferenzverlauf gibt es bei Google.

************************************************************************************************************************

Am Donnerstag, dem 18. Oktober 2007, traf sich die Heiligenroth-Initiative zum dritten Mal

Dieses Mal nicht in Heiligenroth, sondern ein paar Kilometer weiter in der Stadthalle von Montabaur. Auf der Tagesordnung standen unter anderem ein Referat des schweizer Architekten Paul Bossert zum Thema „Die erneuerbaren Energien und die Folgen für die BRD“, ein Referat des Hamburfger Meteorologen und Betriebswirts Thomas Henzow über mangelnde Rentabilität alternativer Energien, insbesondere Windkraftanlagen (WKA) sowie ein Referat des Brandenburger Windkraft-Gegners Wolfgang Neumann über Herz-Kreislauf- und Hirnschäden durch Infraschall von WKA.

Am Samstag, dem 15. September trafen sich in Heiligenroth im Westerwald zum zweiten Male so genannte Klima-Skeptiker, d.h. finanziell nicht oder nicht mehr von Staatsgeldern abhängige Persönlichkeiten, um ihrem im Juli 2007 am gleichen Ort formulierten Klima-Manifest den letzten Schliff zu geben und ihm eine Begründung anzuhängen. Es entstand das

Das Klima-Manifest von Heiligenroth

1. Das Klima ist durch von Menschen verursachte CO2-Emissionen nicht nachweisbar zu beeinflussen.

2. Die aus Klimamodellen abgeleiteten Szenarien der zukünftigen Entwicklung des Klimas sind spekulativ und stehen im Wider¬spruch zur Klimageschichte.

3. In der Erdgeschichte gab es immer Klimawandel mit wechselnden Warm- und Kaltzeiten.

4. Das Spurengas CO2 verschmutzt nicht die Atmosphäre. CO2 ist ein unentbehrlicher Rohstoff für das Pflanzenwachstum und somit Voraussetzung für das Leben auf dieser Erde.

5. Wir setzen uns für einen wirkungsvollen Schutz unserer Umwelt ein und befürworten Maßnahmen, die unnötige Belastungen der Ökosysteme verhindern.

6. Wir warnen davor, unter dem Deckmantel einer heraufbeschwore¬nen “Klimakatastrophe“ Maßnahmen zu ergreifen, die unserer Umwelt nicht nützen und volkswirtschaftlichen Schaden anrichten.

Begründung

Szenarien über die zukünftige Klimaentwicklung werden heute vom UN-Weltklimarat (IPCC) erstellt. Die Regierungen der Welt haben sich seit Rio 1992 zum Handeln gegen den „menschengemachten Klimawandel“ verpflichtet. Alle Maßnahmen beruhen auf der These, daß zusätzliches CO2 in der Atmosphäre seit Beginn der industriellen Revolution ab dem 19. Jahrhundert zu einer Erwärmung im 20. Jahrhundert geführt hat. Grundlage sind unter anderem wenige gemessene Temperaturdaten seit dem Ende des 19. Jahrhunderts, CO2-Daten ab Mitte des 20. Jahrhunderts und Aussagen aus Computermodellen.

Alle naturwissenschaftlichen Grundgesetze belegen jedoch den umgekehrten Zusammenhang, nämlich daß die Temperatur die Ursache für eine Freisetzung von CO2 ist. Der Tagesgang des CO2, die jahreszeitliche Schwankung und die nachgewiesene Zeitverzögerung der CO2-Ausgasung zeigen den eindeutig von der Temperatur gesteuerten Vorgang.

Dementsprechend findet man auch in der 600 Millionen Jahre langen Klimageschichte keinen Hinweis auf eine ursächliche Erwärmung durch CO2. Die mittlere CO2-Konzentration der Luft beträgt zur Zeit 380 ppm (Teile pro Million) und ist derart gering, daß allein dies schon eine dominante Einflußnahme ausschließt. Der durch den Menschen produzierte Anteil beträgt heute ca. 3 % davon, so daß nur 11,4 ppm ( also 0,00114%) nach der Treibhausthese zur Erwärmung beitragen sollen. Dies ist physikalisch unmöglich.

Wettervorhersagen sind bis heute kaum mehr als drei Tage gültig und beruhen nicht auf der Berechnung von Strahlungsverhältnissen, sondern ausschließlich auf wetterbestimmenden Größen, wie Luftdruck, Lufttemperatur, Luftfeuchte, Windgeschwindigkeit und weitere Parameter. 71% der Erdoberfläche sind Ozeane, die den größten Wärme- und CO2-Regulator darstellen. Dagegen sind die menschlichen Einflüsse auf das klima durch Städtebau und Landwirtschaft vernachlässigbar. Da Klima vereinfacht Wetterstatistik ist und astrophysikalische Faktoren das Klima nachweislich wesentlich beeinflussen, hat der Mensch keinen Einfluss auf die Klimazonen der Erde.

Anerkannte Rekonstruktionen der Temperaturverläufe und des CO2-Gehaltes der Atmosphäre zeigen einen völlig unabhängigen Verlauf beider Parameter. Die mittlere Temperatur der Erde betrug +22° C, unterbrochen von 4 globalen Kaltzeiten im 150 Millionen Jahre Zyklus. Wir leben heute in einer solchen globalen Kaltzeit. Über einen Zeitraum von 600 Millionen Jahren fiel die CO2-Konzentration von ca. 6000 ppm unregelmäßig auf die heutigen 380 ppm. Eine Korrelation zwischen CO2-Anstieg und dadurch bedingter Temperaturerhöhung ist nicht zu erkennen. Umgekehrt jedoch nimmt bei einer Temperaturerhöhung die CO2-Freisetzung zu.

Auch in den letzten 10 000 Jahren seit der Eiszeit sank die Temperatur um mehrere Grad C und schwankte regelmäßig zwischen Warm- und Kaltzeiten bei einem von der IPCC unterstelltem linearen CO2-Konzentrationsverlauf, woraus zu schließen ist, dass sich die These eines Treibhauseffektes nicht begründen lässt.

Die letzte kleine Eiszeit ist genau so gut historisch dokumentiert, wie die mittelalterliche Warmzeit oder die römische Warmzeit. Kein Computermodell kann bis heute auf der Basis der Erwärmung durch CO2 die Klimaschwankungen der letzten 1000, 10 000 oder 600 Millionen Jahre simulieren.

Hannibal konnte in der ausgehenden römischen Warmzeit mit Elefanten die Alpen überqueren und die Römer gruben in den Alpen in 2800 m Höhe nach Eisen und anderen Erzen. Eis begrub im Laufe der Geschichte die Stolleneingänge, erst im Mittelalter und in der modernen Warmzeit kamen sie wieder zum Vorschein. Bis heute wächst kein Weizen auf Grönland außerhalb Gewächshäusern wie es im Mittelalter zur Zeit der Besiedlung durch die Wikinger der Fall war. Auch die viel höheren Baumgrenzen in den Gebirgen Europas, Asiens und Nordamerikas sind ein Beispiel dafür. Nie mehr seit dem Ende der kleinen Eiszeit sind die Flüsse und Kanäle Hollands und Englands längere Zeit zugefroren und die Gletscher, die bis dahin gewachsen sind, zogen sich entsprechend des Zyklus bis zum Ende des 20. Jahrhunderts wieder zurück. Seit einigen Jahren fällt die Temperatur wieder und die Gletscher der Südhalbkugel wachsen wieder.

Über die Photosynthese ist CO2 trotz des geringen Gehaltes in der Luft der wesentliche Baustoff organischer Materie auf der Erde. Deshalb ist CO2 auch kein Schadstoff und verschmutzt nicht die Atmosphäre. Mehr CO2 und höhere Temperaturen fördern das Pflanzenwachstum und sichern die Ernährung von Mensch und Tier. Warmzeiten sind ein Segen für ehemals mit Eis bedeckte Landflächen wie Grönland und hat schon immer in der Geschichte zu mehr Lebensqualität, technischer und kultureller Entwicklung geführt, wie z.B. in der Römerzeit und im Mittelalter. Kälte während der Völkerwanderungszeit oder kleinen Eiszeit führte zu Hunger und Tod.

Ideologisch vorgegebene Zielvorstellungen, dass das von Menschen gemachte CO2 Verursacher einer Klimakatastrophe sei, basieren auf unzulänglichen Klimamodellen durch Weglassen wichtiger Parameter, einseitigen Interpretationen wissenschaftlicher Erkenntnisse und Ausgrenzen kritischer Wissenschaftler. Sie rechtfertigen nicht Aufwendungen von vielen Billionen Euro, die der Volkswirtschaft schaden und der Umwelt nicht nützen.

Heiligenroth am 15.09.2007

gez:

Dr. Herbert BACKHAUS, Kurt G. BLÜCHEL, Ernst-Georg BECK, Dieter BER, Paul BOSSERT, Brigitte BOSSERT, Helgo BRAN, Günter EDERER, Werner EISENKOPF, Edgar GÄRTNER, Wilfried HECK, Heinz HOFMANN, Rainer HOFFMANN, Ferdinand Fürst zu HOHENLOHE-BARTENSTEIN, Dieter KRÄMER, Nikolaus LENTZ, Dr. Rainer SIX, Uwe TEMPEL, Heinz THIEME,

==========================================================

21. Juli 2007 in Heilgenroth im Westerwaldkreis: 1. Klimagespräch auf Initiative des Architekten Dieter Krämer

Anläßlich des des kurzfristig anberaumten Treffens in Heiligenroth, Westerwaldkreis, an dem neben Architekten und Naturwissenschaftlern auch Ökonomen teilnahmen, haben 15 Erstunterzeichner das folgende

Klimamanifest von Heiligenroth

verfaßt und unterschrieben:

1. Wetter und Klima sind durch CO2 nicht beeinflussbar und deshalb durch Menschen nicht schützbar.

2; Die aus Klimamodellen abgeleiteten Prognosen der Zukunft des Weltklimas sind spekulativ und stehen im Widerspruch zur Klimageschichte.

3. In der Erdgeschichte gab es immer Klimawandel mit sich abwechselnden Warm- und Kaltzeiten.

4. CO2 verschmutzt nicht die Atmosphäre. Kohlenstoffdioxid ist der wichtigste Rohstoff für das Pflanzenwachstum und damit für die Ernährung der Menschheit.

5. Wir setzen uns für einen wirkungsvollen Schutz unserer Umwelt ein.

6. Wir warnen davor, unter dem Deckmantel einer „Klimakatastrophe“ unsere Umwelt in kontraproduktiver Weise zu schädigen und zweifelhafte Interessen zu bedienen.

Heiligenroth am 21.07.07

Gezeichnet: (Die Namen der Unterzeichner können individuell erfragt werden.)

Impressum: Paul Bossert, Architekt, Rainstr. 23, CH 9855 Oetwil a. d. Limmat

===========================================================

15. und 16. Juni im NDR-Konferenzzentrum, Hamburg-Lokstedt: Jahrestagung 2007 des „netzwerk recherche“

Am 16. Juni von 18:00 bis 19:30 Uhr nahm ich dort an einer Podiumsdiskussion zum Thema „Noch Wetter – oder schon Klima. Wissenschaftsjournalismus in Zeiten von Global Warming “ teil. Mit auf dem Podium: Prof. Dr. Hartmut Grassl (MPI f. Meteorologie, Hamburg), Maja Göpel (World Future Council), Prof. Dr. Anita Engels (Centrum für Globalisierung und Governance, Uni Hamburg), Ulrich Kelber (stellv. Vorsitzender der SPD-Bundestagsfraktion), Moderation: Julia Stein (Medienmagazin ZAPP, NDR).

Zur Vorbereitung dieser Konferenz habe ich den folgenden Fragebogen beantwortet:

1) Wie beurteilen Sie die Qualität der Medienberichterstattung über Wetterphänomene und die Debatte über die Klima-Veränderung?

Ich finde, die Berichterstattung über das Wettergeschehen hat sich in den letzten Jahren verschlechtert. Dabei stört mich nicht nur die beinahe ständige Dramatisierung, mit der den Konsumenten – ob gewollt oder ungewollt – nahe gelegt wird, Wetterextreme aller Art (sei es nun Kälte, Hitze, Sturm, Trockenheit oder Überschwemmung) als Vorzeichen einer nahenden „Klimakatastrophe“ zu deuten. Sowohl die Printmedien als auch die audiovisuellen Medien vermitteln dem Publikum keine übersichtlichen Bilder des Wettergeschehens, wie sie seit nun etwa drei Jahrzehnten von Wettersatelliten geliefert werden. Je schärfer und schöner die Satellitenfotos werden, desto weniger sieht man davon in Zeitungen oder im Fernsehen. Diese Bilder und ihre dichte zeitliche Auflösung lassen z.B. erkennen, dass nicht Tiefdruckgebiete (mit dünner, warmer Luft) die atmosphärische Zirkulation antreiben, sondern Hochs mit schwerer Kaltluft. Tiefdruckwirbel sind in unseren Breiten Begleiterscheinungen der von der Polarregion herunterziehenden Hochs, nicht umgekehrt. Die Zahl und die Frequenz dieser Kältehochs und damit die Häufigkeit von Wetterwechseln hat sich seit den 70er Jahren signifikant erhöht. In der beobachtbaren Beschleunigung der Luftmassen-Zirkulation besteht m. E. im Kern der Klimawandel. Die Entwicklung der Durchschnittstemperatur (zwischen Messpunkten, die z. T. Tausende von Kilometern auseinander liegen) ist demgegenüber m. E. weniger aussagefähig. Es wird nicht überall auf der Erde wärmer. Neulich mussten zwei tapfere Frauen, die mitten im Winter zum Nordpol aufgebrochen waren, um gegen die globale Erwärmung zu demonstrieren, bei minus 73 Grad Celsius aufgeben.

2) Was sind aus Ihrer Sicht derzeit die größten Auswüchse und Missverständnisse in der Debatte? Was vermissen Sie? Worauf könnten Sie verzichten?

Statistische Konstrukte wie das Klima (der langjährige Durchschnitt des Jahresgangs der Temperatur und der Niederschläge in einer bestimmten Region im Unterschied zu einer anderen) oder auch die nirgends messbare Durchschnittstemperatur über den Landmassen bekommen ein Eigenleben. Man redet darüber, als seien es Persönlichkeiten mit einem eigenen Willen. So entstanden Unworte wie „Weltklima“. Wie könnte man dieses überhaupt definieren? Oder „Klimaschutz“: Was soll da geschützt werden? Ein Mittelwert? Für noch schlimmer halte ich das oft gebrauchte Schlagwort „Klimakiller“. Kann man ein Klima umbringen? Für ebenso bedenklich halte ich es, wenn „Experten“ beim Thema „Klima“ mit dem Begriff „Gleichgewicht“ kommen. Ich halte als Sprach-Handwerker ein solches Vokabular schlicht für eine Form semantischer Umweltverschmutzung. Die lieben Kolleginnen und Kollegen sollten sich, auch wenn sie von wissenschaftlichen Kontroversen wenig verstehen, zumindest darum bemühen, nur sauber definierte Begriffe zu verwenden. Viele Missverständnisse könnten so von vornherein ausgeschlossen werden.

3) Ist derzeit überhaupt eine differenzierte Diskussion möglich? Haben abweichende Meinungen momentan eine Chance gehört zu werden?

Eine differenzierte Diskussion ist schwierig. Ich kann ja selbst ein Lied von vielfältigen Zensurmaßnahmen in der deutschen Presse (alle im Interesse einer „guten“ Sache, versteht sich) singen. Große Tageszeitungen und Wochenmagazine, für die ich früher problemlos schreiben konnte, haben mir schwarz auf weiß mitgeteilt, mir keine Beiträge über Klimafragen mehr abnehmen zu wollen. Zum Glück konnte ich teilweise in die Schweiz oder ins französischsprachige Ausland ausweichen. Ich kenne aber jemanden, der nicht so locker ausweichen kann. Dieser wird nun schon zum wiederholten Male vor Gericht gezerrt, weil er unrichtige Angaben in Prospekten der Solar-Industrie kritisiert hat.

In jüngster Zeit sehe ich aber gewisse Anzeichen einer Wende. Viele Kollegen haben es wohl satt, die immer gleichen, schlecht begründeten Katastrophenwarnungen zu wiederholen. Dafür gibt es neuerdings wachsenden Druck von Seiten der Wirtschaft, auf dem eingeschlagenen Weg fortzufahren, weil große Konzerne (insbesondere der Finanzbranche) inzwischen Milliarden in den „Klimaschutz“ und in „erneuerbare“ Energien investiert haben, auch wenn niemand recht weiß, was das ist. Auch die Politik drückt aufs Tempo, versucht, mithilfe des Treibhausgas-Emissionshandel-Gesetzes und des Aufbaus von CO2-Quotenzuteilungsbürokratien vollendete Tatsachen zu schaffen, bevor überhaupt klar geworden ist, worin der Klimawandel besteht. Es zeichnet sich übrigens ab, dass es auf der Erde schon bald wieder kühler werden wird. Möglicherweise werden die Menschen schon in 10 Jahren der „globalen Erwärmung“ nachtrauern.

4) Wie bewerten Sie die Reaktion einiger Medien (u.a. „Der Spiegel“), die nach der „Dramatisierung“ massiv vor Übertreibungen der Thematik warnen und wissenschaftliche Befunde in Zweifel ziehen?

Gegenfrage: Was verstehen Sie unter „wissenschaftliche Befunde in Zweifel ziehen“? Sollte es sich dabei um die These vom „Treibhauseffekt“ handeln? Diese These ist experimentell weder beweisbar noch ohne weiteres widerlegbar. Nach dem Philosophen Karl Popper gehören solche Aussagen in die Schublade „Religiöses“. Kein Wunder, von daher gesehen, dass der UN-Klimarat IPCC nicht den wissenschaftlichen Disput pflegt, sondern wie ein vatikanisches Konzil nach der Einheit des Glaubens sucht.

Meines Erachtens haben „Der Spiegel“ oder neuerdings „Cicero“ in letzter Zeit die Dramatisierung etwas zurück genommen, weil es dort Leute gibt, die spüren, dass bei Glaubensfragen wie der nach der richtigen „Klimapolitik“ ihr Allerheiligstes, nämlich die persönliche Freiheit, auf dem Spiel steht. Manche fürchten wohl auch, sich bald Lizenzen zum Atmen kaufen zu müssen. Eine Rolle spielt sicher auch die Tatsache, dass die von den meisten Medien inszenierte Aufregung nur in geringem Maße auf „Normalbürger“ übergegriffen hat. Nach einer Allensbach-Umfrage zu urteilen, bleiben die Deutschen angesichts des apokalyptischen Trommelfeuers in Fernsehkanälen und Printmagazinen überwiegend gelassen und zum Teil sogar stur, weil sie sich wahrscheinlich, den bei ihnen noch vorhandenen Resten gesunden Menschenverstandes folgend, sagen, dass das Wetter ohnehin kommt, wie es kommt, und man sich dementsprechend leichter oder wärmer anziehen muss. Manche sehen darin auch einen Abstumpfungseffekt unter dem Einfluss eines Daueralarms. Wie dem auch sei: Jedenfalls sehen Marketing-Leute durchaus die Gefahr eines apokalyptischen Overkill mit negativen wirtschaftlichen Folgen – nicht nur für ihre eigenen Produkte. Sie fürchten, den Kontakt mit den „Normalverbrauchern“ zu verlieren. Ich persönlich vermute z.B., dass die große Zurückhaltung potentieller Kleinanleger bei Aktienkäufen auch damit zu tun hat, dass diese spüren, dass der gegenwärtige Aufschwung der Solarindustrie und anderer Branchen nicht von Dauer sein kann, weil er z. T. auf spekulativen Geschäften mit heißer Luft beruht.

5) Wie haben Medientrends wie die unterhaltend aufbereitete TV-Wettervorhersage die Berichterstattung über das Thema geprägt und verändert?

Da es für uns Menschen, außer der Freiheit und der Liebe, kaum etwas wichtigeres gibt als das Wetter, finde ich es im Prinzip gut, wenn die Medien bei diesem Thema mehr Kreativität investieren. Nur sollten sie m. E. mehr mit den aufschlussreichen Satellitenbildern arbeiten und nicht nur eine einzige Schule der Meteorologie zu Wort kommen lassen.

6) Was halten Sie von Kampagnen, wie sie z. B. BILD mit Greenpeace, BUND und WWF unter dem Motto „Rettet unsere Erde“ gestartet hat?

„Rettet unsere Erde!“ ist eine unsinnige Parole, denn niemand (abgesehen von „Außerirdischen“ oder auf uns zurasenden Himmelskörpern) könnte die Erde oder auch nur ihr lebendes Häutchen, die Biosphäre, zerstören. „Rettet die Menschen!“ wäre schon sinnvoller. Aber diese stehen bei den genannten Verbänden nicht im Mittelpunkt. Sehr konsequente Vertreter der Umweltbewegung haben längst (unter Applaus!) die Dezimierung des „Klimaschädlings“ Mensch auf einen Bruchteil der heutigen Bevölkerungszahl gefordert. Aufgrund meiner eigenen Erfahrungen in und mit Umweltverbänden bin ich zum Schluss gekommen, dass die meisten von ihnen sich zu Unrecht als NGO bezeichnen, d.h. nicht wirklich unabhängig von Regierungen sind, sondern vor allem auf EU-Ebene z. T. über die Hälfte ihres Budgets mit staatlichen Zuschüssen decken. Das gilt zwar nicht für Greenpeace. Aber diese Organisation betreibt dafür gegenüber Firmen eine Form von Fundraising, die auf Schutzgelderpressung hinausläuft (aktuell z.B. beim Discounter Lidl). Andere Verbände machen das, weil’s so schön läuft, immer häufiger nach. Einer Zusammenarbeit von Medien mit solchen Organisationen stehe ich folglich sehr kritisch gegenüber. Sie widerspricht m. E. der journalistischen Ethik fundamental.

7) Warum gehen die Medien auf das Thema erst jetzt so ausführlich ein, nachdem die Probleme doch schon seit Jahrzehnten bekannt sind?

Ich habe nicht den Eindruck, dass sich die Medien besonders spät des Themas angenommen haben. Vielmehr gab es gerade in Deutschland von Anfang an eine Art Symbiose zwischen Massenmedien, einer Fraktion der Wissenschaft und der Politik. Der bekannte „Spiegel“-Titel mit dem Kölner Dom im Wasser erschien vor der Gründung des UN-Klimarates IPCC. Es gab also zu diesem Zeitpunkt nicht einmal den Anschein eines Konsenses der Wissenschaft zum Thema „Klimawandel“. Dabei waren m. E. nicht die Grünen die treibenden Kräfte, sondern spielten eher die Rolle nützlicher Idioten der Atom-Lobby und der Konzerne, die „erneuerbare“ Energien als neues Geschäftsfeld ausgemacht haben. Naturgemäß verlief die Medienaufmerksamkeit wellenartig. Die neueste Welle, anlässlich der Vorstellung der letzten IPCC-Berichte, übertraf die vorhergehenden lediglich im Grad der Hysterie. Ich sehe darin eine Art „letztes Aufgebot“, um ihr Lieblingskind, die „Klimapolitik“ beziehungsweise CO2-Quotenwirtschaftschaft nach dem Muster des Kioto-Protokoll, angesichts des nahenden G-8-Gipfels in Heiligendamm doch noch zu retten.

8) Welchen Anteil an der zeitverzögerten Wahrnehmung hat Wissenschaft selbst?

Diese Frage verstehe ich nicht. Die Wissenschaft hat doch in Gestalt von Svante Arrhenius die spekulative Treibhaus-Hypothese schon vor über 100 Jahren in die Welt gesetzt. Zwischenzeitlich wurde diese aufgrund spektroskopischer Messungen des Absorptions- oder Transmissionsvermögens verschiedener „Treibhausgase“ wieder ad acta gelegt. Dann wurde sie in den 60er Jahren von Roger Revelle, einem der akademischen Lehrer Al Gores, wieder hervorgeholt, und zwar in der Form einer positiven Rückkoppelung zwischen dem vermuteten minimalen Effekt von CO2 und dem potentiell sehr viel größeren Effekt von Wasserdampf. Revelle selbst hat sich kurz vor seinem Tode in einem Artikel von dieser These distanziert, weil er merkte, wie falsch sie interpretiert werden konnte. Al Gore bezichtigte daraufhin Revelles Mitautor, den Physiker Fred Singer, den senilen Mann manipuliert zu haben. Es gab deswegen ein Gerichtsverfahren in den USA, das Gore verlor. Es gelang Gore aber durch geschickte Medienarbeit, dennoch bis heute als Sieger zu erscheinen. Doch Tatsache bleibt, dass es über so genannte Treibhausgase seit über einem halben Jahrhundert keine wirklich neuen wissenschaftliche Erkenntnisse gibt

9) Sind Publikumsmedien überhaupt in der Lage, komplexe wissenschaftliche Themen verständlich und fundiert zu vermitteln?

Bei Printmedien sehe ich da keine prinzipiellen Grenzen. Ich denke aber, Wissenschaftsjournalisten sollten sich, um ihren Lesern die Orientierung zu erleichtern, mehr darauf konzentrieren, ein zeitgemäßes Weltbild zu vermitteln, das auch philosophischer Kritik standhält. Allzu oft stellt man die Natur als mehr oder weniger harmonisch geordnetes „System“ dar und tut obendrein so, als wüssten wir schon zu 90 Prozent, wie alles zusammenhängt. Dadurch verleitet man die Leser dazu, an die Wissenschaft Ansprüche zu stellen, die sie gar nicht erfüllen kann. Wir sollten jedoch m. E. mit Immanuel Kant und seinen Nachfolgern wie Karl Popper davon ausgehen, dass Systeme immer Schöpfungen unseres Verstandes sind und es keine letzten Gewissheiten über reale Zusammenhänge geben kann. Die Natur ist kein System, sondern ein Möglichkeitsraum. System bringen erst die Menschen aufgrund ihrer Nutzungsinteressen hinein. Mit anderen Worten: Keine Wissenschaft kann uns sagen, wo’s lang geht. Wissenschaften helfen uns aber manchmal, indem sie uns sagen, was nicht möglich ist. Deshalb ist es wichtig, dem Publikum nicht nur zu erklären, was alles geht, sondern mehr noch das, was mit Sicherheit nicht geht. Beispiele: Steine und Äpfel können nicht nach oben fallen. Ein Perpetuum mobile kann es nicht geben. (Der hier angesprochene 2. Hauptsatz der Thermodynamik ist übrigens ein grundlegender Einwand gegen die Hypothese vom Treibhauseffekt, denn diese geht davon aus, der von der Sonne erwärmte Erdboden werde durch „Rückstrahlung“ aus der kühleren Luft zusätzlich aufgeheizt.)

10) Wie beurteilen Sie den Umgang der Politik mit dem Thema? Wie gut ist Politik in Sachen Wetter und Klima beraten? Sind von der Politik nachhaltige Lösungsvorschläge zu erwarten?

Die Politik trägt die Hauptschuld an der gegenwärtigen Konfusion. Da sich die gegen Ende der 60er Jahre des vergangenen Jahrhunderts aus der Taufe gehobene klassische Umweltpolitik, die Eindämmung messbarer Beeinträchtigungen der Qualität von Wasser und Luft mithilfe von Kläranlagen und Filtern, als überaus erfolgreich erwies, ja vielleicht sogar zum einzigen noch „ankommenden“ Politikmodell wurde, gerieten Politiker in die Versuchung, dieses Modell auf die vorbeugende Vermeidung hypothetischer Zukunftsprobleme auszudehnen, um der Gefahr zu entgehen, sich selbst überflüssig zu machen. Die Begründung für die Sorge um ungelegte Eier lieferte das so genannte Vorsorgeprinzip. Es zeigte sich, dass dieser Ansatz insbesondere in Gestalt der (eher virtuellen) „Klimapolitik“ — weil er an der verbreiteten heidnischen Angst anknüpft, die Götter könnten uns bestrafen, indem sie den Himmel einstürzen lassen – bei den Wählern noch erheblich mehr Zuspruch fand als die klassische „end-of-the-pipe“-Umweltpolitik.

Ausprobiert hat das als erste die damalige britische Premierministerin Margaret Thatcher. Ihr kam das Argument, Kohlendioxid sei „klimaschädlich“ wie gerufen, als sie sich anschickte, die streikenden Gewerkschaften der englischen Kohlekumpel in die Knie zu zwingen. Thatcher gab neben dem US-Klimaforscher James Hansen auch entscheidende Anstöße für die Gründung des zwischenstaatlichen Klimarates IPCC. In dessen Statuten steht der Auftrag, nach Argumenten zu suchen, die den menschlichen Einfluss auf die Klimaentwicklung belegen und es ermöglichen, den Menschen die Schuld am Klimawandel zuzuschieben. Eine offene Debatte zwischen verschiedenen Schulen der Klimaforschung stand von vornherein nicht im Aufgabenheft des IPCC.

Man stelle sich einmal vor, eine solche Verknappung wissenschaftlicher Expertise sei das Ziel der Einrichtung des Sachverständigenrats zur Begutachtung der gesamtwirtschaftlichen Entwicklung gewesen! Zu recht hat man hier (bislang zumindest) auf Pluralismus Wert gelegt. Durch die Einrichtung des IPCC haben sich die beteiligten Regierungen in die Abhängigkeit von den Interessen jener Schule der Klimaforschung begeben, die numerischen Computersimulationen einen höheren Stellenwert einräumt als der direkten Beobachtung des Wettergeschehens mithilfe von Satelliten. Die Politik hat also – mit welchen Hintergedanken auch immer – selbst dafür gesorgt, dass sie in Fragen der Meteorologie schlecht beraten wird.

Mit den Erfahrungen mit dem „wissenschaftlichen Sozialismus“ im Hinterkopf stehe ich heute jeglichen Versuchen, Politik wissenschaftlich zu begründen, skeptisch gegenüber. Wir sehen heute, angesichts der absehbaren vagen Resultate des G-8-Gipfels, dass „Klimapolitik“ nach Kioto-Muster in die Sackgasse führt. Die enge Symbiose zwischen Politik, Massenmedien und Klimaforschung muss aufgelöst werden. Meteorologie und Klimatologie müssen, soweit sie sich als nicht an Tagesinteressen gebundene Grundlagenforschung verstehen, wieder in den „Elfenbeinturm“ zurückkehren. Sie dürfen gar nicht wissen, woher und warum sie das dafür nötige Geld bekommen. Es muss ausgeschlossen werden, dass eine Minderheit von Forschern mithilfe von Panikmache auf Kosten der Steuerzahler und weniger zeitgeistiger Forscher die Anschaffung immer leistungsfähigerer Großrechner durchsetzen können, ohne in der Lage zu sein, damit zu neuen Erkenntnissen zu gelangen. Wir brauchen gute Computer, um Mess- und Beobachtungssatelliten ins Weltall zu bringen. Wir brauchen aber keine Riesen-Computer, um Hypothesen zu simulieren, die dem 2. Hauptsatz der Thermodynamik widersprechen.

11) Heute in den Schlagzeilen, morgen aus dem Sinn. Was ist zu tun, damit es in Sachen Global Warming anders läuft als bei BSE oder der Vogelgrippe?

Im Unterschied zur BSE-Krise oder zur H5N1-Gefahr handelt es sich beim Klimawandel um einen ganz allmählichen Prozess, dessen Richtung derzeit noch gar nicht klar auszumachen ist. Alle Warnungen vor einem jähen „Umkippen“ des „Klimasystems“ haben sich als unbegründet erwiesen. Der Höhepunkt des Anstiegs der globalen Durchschnittstemperatur scheint schon hinter uns zu liegen. Jedenfalls ist der für 1998 errechnete (nicht gemessene!) Wert seither nicht mehr erreicht worden. Astronomen erwarten für die kommenden Jahrzehnte aufgrund der Beobachtung von Sonnenzyklen eine weitere Abkühlung. Wie ich die Menschen kenne, halte ich es nicht für ausgeschlossen, dass diejenigen, die die Klima-Panik zu ihrem Geschäftsmodell erkoren haben, zu gegebener Zeit blitzschnell umschwenken werden, um uns dann vor dem Hereinbrechen der nächsten Eiszeit zu warnen. Das Skript zu Roland Emmerichs Machwerk „The Day After Tomorrow“ bräuchte zu diesem Zweck kaum verändert werden, sondern könnte problemlos als eine Art Allzweckwaffe stofflich wiederverwertet werden. Ich kann nur hoffen, dass das Publikum solcher Art von Unterhaltung bald überdrüssig wird. (Mai 2007)

Risse im Grünen Weltbild

Politik und Wirtschaft stellen noch immer die Ablösung „fossiler“ Energiequellen wie Kohle und Erdöl durch „erneuerbare“ als alternativlos dar. In Wahrheit ist das Weltbild, das auf der Endlichkeit von Kohlenwasserstoffvorkommen beruht, aber längst in Frage gestellt worden. Im Auftrag des Königlich Schwedischen Technologieinstituts haben Forscher gezeigt, dass Erdöl auch ohne die Zersetzung von Biomasse entstehen kann.

Erdöl, eine erneuerbare Energiequelle

Das Königlich Schwedische Technologieinstitut (KTH) in Stockholm hat bekanntgegeben, nun sei der experimentell bewiesen worden, worauf es nun schon seit Jahrzehnten Hinweise gibt: Für die Entstehung von Erdöl ist keine fossile Biomasse nötig. Unter hohem Druck und hohen Temperaturen können komplexere Kohlenwasserstoffe auch direkt aus normalen anorganischen Bestandteilen des oberen Erdmantels und der Erdkruste wie Methan entstehen. Das haben Anton Kolesnikov, Vladimir G. Kutcherov und Alexander F. Goncharov von der Washingtoner Carnegie Institution, der Moskauer Lomonossow Universiät und des Königlich schwedischen Technologie Instituts in Stockholm durch ein aufwändiges Experiment demonstriert.

Die Konsequenz: Bohrt man nur tief genug, könnte man fast überall auf der Welt auf Öl-, Gas- und Kohle-Lagerstätten stoßen. Die Kohlenwasserstoffvorräte der Erde sind keineswegs endlich, sondern Teil eines langfristigen geochemischen Kreislaufs, in den der Mensch nur minimal eingreifen kann. (10. September 2009)

Der folgende Artikel, dessen Urfassung bereits im vergangenen Jahr entstanden ist, bekommt durch die am KTH durchgeführten Forschungen neue Aktualität.

Abschied vom grünen Weltbild

von Edgar L. Gärtner

„Angesichts der Endlichkeit fossiler Brennstoffe gehört die Zukunft der Energieversorgung zweifellos den Erneuerbare-Energien-Technologien.“ Mit dieser ganz selbstverständlich erscheinenden und deshalb nicht begründeten Behauptung beginnt eine im Magazin „Cicero“ 12/2008 unter dem Titel „Die Energie-Lüge“ veröffentlichte gnadenlose Abrechnung acht liberaler Wirtschaftsprofessoren mit der Förderung unausgereifter und unbezahlbarer „Zukunftstechniken“ durch das deutsche Erneuerbare Energien Gesetz (EEG). Die Professoren zeigen: Auch wer an das grüne Weltbild glaubt, kann es nicht gutheißen, dass die Energieverbraucher wegen eines den kurzsichtigen finanziellen Interessen grüner Amigos auf den Leib geschneiderten Gesetzes für die Vermeidung einer einzigen Tonne CO2 bis zu 1000 Euro zahlen müssen. Aber muss man wirklich an das ökologistische Weltbild glauben?

Schon eine unvoreingenommene Auswertung des beinahe tragischen Ausgangs des Biosphäre-2-Experiments in der Sonora Wüste von Arizona hätte meines Erachtens nur den Schluss zugelassen, das grüne Weltbild zu begraben. Das auf 100 Jahre angelegte Experiment eines autonomen Lebens in einem von der Gaia-Theorie von James Lovelock inspirierten Nachbau der irdischen Lebewelt in einer Glaskuppel mit anderthalb Hektar Grundfläche musste schon nach knapp zwei Jahren abgebrochen werden – kurz vor dem absehbaren Hungertod der acht Bewohner des künstlichen Öko-Paradieses. Aber das gegen Ende der 80er Jahre vom texanischen Ölmilliardär Ed Brass in einer romantischen Anwandlung für insgesamt 200 Millionen US-Dollar in die Welt gesetzte Projekt wurde aus ideologischen Gründen bis heute nicht umfassend analysiert und bewertet.

Das Experiment, wäre es wirklich sauber angelegt worden, hätte wohl zeigen können, dass der Planet Erde nicht so funktioniert, wie es bis heute in vielen populären Ökologiebüchern steht. Es hätte insbesondere Aufschlüsse geben können über das Verhältnis zwischen geologischen und biologischen Stoffkreisläufen. Nur weil Hohepriester der Gaia-Religion sich bislang standhaft weigerten, bereits gesichertes wissenschaftliches Wissen ins ökologische Weltbild zu integrieren, können sie überhaupt zur Behauptung gelangen, der durch die Verbrennung fossiler Kohlenwasserstoffe verursachte Anstieg der Konzentration von Kohlenstoffdioxid (CO2) in der Atmosphäre und der damit vermutlich verbundene Anstieg der Durchschnittstemperatur über den Landmassen der Erde seien das dringendste Problem der Menschheit und müssten unbedingt gestoppt werden – koste es, was es wolle.

Das Kyoto-Protokoll von 1997 ist mehr als eine Übereinkunft über eine bescheidene Reduktion der CO2-Emissionen der Signatarstaaten. Da es auch CO2-Senken anerkennt, beinhaltet es vielmehr im Prinzip den Anspruch, die Ära des globalen Managements des gesamten Kohlenstoff-Kreislaufs zu eröffnen. Das setzt voraus, dass

• erstens die wichtigsten Stoffkreisläufe der Erde hinreichend genau quantifiziert werden können und

• zweitens nachzuweisen, dass der Kreislauf des Kohlenstoffs einen nennenswerten Einfluss auf atmosphärische Vorgänge ausübt.

Die Erde ist ein Wasserplanet. Etwa 71 Prozent ihrer Oberfläche sind von Meerwasser bedeckt. Folglich überragt der von der Sonnenwärme durch Verdunstung angetriebene Wasserkreislauf mengenmäßig alle anderen Zyklen. An zweiter Stelle folgt der Kreislauf des Sauerstoffs, des wichtigsten Elements in der Erdkruste. Der Kohlenstoffkreislauf folgt erst an dritter Stelle. Danach kommt der Kreislauf des reaktionsträgen Stickstoffs, der zwar 80 Prozent der Atmosphäre ausmacht, aber in den Böden und in den Gewässern eher rar ist. Das führt zur Frage, ob ein drittrangiger Stoffkreislauf grundsätzlich in der Lage ist, den Wasserkreislauf anzutreiben, der das Wettergeschehen bestimmt. Auf diese Frage gibt es bis heute keine schlüssige Antwort. Doch legen Satellitenmessungen nahe, sie zu verneinen.

Ausgerechnet die Bilanz des Kohlenstoffkreislaufs weist große Lücken auf. Viele Milliarden Tonnen Kohlenstoff scheinen jahraus, jahrein aus dem Kreislauf einfach zu verschwinden. Das ist deshalb von Belang, weil das grüne Weltbild auf der Annahme beruht, der Kohlenstoffkreislauf (C-Zyklus) sei im Wesentlichen biologischer Natur: Grüne Algen und Landpflanzen nehmen CO2 aus dem Wasser bzw. der Luft auf und geben Sauerstoff ab. Dabei stelle sich ein Gleichgewicht ein, das der Mensch nicht stören dürfe. Verdrängt wird in dieser Weltsicht, dass es auch einen rein geochemischen C-Zyklus gibt, der der in Form von Bodenausgasungen und Vulkanausbrüchen jedes Jahr viele Milliarden Tonnen CO2 in die Atmosphäre bringt.

Seit der Bestätigung der Kontinentalverschiebungs-Hypothese von Alfred Wegener wissen wir, dass die Erdkruste in ständiger Bewegung ist. Alles, was einmal oben war, kommt im Prinzip auch wieder nach unten, d.h. von der mehr oder weniger festen Erdkruste tief in den breiartigen Erdmantel, wo auch Kohlenstoffverbindungen biologischen oder nichtbiologischen Ursprungs (wie vor allem Kalk und Dolomit) zu Magma eingeschmolzen werden. An anderer Stelle kommt der Kohlenstoff später in Form von Ausgasungen von Methan und Kohlenstoffdioxid sowie Vulkanausbrüchen wieder hoch. Dieser Kreislauf fände auch statt, wenn es überhaupt kein Leben auf der Erde gäbe. Es ist aber wegen lückenhafter Messungen bislang kaum möglich, das Massenverhältnis zwischen biologischen und abiotschen C-Kreisläufen einigermaßen genau abzuschätzen. Die Entstehung von Erdöl-, Kohle- und Methanhydratlagerstätten ist möglicherweise überwiegend Teil eines nichtbiologischen Zyklus. Unter hohen Drücken und Temperaturen können sich im Erdmantel aus reichlich vorhandenen Ausgangsbestandteilen spontan Kohlenwasserstoff-Gemische bilden, die nach oben wandern und sich in der Erdkruste unter undurchlässigen Tonschichten zu Gas-, Öl- oder Kohlelagerstätten konzentrieren. Auch die riesigen auf den Meeresböden lagernden Methanhydratvorkommen in der Größenordnung von 10.000 Gigatonnen Kohlenstoff können vermutlich kaum auf biologischem Wege entstanden sein. Der bekannte US-Astrophysiker und Erfinder Thomas Gold, der als einer der ersten eine (umstrittene) Theorie des nichtbiologischen Ursprungs der Rohölvorräte in die Welt setzte, nahm an, dass auch Archaebakterien tief in der Erdkruste an der Rohölentstehung beteiligt sind bzw. im Erdöl ihre Spuren hinterlassen. Auch das würde dem „grünen“ Weltbild widersprechen. Kurz: Statt als begrenzte Ressource fossilen Ursprungs können Methan, Kohle und Erdöl (das zu Recht auch Mineralöl heißt) möglicherweise als erneuerbare Rohstoffe betrachtet werden. Absolute Ressourcenknappheit könnte nur eintreten, wenn die Erdmasse abnähme. Das ist aber nicht der Fall. Im Gegenteil: Wegen Meteoriteneinschlägen nimmt sie unterm Strich sogar allmählich zu.

Inzwischen ist klar geworden, dass man in der Erdkruste praktisch überall Kohle- und Erdöl-Lagerstätten findet, wenn man nur tief genug bohrt. Im September 2009 machte zum Beispiel die Aktie des Ölkonzerns BP einen Sprung nach oben, weil BP im Golf von Mexiko riesige neue Ölvorräte entdeckt hat. Im gleichen Monat wurde die Entdeckung gigantischer Ölvorkommen vor der Küste des westafrikanischen Sierre Leone und in Uganda gemeldet. Kurz zuvor hatte der Iran die Entdeckung neuer Ölvorkommen beklanntgegeben. Ob sich die Nutzung dieser tiefer gelegenen Lagerstätten wirtschaftlich lohnt, hängt allerdings vom jeweiligen Weltmarktpreis des Rohöls ab. In den letzten Jahrzehnten sind tatsächlich im Schnitt deutlich mehr Erdölvorräte verbraucht als neu entdeckt worden, da die Explorationstätigkeit, abhängig vom Weltmarktpreis für Rohöl, sehr unregelmäßig verief. Auffällig ist, dass die Reichweite der sicheren Vorräte mit 40 Jahren etwa konstant blieb. Das hat vor allem finanztechnische Gründe, da es schwierig bis unmöglich ist, Explorationsprojekte, die über diesen Zeithorizont hinausreichen, zu finanzieren.

Dennoch wäre es nun an der Zeit, nüchtern zu überprüfen, ob der „Abschied vom Zeitalter fossiler Energien“ wirklich Dreh- und Angelpunkt der Energiepolitik sein kann. Da die Theorie Golds und des US-Geologen Kenney, des Inhabers der Gas Resources Corp. in Houston, Texas, immer mehr Anhänger gewinnt und neuerdings auch durch Laborexperimente gestützt wird, hat sich der Wissenschaftsjournalist Wolfgang W. Merkel jüngst unter dem Titel „Erdöl auf ewig?“ in der „Welt am Sonntag“ damit beschäftigt, um das grüne Weltbild zu retten. Leider erwähnt er darin nicht, dass Thomas Gold mit seiner Theorie der primären Tiefen-Biosphäre längst erklärt hat, warum im Erdöl Spuren lebender Materie zu finden sind. So muss nun selbst SPIEGELonline eingestehen, dass „Peak Oil“-Theorien in der Finanzwelt derzeit nicht mehr sehr hoch im Kurs stehen, weil allein in diesem Jahr nicht weniger als 200 neue Ölvorkommen entdeckt wurden. (24. September 2009)

Literatur

Edgar Gärtner: Öko-Nihilismus. Eine Kritik der Politischen Ökologie. Jena 2007

Thomas Gold: Deep Hot Biosphere. The Myth of Fossil Fuels. New York 1999, 2001

James Lovelock: Das Gaia-Prinzip. Die Biografie unseres Planeten. Zürich-München 1991

Internet

Der schwarze Schatz aus der Tiefsee

Ölindustrie erntet Früchte des Booms

BP entdeckt gigantisches Rohölvorkommen

Riesiges Ölfeld vor Sierra Leone entdeckt

Einfach tiefer bohren

Geplatzte Öko-Blase

Geplatzte Öko-Blase 2

Ernst Georg Beck: Der C-Zyklus

Verschüttete Erkenntnisse über den Kohlenstoffkreislauf

Siegfried Emanuel Tischler: Der Erdöl-Schwindel

Wolfgang W.Merkel: „Erdöl auf ewig?“

Weitere Links zu kritischen Beiträgen von scholar.google.com über die Hypothese von Thomas Gold, die nachdenklich machen:

Über Thomas Gold

Bibliografie

Abstract

Abstract

Abstract

Evgeny Yantovski über Golds Hypothese

Havard

Spiedl

Sciencelinks

===================================================================================

Darf Politik sich auf hypothetische Probleme konzentrieren?

Von Edgar L. Gärtner

Selbstverständlich darf sich auch die große Politik, wie jeder Normalsterbliche, hin und wieder mit der Frage „Was wäre, wenn…“ beschäftigen. Doch lehrt uns der gesunde Menschenverstand, dass es oft klüger ist, die Probleme ein Stück weit auf sich zu kommen zu lassen. Denn wer sich ständig nur um ungelegte Eier kümmert, der wird über kurz oder lang unter Brücken nächtigen, sagt eine Volksweisheit. Diese Einsicht sollte sich meines Erachtens auch der großen Politik bemächtigen. Viele vom Wohlfahrtsstaat verwöhnte politische Akteure (das gilt sowohl für Berufspolitiker als auch für ihre Wähler) sperren sich aber dagegen, indem sie sich auf die mir eher gedankenlos als klug erscheinende Devise „Vorbeugen ist besser als heilen“ berufen. Vorbeugen kann man aber nur gegen bekannte Gefahren. Wer etwa an einem großen Fluss baut, muss Vorsorge gegen gelegentliche Überschwemmungen treffen. Oder: Wer bei minus 20 Grad spazieren gehen will, der muss sich warm anziehen und etwas Ordentliches essen. Vorsorge gegen rein hypothetische Gefahren erweist sich hingegen meistens als reine Geldverschwendung, denn mit hoher Wahrscheinlichkeit werden Einzelne oder Gemeinschaften im realen Leben stattdessen mit Problemen konfrontiert, an die zuvor niemand gedacht hat. Diesen kann man schlecht begegnen, wenn man die verfügbaren Mittel zuvor in die Abwehr rein hypothetischer Probleme investiert hat.

Das zuletzt Gesagte trifft meines Erachtens auf die zurzeit in Europa sehr populäre „Klimapolitik“ zu. Diese stützt sich auf die nur in Computermodellen simulier-, aber experimentell nicht überprüfbare Hypothese, von den Menschen verursachte Kohlenstoffdioxid-Emissionen seien die Hauptursache der im vergangenen Jahrhundert registrierten leichten Erhöhung der Durchschnittstemperatur über den Landmassen der Erde, und führten, wenn sie nicht gestoppt werden, bis zum Ende des 21. Jahrhunderts zu einer gefährlichen Überhitzung unseres Planeten. Um den Anstieg der Durchschnittstemperatur auf plus zwei Grad Celsius zu begrenzen, dürfe die Menschheit nur noch eine Menge fossiler Brennstoffe nutzen, die dem Äquivalent von 700 Milliarden Tonnen CO2 entspricht. Es gibt nicht den geringsten Anhaltspunkt dafür, dass die Milliardenbeträge, die schon jetzt mit dem Verweis auf diese Hypothese in vermeintlich „klimaneutrale“ neue Energien investiert werden, auch zu den erhofften Resultaten führen werden. Schlimmer noch: Wer diesen Denkansatz akzeptiert, gelangt schnurgerade zu einer kommunistischen Politik der globalen Kohlenstoff-Rationierung und Umverteilung, in der für offenen Wettbewerb als Suchprozess kein Platz mehr ist. Es macht dann keinen Unterschied mehr, ob diese Rationierung durch das Plankommissariat eines imaginären Weltstaates oder durch den Handel mit CO2-Emissions-Zertifikaten auf dem Weltmarkt erfolgt. Insofern wundere ich mich sehr, dass Politiker, die sich als liberal verstehen, sich mit dieser Art von Politik angefreundet haben.

Ist es überhaupt möglich, liberale Politik jemals durch den Verweis auf Naturwissenschaften zu begründen? Die Antwort liegt meines Erachtens auf der Hand. Und das nicht nur, weil naturwissenschaftliche Theorien nach Karl R. Popper immer hypothetisch und daher korrigierbar bleiben müssen. Zurzeit spricht zum Beispiel Vieles dafür, dass „Klimawandel“ in den kommenden Jahrzehnten statt Erwärmung eher Abkühlung bedeuten wird. Die auf die Bedkämpfung der (hypothetischen) globalen Erwärmung zugeschnittene Politik aber wird unkorrigierbar, sobald sie erst einmal in den Aufbau von Bürokratien übersetzt worden ist. Dieser Punkt ist vermutlich schon erreicht, denn in Bonn, New York und Genf sind in im Namen der Bekämpfung der Erwärmung durch CO2-Reduktion bereits bürokratische Wasserköpfe entstanden. Deren bloße Existenz verhindert weitere Lernprozesse in Sachen Mensch und Klima. Konkret wird das vermutlich bedeuten: Auch wenn es immer häufiger zu kältebedingten Ernteausfällen kommt und immer mehr Menschen an Erkältungskrankheiten leiden, wenn nicht sterben, werden noch immer Milliardenbeträge für die Bekämpfung der fiktiven Erwärmung ausgegeben werden.

Für noch wichtiger halte ich aber folgendes Argument: Demokratische Politik im heutigen Sinne wurde bekanntlich in antiken und mittelalterlichen Stadtstaaten erfunden. Globale Politik ist nach klassischem, nicht imperialem Politikverständnis ein Widerspruch in sich. Die physische Einheit des Planeten Erde ist politisch von untergeordneter Bedeutung und wird es vermutlich auch bleiben. Denn die meisten Menschen haben, zum Glück, gelernt, auf Probleme erst dann durch kostenträchtige individuelle und kollektive Anpassungsmaßnahmen zu reagieren, wenn sie sie am eigenen Leib spüren oder ihnen nahe kommen sehen. (16. Juni 2009)

=========================================================================

Öko-Nihilismus: Wirtschaftlicher Selbstmord aus Angst vor dem Tod

von Edgar Gärtner

Entscheidungen, deren Kosten ihren Nutzen dauerhaft weit übersteigen, sind schlicht dumm. Denn auf eine ganze Volkswirtschaft übertragen, wären sie gleichbedeutend mit Selbstmord. Da der Billionen verschlingende „Klimaschutz“ im Nichts enden wird, bezeichne ich diese Perversion von Ökologie als „Öko-Nihilismus“ – was nur eine andere Bezeichnung für Dummheit ist. Ein Meinungsbeitrag von Edgar Gärtner.

Es gibt zwei konträre, mitunter aber auch komplementäre Auffassungen von Ökologie:

Zum einen die von der „Physico-Theologie“ des 17. und 18. Jahrhunderts ausgehende statische, hauswirtschaftliche, wonach die Welt ein geschlossenes, tendenziell vollständig analysierbares System im Gleichgewicht, genannt Naturhaushalt darstellt.

Dieser soll durch die Anwendung wissenschaftlich abgeleiteter Management-Regeln mit wenigstens 90-prozentiger Gewissheit hausväterlich verwaltet werden können.

Dem gegenüber steht die evolutionistische Sicht, wonach die Welt nach allen Seiten (außer nach rückwärts) offen ist. Es gibt darin kein statisches Gleichgewicht, keine prästabilisierte Harmonie. Systeme existieren, so gesehen, nur in unseren Köpfen oder in Dingen bzw. Organisationen, die wir bewusst schaffen. Menschliches Wissen bleibt immer eine Insel in einem Meer von Nichtwissen. Statt 90 Prozent wissen wir oft weniger als ein Prozent von dem, was wir wissen müssten, um natürliche und/oder gesellschaftliche Prozesse zielgerichtet steuern zu können.

Wir müssen aus Versuch und Irrtum lernen. Nur historisch gewachsene und bewährte Institutionen, angefangen mit der Familie und der Gemeinde, bieten uns danach provisorische Gewissheit. Erst im Rahmen solcher Institutionen bekommt ein haushälterisches Herangehen an Probleme der Ressourcen-Allokation Sinn.

Diese unterschiedlichen Herangehensweisen spiegeln sich im Gewicht, das verschiedenen Methoden der kollektiven Entscheidungsfindung beigemessen wird. Oberhalb der „magischen Zahl“ von 150 Personen (Familien oder Clans) gibt es im Grunde nur zwei Wege kollektiver Entscheidungsfindung: den Markt und die Bürokratie.

Der Markt ist historisch älter, denn schon der Homo sapiens sapiens von Cro Magnon betrieb vor Zigtausend Jahren nachweislich Fernhandel mit unbekannten Zeitgenossen und verdankt diesem vermutlich sein Überleben in der unwirtlichen Eiszeit.

Dennoch erscheint uns der Markt noch heute als „künstlich“, weil das über Hunderttausende von Jahren an das Leben in kleinen Horden angepasste menschliche Hirn mit unpersönlichen Formen des Austauschs offenbar schlecht zurechtkommt. Demgegenüber erscheint uns die erst sehr viel später mit dem Leben in größeren Städten aufgekommene Bürokratie eher als „natürlich“, weil diese offenbar an die hierarchische Struktur der Familie bzw. des Clans erinnert.

Bürokratische Versuche, reale oder vermeintliche Probleme zu lösen, erscheinen den meisten Menschen als attraktiver, als sich der Ungewissheit offener Märkte anzuvertrauen, wenn nicht auszuliefern. Außer in Notzeiten, in denen die Marktwirtschaft spontan in Form des Schwarzhandels aufblüht, bedarf die Marktwirtschaft deshalb meistens einer ordnungspolitischen Förderung. Der freie Markt bleibt eine Kulturaufgabe.

Ein Stück weit muss Bürokratie auch in einer freien Marktwirtschaft als notwendiges Übel akzeptiert werden: So in Buchführung und Statistik oder im Banken- und Versicherungswesen. Markt und Bürokratie können sich im Prinzip ganz gut ergänzen, sofern die Bürokratie sich damit begnügt, die Ergebnisse des Wettbewerbs und des damit verbundenen Lernens aus Versuch und Irrtum festzuhalten, um zu vermeiden, dass Fehler wiederholt werden. Gelangt die Bürokratie jedoch in eine führende Rolle, wird sie leicht zur „Anmaßung von Wissen“ (Friedrich August von Hayek). Diese führt nicht nur zu ineffizienter Ressourcen-Allokation, sondern auch zur Versuchung des Nihilismus.

Nihilismus bedeutet nach Albert Camus nicht, an nichts zu glauben, sondern nicht an das, was ist.

Nach Friedrich Nietzsche, der den Begriff prägte, handelt es sich beim Nihilismus um ein zweideutiges und daher hoch gefährliches Durchgangsstadium zwischen dem Abfall von Gott und dem Glauben an den Übermenschen. Habe ich Nietzsche richtig verstanden, dann ist Nihilismus lediglich eine vornehme Umschreibung von Dummheit.

Diese hat wenig mit dem IQ zu tun, dafür aber umso mehr mit krankhafter Religiosität, mit dem Glauben, es gebe etwas Wichtigeres als das wirkliche Leben in Freiheit und Würde. Oft setzen Nihilisten alles daran, etwas wirklich oder scheinbar Gutes zu erreichen, achten dabei aber nicht auf dessen Preis. Dieser kann unverhältnismäßig hoch sein. Das ist eindeutig der Fall, wenn des vermeintlich Guten wegen nicht nur Freiheit und Menschenwürde, sondern u. U. sogar Millionen von Menschenleben geopfert werden, was im 20.Jahrhundert leider wiederholt vorkam. Nihilismus wurde und wird noch heute auch zur physischen „Negation des Lebens“ (Nietzsche).

Die aktuell gefährlichste Form von Nihilismus bzw. gutmenschlicher Dummheit sehe ich im „Klimaschutz“, weil dieser alles auf eine Karte setzt. Um das Ziel einer 20-prozentigen Reduktion des „Treibhausgases“ Kohlenstoffdioxid (CO2) bis zum Jahre 2020 zu erreichen und damit eine „Vorreiterrolle“ im Kampf gegen den als bedrohlich dargestellten Klimawandel spielen zu können, müssen nach den von der deutschen Bundesregierung im August 2007 im Schloss Meseberg getroffenen Beschlüssen schätzungsweise 500 Milliarden Euro investiert werden. Die EU-Kommission hat das Meseberger Programm im Januar 2008 für die ganze EU verbindlich gemacht. Dessen Gesamtkosten, so es denn umgesetzt wird, gehen also in die Billionen. Diesen Rieseninvestitionen stünde mit Sicherheit kein messbarer Einfluss auf die Durchschnittstemperatur der Erde gegenüber. Denn Deutschlands Beitrag zu den globalen CO2-Emissionen wird, nach „offiziellen“ Projektionen, im Jahre 2020 nur noch 1,6 und im Jahre 2030 gerade noch 1,2 Prozent ausmachen, während China allein über ein Viertel beisteuern würde.

Zwar führt die „Klimaschutzpolitik“ der Bundesregierung, die Förderung unbezahlbarer „erneuerbarer“ Energiequellen bei gleichzeitigem Verzicht auf den Weiterbetrieb abgeschriebener und daher konkurrenzlos kostengünstiger Kernkraftwerke zweifelsohne auch zu einem Aufschwung mittelständischer Industrie- und Handwerksbetriebe. Aber diese Blüte und die mit ihr verbundene Schaffung Hunderttausender von (hoch subventionierten) Arbeitsplätzen werden erkauft durch enorm steigende Energiepreise. Das könnte sich als fatal erweisen, sollten jene Astronomen Recht behalten, die vor einer „Kleinen Eiszeit“ infolge nachlassender Sonnenaktivität warnen.

Gedankenlos nimmt so die „Klimapolitik“ mit der (gewollten) Verteuerung von Energieträgern und Nahrungsmitteln Hunger- und Erfrierungsopfer in Kauf, um vorgeblich ein statistisches Konstrukt, die bodennahe Durchschnittstemperatur über den Landmassen der Erde, zu schützen.

„Klimaschutz“ durch die Drosselung von CO2-Emissionen mithilfe des Einsatzes „erneuerbarer“ bzw. kohlenstoffarmer Energieträger und des Handels mit streng rationierten CO2-Emissionsrechten ist die bürokratische Antwort auf den ständigen, auch ohne menschliches Zutun ablaufenden Klimawandel. Statt auf der unvoreingenommenen Überprüfung von Hypothesen mithilfe von Experimenten und Messungen beruht die bürokratische Herangehensweise auf der Herstellung eines scheinbaren Konsenses über CO2-Emissionen als Hauptursache des Klimawandels mithilfe numerischer Computersimulationen im „Weltklimarat“ IPCC.

In welchem Maße es auf der Erde in den nächsten 100 Jahren wärmer oder kühler wird, können uns numerische Modelle der atmosphärischen Zirkulation, wie die US-Atmosphärenforscher Gerald Roe und Marcia Baker (in „Science“ vol. 318, p. 582) durch Tests aller gängigen „Klimamodelle“ demonstriert haben, aber gar nicht sagen. Die vernünftige Antwort auf diese Herausforderung liefert uns der gesunde Menschenverstand. Dieser legt uns nahe, Probleme immer ein Stück weit auf uns zukommen zu lassen, statt uns um ungelegte Eier zu sorgen. Wir müssen versuchen, uns dem unvorhersehbaren und unaufhaltsamen Wandel möglichst intelligent anzupassen.

Die wichtigsten Voraussetzungen dafür sind Wettbewerb und Glaubensfreiheit.

Mehr Wettbewerb führt erfahrungsgemäß zur Steigerung des gesellschaftlichen Wohlstands. Dieser wiederum erleichtert die Anpassung an unvorhersehbare Entwicklungen wie Erdbeben oder Klimaverschiebungen. Denn nicht zufällig unterscheiden sich die Opferzahlen bei schweren Erdbeben in armen und reichen Ländern um einige Größenordnungen. Schreitet die „Klimapolitik“ jedoch auf dem eingeschlagenen Weg fort, droht uns m. E. eine allgemeine Verarmung und damit ein Sinken der Anpassungsfähigkeit, wenn nicht Selbstmord auf Raten.

Dennoch stehen die Chancen, dem pseudoreligiösen Wahn des „Klimaschutzes“ ein Ende zu bereiten, derzeit nicht besonders gut. Dafür sorgt ein staatsmonopolistisches Kartell von Profiteuren maßgeschneiderter Gesetze im Namen des „Klimaschutzes“: der Öko-Industrie-Komplex. Zu diesem bekannten sich jüngst in einer auf Initiative des World Business Council for Sustainable Development (WBCSD) zustande gekommenen Erklärung zum bevorstehenden G8-Gipfel die Chefs von 91 internationalen Industrie-, Bank- und Versicherungskonzernen.

Darin machen sie sich stark für eine „kohlenstoffarme“ Wirtschaft durch eine Halbierung der weltweiten CO2-Emissionen bis zum Jahre 2050. Dabei gelte es, internationale „top-down“-Verpflichtungen mit „bottom-up“-Initiativen mithilfe von „Marktmechanismen“ zu einer „intensiven Public-Private-Cooperation“ zu verbinden. Was die ergrünten CEOs unter „Marktmechanismen“ verstehen, hat aber mit offener Marktwirtschaft im Sinne Ludwig Erhards wenig zu tun. Es handelt sich vielmehr um die geschlossene und statische Welt der Bürokratie. Deshalb wäre es nur logisch, diese Konzerne umgehend zu verstaatlichen.

Für die Verbreitung der Dummheit bedarf es keiner Verschwörung, denn Dummheit ist von sich aus hoch ansteckend. Das hat die Meinungsforscherin Elisabeth Noelle-Neumann in ihrem Klassiker „Die Schweigespirale“ gezeigt.

Was als Offensive des Bürokratismus begann, droht deshalb zu einer gegenüber der Realität abgedichteten „totalitären Fiktion“ zu werden. Es ist zwecklos, die Erfinder und Profiteure dieser Fiktion widerlegen zu wollen.

Das hat die Philosophin Hannah Arendt am Beispiel der (noch immer fortlebenden) Fiktion einer jüdischen Weltverschwörung demonstriert. Hitler konnte nicht widerlegt, sondern nur militärisch besiegt werden, bemerkte Arendt trocken.

Auf die heutige Situation übertragen, heißt das für mich: Wir müssen versuchen, den Öko-Industrie-Komplex und seine nihilistischen Propheten mit ihren eigenen Waffen zu schlagen.

(veröffentlicht am 12. August 2008 auf www.wiwo.de)

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Die Schöpfung bewahren… von Edgar Gärtner

Barack Obama hat zumindest in Deutschland Papst Benedikt XVI. die Show gestohlen. Doch während vom berauschenden Wortschwall an der Berliner Siegessäule vermutlich nicht viel hängen bleiben wird, haben die Massenmedien rund um die Welt in seltener Eintracht Benedikts Ansprache auf dem Weltjugendtag in Sydney als Ausdruck des Ergrünens des Vatikans gewertet. Unwidersprochen wurde behauptet, Benedikt reihe sich nun ein in den Kampf gegen den Klimawandel. Die deutsche Katholische Bischofkonferenz, die sich schon vor fast zwei Jahren unter dem Motto „Die Schöpfung bewahren!“ vorbehaltlos den Katastrophenwarnungen des „Weltklimarates“ IPCC angeschlossen hatte, wird sicher nichts tun, um diesem Missverständnis entgegen zu treten. Doch wer sich Benedikts Redetext genauer anschaut, stellt fest, dass darin von „Klimaschutz“ nirgends die Rede ist. Nur an einer Stelle spielt der Papst überhaupt auf das Klima-Thema an: Als er darauf hinweist, einige Inselstaaten seien von steigenden Fluten bedroht, während andere Nationen unter verheerender Trockenheit litten. Kein Wort über „Treibhausgase“.

Dagegen warnt der Oberhirte der Katholiken vor Erosion, Entwaldung sowie vor der Verschwendung mineralischer Rohstoffe und der Reichtümer des Meeres. Das sei Ausdruck eines unstillbaren Konsumhungers. Damit drückte er aus, dass er die gesellschaftlichen Lebensbedingungen seiner Schäflein für mindestens ebenso wichtig erachtet wie die physischen. Ökologie habe auch eine moralische Dimension, betont der Papst. Wunden und Narben an der sozialen Umwelt müssten als Signale für unhaltbare Zustände ernst genommen werden. Benedikt XI. unterstützt zwar die Idee einer nachhaltigen Entwicklung, warnt aber davor, bei deren Umsetzung die Menschenwürde in konstruktivistischer Hybris hintan zu stellen. Einmal mehr geißelte Benedikt XVI. die „Diktatur des säkularen Werterelativismus“. Diese sei verantwortlich für Fehlentwicklungen wie Alkoholismus, Drogenabhängigkeit, sexuelle Verwahrlosung und Gewaltverherrlichung.

Josef Ratzinger alias Benedikt XVI. hätte noch deutlicher werden können. In seinem Bestseller „Jesus von Nazareth“ (2007) legte Josef Ratzinger als Kardinal, nicht als Papst, seinen Lesern auf Seite 71 zwischen den Zeilen sogar nahe, in der auf der UN-Konferenz über Umwelt und Entwicklung 1992 in Rio de Janeiro verabschiedeten „Agenda 21“ die Bibel des Antichrist zu sehen. Ratzinger hatte sich schon 1968 als Theologieprofessor in seiner „Einführung in das Christentum“ gegen eine Politische Theologie gewandt, die dazu verleiten könnte, im Namen des Primats des Machbaren gegenüber dem Gemachten Gott zu spielen. Die Menschen könnten ihre Lebensressourcen „Liebe“ und „Sinn“ nicht selbst kreieren, sondern nur als Geschenk empfangen, mahnte Ratzinger. Nach meinem Verständnis impliziert das die Ablehnung einer globalen „Klimapolitik“ nach dem Muster des Kyoto-Protokolls. Denn diese Politik läuft auf den größenwahnsinnigen Versuch hinaus, mithilfe einer künstlichen Verteuerung von Energie und Nahrung eine im Detail chaotische und daher nicht vorhersehbare zyklische Entwicklung in den Griff zu bekommen.

Die Losung „Schöpfung bewahren!“ liegt zwar eindeutig auf der Linie des christlichen Primats des Gemachten vor dem Machbaren. Aber eine Politik nach dem Muster des Kyoto-Protokolls kann sie nicht rechtfertigen. Gehören das CO2, ohne das kein pflanzliches Leben auf der Erde möglich ist, und die Menschen, die es umso stärker ausstoßen, je freier und intensiver sie leben, etwa nicht zur Schöpfung?

(veröffentlicht am 28. Juli 2008 auf www.ef-online.de

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Klimaschutzpolitik als Ausdruck des Nihilismus

Ein Plädoyer für gesunden Menschenverstand und Wettbewerb statt Bürokratie und konsensuale Gutheissung

Der Klimawandel wird mit politischen und bürokratischen Mitteln zu bekämpfen versucht. Der Autor kritisiert diesen statischen Ansatz und plädiert für mehr Wettbewerb und gesunden Menschenverstand, um sich nicht die künftigen Chancen zu verbauen. (Red.)

Von Edgar Gärtner*

In den Auseinandersetzungen um den richtigen Umgang mit dem Klimawandel oder den Gesundheitsrisiken von Chemikalien geht es im Grund um den Kampf zwischen zwei kaum vereinbaren Weltbildern. Auf der einen Seite steht die Auffassung, wir Menschen lebten in einem geschlossenen System (Naturhaushalt) und könnten durch dessen fortschreitende Erforschung wenigstens mit 90%iger Gewissheit die Kräfte erlangen, die das System im Gleichgewicht halten. Der Naturhaushalt und die Lebensgrundlagen, die er uns liefert, könnten folglich durch die Anwendung wissenschaftlich abgeleiteter Management-Regeln haushälterisch verwaltet werden. Das ist die Sicht der vordarwinistischen (und präkantianischen), aus der Physico-Theologie des 17. und 18. Jahrhunderts hervorgegangenen Ökologie.

Insel im Meer des Nichtwissens

Ihr gegenüber steht die auf Charles Darwin (1859) zurückgehende evolutionäre Sichtweise, wonach es in der Natur keine prästabilierte Harmonie gibt. Vielmehr ist die Welt in jeder Hinsicht offen. Fast alles befindet sich in ständigem Fluss. Die Entwicklungsrichtung von Mensch und Natur ist das Ergebnis des Lernens aus Versuch und Irrtum. Systeme existieren daher nur in unseren Köpfen oder in Gegenständen beziehungsweise Organisationen, die wir bewusst schaffen. Menschliches Wissen bleibt eine Insel in einem Meer von Nichtwissen. Oder mit anderen Worten: Statt 90% wissen wir meist weniger als 1% von dem, was wir wissen müssten, um Entwicklungen in Natur und Gesellschaft gezielt steuern zu können. Wir müssen – nur mit dem schwachen Licht der Vernunft ausgerüstet – im Dunkeln voranschreiten. Nur im «Kampf ums Dasein» bewährte Institutionen, beginnend mit der Familie, der Kommune und der Kirchgemeinde, vermitteln uns dabei provisorische Gewissheit. Nur in deren Rahmen kann auch ein haushälterisches Herangehen an Probleme der Ressourcenversorgung sinnvoll sein.

In der evolutionären Sichtweise kann es keine ökologische Nachhaltigkeit ohne Freiheit geben, denn diese ist Voraussetzung des Lernens aus Versuch und Irrtum. Freiheit bedeutet Reden und Handeln im Einklang mit seinen mentalen Dispositionen. Dabei überwiegen Glaubenssätze, Motive und Präferenzen, die ihren individuellen Trägern nur zum Teil bewusst sind. Bewusstes wissenschaftliches Wissen ist hingegen weniger wichtig als der gesunde Menschenverstand. Das gilt auch für kollektive Entscheidungsprozesse. Nur in Familien, Clans oder Horden bis zu einer Gruppenstärke von höchstens 150 Personen können diese unmittelbar ausdiskutiert werden, wobei bekanntlich nicht alle Stimmen das gleiche Gewicht haben. Vielmehr kommt es auf die Meinung von Häuptlingen oder anderen Autoritäten an.

Verführerische Bürokratie

Oberhalb der «magischen Zahl» von 150 gibt es im Grund nur zwei Methoden kollektiver Entscheidungsfindung: den Markt und die Bürokratie. Der Markt ist zwar historisch viel älter, denn wir wissen, dass schon die Jäger und Sammler der Steinzeit Fernhandel mit unbekannten Menschen trieben. Dennoch erscheint er als «künstlich», weil das menschliche Hirn, angepasst an das Jahrtausende bis Jahrmillionen währende Leben in überschaubaren Horden, schlecht mit unpersönlichen Formen des Austauschs zurechtkommt. Viel «natürlicher» scheint uns eigenartigerweise die erst viel später mit dem Leben in grösseren Städten aufgekommene Bürokratie zu sein, weil sie vermutlich an die hierarchische Struktur der Horde erinnert. Die Bürokratie kann viel verführerischer sein als der Markt. Deshalb bedarf es einer Ordnungspolitik zur Eindämmung bürokratischer Auswüchse.

Ein gutes Beispiel dafür ist die Risikovorsorge. Das «Vorsorgeprinzip» wurde im Jahr 1992 auf der Uno-Konferenz über Umwelt und Entwicklung (Unced), dem legendären «Erd-Gipfel» von Rio, folgendermassen definiert: «Drohen schwerwiegende oder bleibende Schäden, so darf ein Mangel an vollständiger wissenschaftlicher Gewissheit kein Grund dafür sein, kostenwirksame Massnahmen zur Vermeidung von Umweltverschlechterungen aufzuschieben» (Grundsatz 15 der Rio-Deklaration).

Wie verträgt sich dieser Grundsatz mit dem Prinzip der Verhältnismässigkeit, wonach die Kosten in einem vernünftigen Verhältnis zum Nutzen von Massnahmen stehen müssen? Weil der ebenfalls 1992 angenommene EU-Vertrag von Maastricht im Artikel 130r (später 174) das Vorsorgeprinzip kodifizierte, aber nicht näher definierte, sah sich die EU-Kommission im Jahr 2000 veranlasst, in einem umfangreicheren Papier zu präzisieren, dass seine Anwendung im Risikomanagement auf einer wissenschaftlichen Risikobewertung und einer rationalen Kosten-Nutzen-Abwägung fussen muss. Kurz: Das Vorsorgeprinzip schliesse das im Maastricht-Vertrag ebenfalls kodifizierte Prinzip der Verhältnismässigkeit und die damit verbundene Verpflichtung zur Gesetzesfolgen-Abschätzung ein. Leider spielt der Maastricht-Vertrag heute für die Begründung der EU-Politik kaum noch eine Rolle.

Übertriebene Vorsorge

Vorsorgeaufwendungen, die mehr kosten, als sie je einbringen können, gelten zu Recht als bescheuert, als irrational. Das ist eindeutig der Fall, wenn das Vorsorgeprinzip als Forderung nach einem «Nullrisiko» ausgelegt wird. So erklärte beispielsweise der damals in der EU federführende österreichische Umweltminister Josef Pröll im Jahr 2006 bei der Verabschiedung der Dubai-Deklaration zur Chemikalien-Sicherheit: «Die Deklaration sagt: Wenn du dir nicht sicher bist, welche Auswirkungen etwas hat, lasse die Finger davon.» Hätten die Menschen immer diesen Grundsatz befolgt, hätten sie weder das Feuer gezähmt noch das Rad erfunden! Und man müsste auch Schokolade verbieten, weil man mit Utensilien und Zutaten, die in jeder Küche zu finden sind, daraus leicht gefährlichen Sprengstoff herstellen könnte. Übertriebene Vorsorge führt also zum Stillstand, wenn nicht gar zum Tod. Die dahinterstehende Denkweise heisst Nihilismus.

Was verstehen wir darunter? In gängigen Lexika wie der Online-Enzyklopädie «Wikipedia» liest man meistens, Nihilisten glaubten an gar nichts. Heute gelten islamistische Selbstmordattentäter als typische Nihilisten. Niemand kann aber behaupten, diese glaubten an nichts. Deshalb scheint mir die Nihilismus-Definition, die der französische Schriftsteller Albert Camus in seinem 1951 veröffentlichten Essay «Der Mensch in der Revolte» gab, weitaus erhellender zu sein. «Der Nihilist», schrieb Camus, «glaubt nicht an nichts, sondern nicht an das, was ist.» Er berief sich dabei auf Friedrich Nietzsche, der den Nihilismus als Negation des Lebens definiert hatte. Allgemein bedeutet danach Nihilismus, etwas höher zu schätzen als das menschliche Leben in Freiheit und Würde. Für die Motive von Selbstmordattentätern trifft das sicher zu.

Negation des Lebens

Selbstmordattentate sind aber heute beileibe nicht die einzige und wahrscheinlich nicht einmal die wichtigste Manifestation des Nihilismus. Auch hinter Übertreibungen der heutigen Wellness-Bewegung lassen sich unschwer nihilistische Motive ausmachen. Viele Wellness-Jünger tun des Guten zu viel und verpassen über der Sorge, ob sie wirklich alles Denkbare für den Erhalt ihrer Gesundheit getan haben, das Leben. Statt sich des Lebens zu erfreuen, heben sie sich die Gesundheit für das Ende ihrer Tage auf. «Auch wer gesund stirbt, ist definitiv tot», bemerkte dazu mit trockenem Humor der bekannte Psychiater und katholische Theologe Manfred Lütz.

Wirtschaftlicher Selbstmord aus Angst vor dem Tod

Weniger lustig mutet dagegen der verbissene Kampf von Umweltverbänden und grünen Politikern gegen verdächtige Kunststoffweichmacher in lebensrettenden Blutbeuteln und flexiblen Infusionsschläuchen an – alles in guter Absicht, versteht sich. Offenbar ist ihnen aber nicht recht bewusst, dass sie den Übertritt gewisser Weichmachermengen in das Blut von Patienten für ein grösseres Übel halten, als die Patienten ohne die Verabreichung von Blutkonserven oder künstlicher Nahrung ihrem Schicksal zu überlassen. Da vergeht einem schon das Lachen.

Vorteile der Klimaerwärmung

Als noch gefährlicher erscheint mir der in der Klimaschutzpolitik zutage tretende gedankenlose Nihilismus. Denn die EU schickt sich an, für den Kampf gegen den vermutlich unvermeidlichen Klimawandel in Gestalt der Förderung unwirtschaftlicher «erneuerbarer» Energien und des verordneten CO 2 -Emissions-Handels nicht weniger als 500 Mrd. € lockerzumachen. Angesichts des Eifers der amtlichen Weltretter muss der nüchterne Beobachter zum Eindruck gelangen, hier werde der wirtschaftliche Selbstmord aus Angst vor dem Tod vorbereitet, zumal eine mässige Erwärmung der Erde sicher mehr wirtschaftliche und gesundheitliche Vorteile als Nachteile mit sich brächte.

Es ist nicht klar, was die Klimapolitik eigentlich schützen will. Die gegebenen Grenzen zwischen den Klimazonen der Erde? Oder einen globalen Temperaturmittelwert? Woher weiss die politische «Elite», die sich den Klimaschutz auf die Fahnen geschrieben hat, überhaupt, in welche Richtung sich die Durchschnittstemperatur bewegen wird? Aus Modellrechnungen auf Grosscomputern, die davon ausgehen, dass die Erde ein geschlossenes System («Treibhaus») ist?

Im vergangenen Herbst haben die US-Statistiker Gerald Roe und Marcia Baker in der Publikation «Science» (Vol. 318, Seite 582) einen vergleichenden Test aller gängigen Klimamodelle veröffentlicht. Sie kommen dabei zum Schluss, numerische Modell-Läufe der atmosphärischen Zirkulation könnten grundsätzlich nicht herausfinden, ob es in den nächsten 100 Jahren auf der Erde wärmer oder kühler wird. Wir brauchen uns daher mit Details der Klimaprojektionen gar nicht mehr zu befassen. Wie die Zukunft aussehen wird, bleibt wie eh und je eine Glaubenssache.

Der gesunde Menschenverstand weiss seit langem, mit dieser heute von manchen aufgeregten Zeitgenossen als völlig neu empfundenen Situation umzugehen, indem er uns lehrt, nicht alles auf eine Karte zu setzen. Glaubens- und Redefreiheit sowie der Wettbewerb zwischen verschiedenen Problemlösungsansätzen sind die wichtigsten Voraussetzungen der gesellschaftlichen Anpassung an unvorhersehbare Entwicklungen wie Erdbeben oder Klimaverschiebungen. Der Wettbewerb fördert gleichzeitig wirtschaftliches Wachstum und die Schaffung von Wohlstand. Dieser wiederum ist die beste Vorsorge gegenüber Naturkatastrophen und anderen Unbilden. Denn bekanntlich unterscheiden sich die Opferzahlen bei vergleichbar starken Erdbeben in armen und wohlhabenden Ländern in der Regel um einige Grössenordnungen.

Nur provisorische Gewissheiten

Dennoch orientiert sich die Klimaschutzpolitik nicht an diesem bewährten Muster gesellschaftlicher Problemlösung, sondern am scheinbar näherliegenden bürokratischen Ansatz. Einen Wettbewerb verschiedener Herangehensweisen bei der Suche nach den effizientesten, gerechtesten und nachhaltigsten Lösungen kann es hier nicht geben. Das unvoreingenommene Streben nach Wahrheit musste durch die Herstellung eines scheinbaren Konsenses über das Spurengas CO2 als vermeintliche Hauptursache des Klimawandels ersetzt werden, obwohl es keine statistische Korrelation zwischen der CO2-Konzentration und der Temperatur der Luft gibt. Das 1988 von der World Meteorological Organization und dem Umweltprogramm der Uno (Unep) eingesetzte Intergovernmental Panel on Climate Change (IPCC) bekam den ausdrücklichen Auftrag, zu demonstrieren, dass der Mensch mit seinen CO 2 -Emissionen für die leichte Erderwärmung des letzten Jahrhunderts verantwortlich ist. Das allein reicht schon, um das Gremium als politische Einrichtung zu charakterisieren, denn in der Wissenschaft hat der Begriff «Konsens» nichts zu suchen. Hier steht nach Karl Raimund Popper die «Refutation» begründeter Vermutungen (Hypothesen) mit Hilfe intelligenter Experimente und des kritischen Disputs im Mittelpunkt, das heisst gerade nicht die konsensuale Gutheissung und Kodifizierung von Aussagen. Es gibt auch hier nur provisorische Gewissheit.

Gefährliche Ziele

In der Politik hingegen ist Konsens durchaus erwünscht. Seine Grundlage kann aber nur zum geringsten Teil die Wissenschaft liefern. Viel grösseres Gewicht sollte nach Auffassung der Totalitarismus-Kritikerin Hannah Arendt der gesunde Menschenverstand haben. Und dieser verbietet es, alles auf die Karte einer einzigen vermuteten Ursache des Klimawandels zu setzen. Wer das dennoch tut, setzt unseren Wohlstand und damit auch unsere Anpassungsfähigkeit aufs Spiel. Mehr noch: Wer am Ziel festhält, die CO2-Emissionen bis zur Jahrhundertmitte zu halbieren oder, wie vom amerikanischen Ex-Vizepräsidenten Al Gore gefordert, sogar um 90% zu senken, nimmt – bewusst oder unbewusst – den Tod jener Abermillionen von Menschen in Kauf, die infolge der klimapolitisch bedingten Preisexplosion bei Nahrungsmitteln und Energieträgern schlicht überzählig werden. (erschienen in: Neue Zürcher Zeitung am 7. Juni 2008)

***********************************************************

Gesunder Menschenverstand

Nicht einmal Brotkrusten durften wir in meinem streng katholischen Elternhaus wegwerfen. Sie kamen ins Schweinefutter. Mais und Weizen zu verheizen, um dadurch Wetter und Klima zu beeinflussen – das wäre uns als Sakrileg erschienen. Uns Kindern war beigebracht worden, im Zweifelsfall immer für das Leben Partei zu ergreifen. Viele der jüngeren Generation tun sich bis heute schwer, wenn es darum geht, nicht nur zwischen Gut und Böse, sondern zwischen zwei Übeln abzuwägen. Diese Fähigkeit der Abwägung ist der Kern dessen, was als „gesunder Menschenverstand“ gilt. Heute streiten viele nicht selten ab, dass es so etwas überhaupt gibt, indem sie Ethik auf die Durchsetzung und Anerkennung von Wertekatalogen reduzieren. Doch damit bestätigen sie nur die Diagnose der Philosophin Hannah Arendt, die im Verlust des gesunden Menschenverstandes das wichtigste Charakteristikum der Moderne sah.

Seit Friedrich Nietzsche heißen Menschen, denen die Fähigkeit der Übelabwägung abhanden gekommen ist, Nihilisten oder Gutmenschen. Diese Menschen, das betonte der französische Literaturnobelpreisträger Albert Camus im Anschluss an Nietzsche, glauben nicht an nichts, sondern nicht an das, was ist. Sie führen meist nichts Böses im Schilde, sondern erstreben mit Nachdruck etwas Gutes. Dabei vergessen sie, dass alles einen Preis hat. Dieser kann im Extremfall darin bestehen, der guten Absicht nicht nur die Freiheit, sondern das Leben von Tausenden, wenn nicht sogar von Millionen Menschen zu opfern. Im „modernen“ 20.Jahrhundert gibt es dafür etliche Beispiele.

Im gerade begonnenen 21. Jahrhundert droht leider eine Fortsetzung dieser unheilvollen Entwicklung, wenn auch unter anderen Vorzeichen. Diesmal sind es nicht mehr nur Stammesfehden und Eroberungskriege, die Hunderttausende von unschuldigen Opfern fordern. Als noch folgenreicher könnte sich die Arbeit eines schwach legitimierten Gremiums, des „Weltklimarates“ IPCC, erweisen, der im „Konsens“ mit seinen politischen Auftraggebern entschieden hat, nicht Armut, Hunger und Krankheit seien die dringendsten Herausforderungen der Menschheit, sondern der Klimawandel. Um diesen zu bekämpfen, erscheint manchen beinahe jedes Mittel recht. So wurden die Warnungen des Nestlé-Chefs Peter Brabeck-Letmathe vor einer drohenden Hungerkatastrophe infolge der Umwidmung immer größerer Ackerflächen für die Produktion „klimaneutraler“ Brenn- und Treibstoffe so lange in den Wind geschlagen, bis es nun zu Hungeraufständen kam. Wann wird sich die EU wieder an ihrem christlichen Erbe statt an Weltverbesserungsplänen orientieren?

(erschienen in: WELTonline am 27. April 2008)

************************************************************************************

2. November 2007, 04:00 Uhr Von Edgar Gärtner

Gastkommentar in: DIE WELT:

Lob des kleineren Übels

Fast alle Menschen wollen das Gute. Selbst Tyrannen sind meist subjektiv davon überzeugt, nur gute Absichten zu verfolgen. Die moderne Öffentlichkeitsarbeit in Politik und Wirtschaft folgt daher der Devise „Tue Gutes und rede darüber!“ Dieser Grundsatz ist freilich noch nicht sehr alt, und es erscheint keineswegs sicher, dass er sich auch als nachhaltig erweisen wird.Niccolò Machiavelli, der zu Recht noch immer als der größte Lehrmeister der politischen Öffentlichkeitsarbeit anerkannt ist, gab jedenfalls den Fürsten im Gegenteil den ganz und gar unchristlich anmutenden Rat, ihre Untertanen im Zweifelsfalle eher das Fürchten zu lehren, als sich auf ihre Liebe und Zuneigung zu verlassen. Ein unvoreingenommener Rückblick auf das 20. Jahrhundert könnte zeigen, dass der Meister mit diesem Ansinnen so falsch nicht lag. Denn alle großen Untaten, die dem vergangenen Jahrhundert ihr Gepräge gaben, wurden durch das Gute begründet. Hitler, Stalin und Mao wurden von der großen Mehrheit ihrer Völker innig geliebt, wenn nicht angebetet, obwohl sie der Umsetzung ihrer Weltverbesserungspläne zig Millionen Menschen opferten. Dabei hätte man wissen können, dass es nicht genügt, das Gute zu wollen. Gehört es doch schon lange zu den Volksweisheiten, dass der Weg zur Hölle mit guten Vorsätzen gepflastert ist.Die meisten Menschen wissen auch aus ihren Alltagserfahrungen: Wer das Gute anstrebt, muss dabei oft gewisse üble Nebenwirkungen in Kauf nehmen. Am leichtesten fallen noch Entscheidungen zwischen etwas Gutem und etwas klar Bösem. Schon etwas schwieriger ist oft die Wahl zwischen etwas Gutem und etwas weniger Gutem. Am schwierigsten ist es jedoch, sich zwischen zwei Übeln entscheiden zu müssen. Manchmal zeigt es sich, dass die Hinnahme kleiner Übel besser ist als die Durchsetzung scheinbar zeitlos guter Ziele nach dem Motto „Der Zweck heiligt die Mittel“.Was der Alltag zeigt, dürfte auch in Politik und Wirtschaft gelten. Warum setzt die Öffentlichkeitsarbeit dennoch oft darauf, üble Nebenwirkungen des Guten zu verdrängen? So konnte sich in der Energiepolitik eine Denkweise ausbreiten, die um des Guten, der Stabilisierung der Durchschnittstemperatur willen, Investitionen in absolut unwirtschaftliche Techniken wie Windräder oder Fotovoltaikanlagen verlangt, während alle bezahlbaren Formen der Energiegewinnung, also Atom- und Kohlekraftwerke, bekämpft werden. Wie lässt sich demgegenüber eine rationale Übelabwägung kommunizieren? Das ist derzeit die wichtigste Herausforderung einer verantwortungsvollen Öffentlichkeitsarbeit.

Die Tücken des Kohlenstoff-Kreislaufs

Da das Kyoto-Protokoll von 1997 nicht nur eine Begrenzung von CO2-Emissionen an der Quelle fordert, sondern auch die Anrechnung von C-Senken erlaubt, setzt es ein hinreichendes Verständnis des C-Kreislaufs voraus. Doch davon sind wir weit entfernt.

Nach der heute gängigen Vorstellung lag die Gleichgewichtskonzentration von CO2 in der Atmosphäre um 1850 bei 280 ppm. Bis zum Jahre 2001 stieg die auf dem Vulkan Mauna Loa auf Hawaii gemessene Konzentration auf 370 ppm an. Der in 150 Jahren akkumulierte CO2-Überschuss geht höchstwahrscheinlich zum größten Teil auf die Verbrennung fossiler Energieträger und auf Waldrodungen und nur zum geringeren Teil auf die Freisetzung von CO2 aus den Ozeanen zurück. So weit scheinen sich die mit Klimafragen befassten Naturwissenschaftler einig zu sein. Anlass zu Streit geben aber die Fragen, was das überschüssige CO2 bewirkt und was damit kurz- und mittelfristig geschieht.

Der von der World Meteorological Organization (WMO) und vom UN-Umweltprogramm (UNEP) eingesetzte Welt-Klimarat Intergovernmental Panel on Climate Change (IPCC) nimmt in seinen Warnungen vor einer drohenden Überhitzung unseres Planeten implizit eine mittlere Verweildauer des CO2 in der Atmosphäre von etwa 570 Jahren an und schätzt auf dieser Basis den möglichen Anstieg der globalen Durchschnittstemperatur bis zum Ende dieses Jahrhunderts auf bis zu 5,8 Grad Celsius. Schon im Herbst 2001 hatte der britische Chemiker Jack Barrett auf einem von der DECHEMA Gesellschaft für Chemische Technik und Biotechnologie in Frankfurt am Main veranstalteten Kolloquium darauf hingewiesen, aus dem Abklingen des 14C-Peaks nach der Einstellung oberirdischer Kernwaffenversuche nach dem Teststopp-Abkommen von 1962 lasse sich eine CO2-„Halbwertszeit“ von weniger als 40 Jahren errechnen.

In der Zwischenzeit hat der im (Un)ruhestand lebende Elektroingenieur und Hobby-Klimaforscher Peter Dietze als offizieller Reviewer des IPCC ein einfaches „Wasserkastenmodell“ der globalen C-Flüsse durchgerechnet. Mithilfe einer Regressionsanalyse der in der Nachkriegszeit gemessenen CO2-Werte gelangt er dabei zu einer 1/e-Lebensdauer der CO2-Überschüsse von 55 Jahren beziehungsweise einer „Halbwertszeit“ von 38 Jahren. Auf dieser Basis sei bis zum Jahrhundertende mit einer globalen Erwärmung von lediglich 0,52 °C zu rechnen.

Am 6. März gab die DECHEMA Dietze nun die Gelegenheit, seinen Ansatz mit den Auffassungen einer Reihe international anerkannter Klima-Forscher zu konfrontieren. Auf generelle Skepsis stieß die von Dietze vorgenommene Zusammenfassung der sehr unterschiedlichen Verweilzeiten des Kohlenstoffs in verschiedenen Kompartimenten der Biosphäre zu einer einzigen Zeitkonstanten analog zur Parallelschaltung elektrischer Widerstände und Kapazitäten. Der Botaniker Prof. Dr. Ernst-Detlef Schulze, Direktor des Max-Planck-Instituts (MPI) für Biogeochemie in Jena, forderte, neben der Parallelschaltung müsse auch die Reihenschaltung von C-Quellen und Senken berücksichtigt werden, was das Modell komplizierter mache und die theoretische Verweildauer des Kohlenstoffs in der Biosphäre ansteigen lasse. Dietze verwies demgegenüber auf die gute Übereinstimmung seiner Berechnung mit dem in den letzten 27 Jahren gemessenen durchschnittlichen CO2-Anstieg um etwa 1,5 ppm im Jahr. Danach würde im Jahre 2075 eine Maximalkonzentration von 470 ppm erreicht. Eine Simulation auf der Basis der IPCC-Parameter führe demgegenüber zu einem progressiven CO2-Anstieg von jährlich etwa 2,6 ppm und schon die gegenwärtig messbare CO2-Konzentration würde um 12 ppm überschritten.

Aber auch Prof. Schulze ist mit dem Kyoto-Protokoll nicht glücklich, obwohl er es grundsätzlich als einen ersten Schritt in Richtung auf eine „planmäßige Gestaltung globaler Stoffkreisläufe“ befürwortet. Die in dem Abkommen erstmals eingeräumte Möglichkeit, an Stelle der Emissionsreduktion biologische C-Senken durch Aufforstung neu zu schaffen, sei eine kaum verhohlene Einladung zum Missbrauch. Es sei versäumt worden, klar zu definieren, was überhaupt als C-Senke anerkannt werden kann. Zum Beispiel werden Flächen von 500 Hektar, die zu zehn Prozent vom Kronendach von Bäumen bedeckt sind, schon als Wälder gezählt. Da die Anrechnungsperiode erst 2008 beginnt, sind bis dahin noch großflächige Rodungen von Primärwäldern möglich. Dabei wird viel Kohlenstoff durch Humusabbau freigesetzt. Werden gerodete Flächen für den humuszehrenden Kartoffelanbau genützt, entstehen weitere C-Verluste. Auch beim Weizenanbau sei die C-Bilanz negativ, betont Schulze. Und bei der oft gepriesenen energetischen Nutzung landwirtschaftlich erzeugter Biomasse sei auch nicht viel zu gewinnen. Bei der Erzeugung von Rapsöl zum Beispiel gehe der anfängliche Gewinn größtenteils wieder durch die notwendige Methylierung verloren.

Andererseits würden nachhaltig bewirtschaftete Wälder in den gemäßigten Zonen nicht als Senken anerkannt, obwohl die Annahme, nicht bewirtschaftete Wälder seien bessere C-Senken, nachweislich falsch sei. Schulze bezieht sich dabei auf den Modellwald Hainich in Thüringen, in dem mithilfe eines Messnetzes die jährliche Fixierung von sechs Tonnen Kohlenstoff je Hektar nachgewiesen wurde. Im B-Horizont des Waldbodens (Mineralboden) kann Kohlenstoff übrigens bis zu 6.000 Jahre gespeichert werden, wobei sich langkettige Lipide (Wachse) und nicht etwa Lignin am langlebigsten erweisen.

Wie Prof. Dr. Wolfgang Cramer vom Potsdam-Institut für Klimafolgenforschung in Frankfurt darlegte, beträgt die gesamte jährliche Aufnahme von Kohlenstoff durch die Landpflanzen etwa 60 Gigatonnen (Nettoprimärproduktivität). Die nach Abzug der Atmung verbleibende Nettoökosystemproduktivität beträgt aber nur ein Zehntel davon. Noch geringer ist mit 1 bis 2 Gt/a die Nettobiomproduktivität, die Ernte-Entnahmen und Schädlingsfraß Rechnung trägt. Diese Schätzungen stimmen durchaus mit dem Modell Dietzes überein.

Schwieriger ist die Abschätzung der Auswirkungen historischer und aktueller Landnutzungsänderungen. Cramer geht davon aus, dass durch die historischen Entwaldungen insgesamt 180 bis 200 Gigatonnen Kohlenstoff freigesetzt wurden. Zwischen 1920 und 1958 sei auch die Landwirtschaft unterm Strich eine C-Quelle gewesen; seither sei sie aber eine schwache C-Senke. Nach dem einfachen CLIMBER-Modell verstärken aktuelle Entwaldungen in den Tropen die globale Erwärmung, während Abholzungen in der borealen Klimazone zur lokalen Abkühlung führen. Sehr viel aufwändiger ist das LPJ-Modell, an dem das Potsdam-Institut und das Jenaer MPI gemeinsam arbeiten. Es trägt Ereignissen wie dem Pinatubo-Ausbruch und der Stimulierung des Pflanzenwachstums durch zusätzliches CO2 Rechnung, erlaubt aber bis heute kaum Aussagen über konkrete Auswirkungen von Landnutzungsänderungen. Möglicherweise sei aber die Forst- und Landwirtschaftspolitik für den Kohlenstoffhaushalt in Zukunft wichtiger als die Energiepolitik, deutete Cramer an.

Auf Widerspruch stieß Dietzes Annahme, der atmosphärische Anteil (die „airborne fraction“) der globalen CO2-Vorräte müsse in der Nachkriegszeit zugunsten des in den Ozeanen gelösten Teils abgenommen haben, da der gemessene CO2-Anstieg hinter den stark ansteigenden Emissionen zurück bleibe. Dr. Martin Heimann vom Jenaer MPI, ein Schüler der inzwischen verstorbenen Berner Pioniere der globalen C-Kreislauf-Forschung, Oeschger und Siegenthaler, glaubt anhand von Messwerten demonstrieren zu können, dass unverändert etwa 40 Prozent des durch menschliche Aktivitäten freigesetzten CO2 in der Atmosphäre landen, während insgesamt 60 Prozent von den Ozeanen und der Landbiosphäre aufgenommen werden. Die gleichzeitig mit der Zunahme des Gesamtkohlenstoff-Gehaltes der Ozeane registrierte leichte Abnahme des Sauerstoff-Gehaltes der Atmosphäre zeige, dass die Verbrennung fossiler Vorräte die Hauptquelle des globalen CO2-Anstiegs sei. Da die am Südpol gemessenen CO2-Zuwächse der Mauna-Loa-Kurve etwas nachhinken, stehe überdies außer Frage, dass die stärker industrialisierte und urbanisierte Nordhemisphäre die Hauptquelle der CO2-Emissionen ist. Da es im Ozean keinen Düngeeffekt des CO2 gebe, müsse man wegen der Nichtlinearität der Karbonatchemie überdies mit einer Verringerung der Senkenkapazität der Ozeane rechnen.

Ein Sinken der Pufferkapazität der Ozeane befürchtet auch der schottische Ozeanograph Douglas W.R. Wallace, der jetzt am Kieler Institut für Meereskunde arbeitet. „Don’t forget the importance of chemistry!“, warnte er. Insbesondere könnten Organismen mit Kalkschalen Probleme mit einem sinkenden pH bekommen. Möglicherweise könne die Kohlensäure aber auch durch unterseeische Vulkanausbrüche und große Kalkstein-Vorkommen neutralisiert werden. Fazit: Nichts Genaues weiß man nicht.

Etwas präzisere Angaben über das CO2-Absorptionsvermögen der Ozeane versuchte die Heidelberger Physikerin Dr. Ingeborg Levin, eine Spezialistin für Radiocarbon-Messungen, zu machen. Ihre eigenen in Zusammenarbeit mit Vago Hesshaimer und Martin Heimann durchgeführten Berechnungen auf der Basis des rasch abgeklungenen 14C-Peaks aus den Kernwaffen-Versuchen, die 1994 in „nature“ veröffentlicht wurden, sowie eine im vergangenen Jahr abgeschlossene neue 14C-Inventur der Ozeane von Peacock und Mitarbeitern legten eine Korrektur der 1995 von Wallace S. Broecker und Kollegen veröffentlichten Schätzung der CO2-Aufnahmerate der Ozeane um 25 Prozent nach unten nahe. Jedenfalls sei die Hoffnung, die Meere könnten den menschengemachten CO2-Überschuss aufnehmen, unbegründet. An der Umsetzung des Kyoto-Protokolls führe kein Weg vorbei. Im Übrigen könnten die von ihrem Institut durchgeführten Radiocarbon-Messungen den Suess-Effekt (die Verdünnung des natürlichen 14C-Gehalts der Atmosphäre durch 14C-freies CO2 fossilen Ursprungs) nutzen, um die Umsetzung des Kyoto-Protokolls auf regionaler Ebene zu kontrollieren.

Demgegenüber fragte Peter Dietze, ob dem Suess-Effekt wirklich eine so große Beweiskraft zukommt, wenn man davon ausgehe, dass nicht 30, sondern allenfalls 5 Prozent des CO2-Gehalts der Atmosphäre menschlichen Ursprungs sind. Sollte die von Dietze vorgestellte Modellrechnung realistisch sein, wäre das Kyoto-Protokoll überflüssig. Denn die von ihm geschätzte globale Erwärmung um ein halbes Grad (und höchstwahrscheinlich auch noch einiges mehr) wäre nicht nur ohne weiteres von der Biosphäre verkraftbar, sondern könnte sich in nördlichen Breiten sogar als Segen für die Landwirtschaft erweisen. Welche Seite hier wieweit recht hat, ist selbst für ein Fachpublikum kaum auszumachen.

Edgar Gärtner

Kommentar

Die Rechnung geht nicht auf

Wie man es auch dreht und wendet: Die globale Kohlenstoffbilanz zeigt große Lücken. Wieso konnte das 14C aus dem A- und H-Bomben-Fall-out noch deutlich schneller aus der Atmosphäre verschwinden als erwartet? Warum kann die Mauna-Loa-Kurve langsamer ansteigen als die globalen CO2-Emissionen, wenn die Weltmeere weniger Kohlenstoff aufnehmen als bislang angenommen? Diese offenen Fragen zeigen, dass wir von einer wissenschaftlichen Begründbarkeit von „Klimapolitik“ so weit entfernt sind wie eh und je.

Dabei ist der Kohlenstoffkreislauf nach gängiger ökologischer Lehrmeinung ohnehin nur drittrangig. Die Entwicklung des „Erdsystems“ wird in der Hauptsache vom Wasserkreislauf bestimmt. Dieser aber ist so komplex, dass jeder, der vorgäbe, ihn im Detail analysieren und steuern zu können, sofort für verrückt erklärt würde. An zweiter Stelle folgt der Kreislauf des Sauerstoffs. Dieser rückt erst neuerdings etwas ins Blickfeld, weil festgestellt wurde, dass der O2-Gehalt der Atmosphäre sinkt. Beunruhigend ist das aber nicht. Im Gegenteil: Die Welt wird sicherer, weil dadurch die Gefahr spontaner Brände abnimmt. Zum Atmen reicht der übrig bleibende Sauerstoff allemal.

Wie ein beteiligter Forscher mit entwaffnender Offenheit erklärte, hat sich die Klimaforschung vor allem deshalb auf den drittrangigen C-Kreislauf konzentriert, weil sich CO2 im Unterschied zu Wasserdampf ziemlich gleichmäßig in der Atmosphäre verteilt und menschengemachte CO2-Emissionen das einzige Schräubchen sind, an dem man drehen zu können glaubt. Doch wird die „Klimapolitik“ zur Augenwischerei, wenn sie neben einigermaßen kalkulierbaren menschengemachten CO2-Emissionen auch auf ein Management natürlicher C-Senken abzielt. Außer Deutschland ist denn auch bislang kein Land der Welt Kyoto-Verpflichtungen in nachprüfbarer Größenordnung eingegangen. Außer dem Verschwinden bestimmter Industrien aus Deutschland und der Verwandlung des Landes in einen Vogelscheuchenpark (Verzeihung: Windpark) dürfte das Kyoto-Protokoll also nichts bewirken.

Edgar Gärtner

(veröffentlicht in: Chemische Rundschau, CH-Solothurn, Nr. 6/25. März 2003)

Mülltrennung kein Dogma

Angesichts der unendlichen Geschichte der Novellierung einer Verpackungsverordnung, die jeder vernünftige Mensch abschaffen würde, erlaube ich mir, einen älteren Artikel ins Netz zu stellen, der zeigt, welcher Erkenntnisstand bereits vor sechs Jahren erreicht war.

Mülltrennung ist kein Dogma mehr

Die Duales System Deutschland AG (DSD) wird nun gleich von zwei Seiten in Frage gestellt: technisch erweist sich die Abfalltrennung in den privaten Haushalten als unsinnig und juristisch ist das DSD als Monopol nach Ansicht des Bundeskartellamtes nicht haltbar.

Die Deutschen dürfen wieder träumen. Nachdem sich die deutsche Umweltpolitik in den letzten zehn, zwölf Jahren in Form der Quotenregelungen der Verpackungsverordnung offenbar mehr um die Belange von Müllsammlern als um die Entlastung der Umwelt und der Bürger gekümmert und dadurch die Mülltrennung zu einer der wichtigsten (unbezahlten) Freizeitbeschäftigungen gemacht hat, scheint neuerdings wieder die Frage erlaubt, ob Abfallpolitik nicht auch das Ziel haben darf, den Bürgern das Leben leichter zu machen, ohne dabei das Ziel der nachhaltigen Umweltschonung aus dem Auge zu verlieren.

„Die Abfallwirtschaft kann sich heute wieder stärker den Bedürfnissen der Bürger widmen“, erklärt Prof. Jürgen Hahn, der zuständige Abteilungsleiter im Berliner Umweltbundesamt (UBA). Hahn verweist dabei auf eine in diesem Sommer erschienene Studie über die Zukunft der Abfallentsorgung, die Martin Kaimer und Diethard Schade an der Akademie für Technikfolgenabschätzung in Baden-Württemberg erstellt haben. Darin stellen die beiden Wissenschaftler fest, dass die mit der deutschen Verpackungsverordnung (VerpackV) von 1991 und dem Kreislaufwirtschaftsgesetz (KrW/AbfG) von 1996 verbundenen Bemühungen, die Endverbraucher zu einem ressourcensparenden Umgang mit ausgedienten Verpackungen und anderen Abfällen zu erziehen, fehlgeschlagen sind.

Das Dogma der Mülltrennung wird immer mehr zu einer logistischen Herausforderung, vor der immer mehr deutsche Privathaushalte kapitulieren müssen – zumal, wenn sie jetzt in der Wirtschaftskrise ganz andere Sorgen haben. Nur mithilfe komplizierter Anleitungen in Form von Broschüren und Entsorgungsterminkalendern gelingt es überhaupt, einigermassen den Überblick zu bewahren. So müssen Grünabfälle getrennt erfasst und über längere Zeiträume bis zur Abholung aufbewahrt werden, was im Sommer zu Ungeziefer- und Geruchsproblemen führen kann. Papier, Glas, Altmetalle, Altkleider etc. müssen zu Sammelcontainern oder zu kilometerweit entfernten Recyclinghöfen gefahren werden. Verpackungen aus Kunststoff, Aluminium, Weissblech und Verbundmaterialien sollen in die Gelben Tonnen, die in der Regel nur einmal im Monat abgeholt werden. Batterien, Leuchtstoffröhren, Lack- und Medikamentenreste müssen getrennt aufbewahrt und zu einem Schadstoffmobil oder einem Recyclinghof gebracht werden. Nur der verbleibende Restmüll wird noch wie früher abgeholt, heute aber meist in längeren Abständen. Trotz aller von den Haushalten zeitaufwändig und unentgeltlich erbrachten Vorleistungen steigen die kommunalen Abfallgebühren.

Kein Wunder, dass die Ergebnisse des Sortiereifers zu wünschen übrig lassen. In den Gelben Tonnen finden sich nach empirischen Untersuchungen bis zu 50 Prozent Abfälle, die dort nach der Absicht der Gesetzgeber nicht hingehören. Umgekehrt gelangt in die Grauen Restmülltonnen ein vergleichbarer Prozentsatz von Verpackungsabfällen mit dem Grünen Punkt. Um Verpackungskunststoffe und andere Wertstoffe sinnvoll aufbereiten zu können, ist eine mühsame und kostenträchtige Nachsortierung nötig. Deshalb regen Kaimer und Schade an, in Zukunft (wie vor dem Aufbau des Dualen Systems) nur noch Papier, Karton, Glasflaschen und Textilien sowie größere Kunststoffverpackungen, deren werkstoffliche Verwertung sich rechnet, getrennt zu sammeln. Alles andere soll mit hohem Nutzungsgrad thermisch verwertet werden.

Bund, Länder und Kommunen, so Prof. Jürgen Hahn vom UBA, hätten im letzten Jahrzehnt zuviel Hirnschmalz auf die Lösung nebensächlicher Probleme wie die stoffliche Verwertung ausgedienter Verpackungen verwandt und dabei die wichtigste Herausforderungen der Abfallwirtschaft aus dem Auge verloren: Die Umsetzung der schon 1993 erlassenen Technischen Anleitung Siedlungsabfall (TASi) und des darin enthaltenen Verbots der Ablagerung unbehandelter organischer Abfälle ab 2005 und das in einem „Eckpunktepapier“ der Bundesregierung für 2020 vorgesehene Gebot der kompletten Verwertung aller Abfälle.

Nach der Ablagerungsverordnung vom Januar 2001 sind für die Vorbehandlung sowohl die Müllverbrennung als auch mechanisch-biologische Verfahren zugelassen, sofern sie die strengen Grenzwerte der 30. Bundesimmissionsschutz-Verordnung (BImSchV) für Dioxine, Schwermetalle und andere Schadstoffe einhalten. Bis jetzt wird in Deutschland aber nur etwa die Hälfte der rund 30 Millionen Tonnen Siedlungsabfälle dem entsprechend entsorgt.

Angesichts dieser Lage droht Rainer Baake, Staatssekretär im Bundesumweltministerium (BMU): „Die Kommunen hatten 13 Jahre Zeit, sich auf die neuen gesetzlichen Bestimmungen einzustellen. Wer das geltende Recht bis Juni 2005 nicht beachtet, bekommt Besuch vom Staatsanwalt!“ Um die „Behandlungslücke“ rasch zu schließen, setzt das BMU nun offenbar verstärkt auf kostengünstige Alternativen zur klassischen Müllverbrennung wie das bislang umstrittene Trockenstabilatverfahren der mittelständischen hessischen Firma Herhof.

Dieses Verfahren nutzt die bei der siebentägigen Verrottung von unsortiertem feuchten Hausmüll in geschlossenen Rotteboxen entstehende Wärme zu dessen Trocknung. Der trockene Abfall lässt sich in vollautomatischen Sortieranlagen leicht von nichtbrennbaren Bestandteilen wie Batterien, Metallteilen, Glas, Keramik, Steinen und Sand befreien. Diese können sinnvoll verwertet werden. Die Anlage in Aßlar im hessischen Lahn-Dill-Kreis trennt zum Beispiel Scherben von Weiss-, Braun- und Grünglas so sauber, dass sie die Spezifikationen der Glashütten erfüllt. Das übrig bleibende organische Material (Trockenstabilat) eignet sich wegen seines hohen Brennwertes als Ersatzbrennstoff für Zementwerke und spezielle Feuerungsanlagen oder als Rohstoff für die Synthesegaserzeugung.

Prof. Jürgen Hahn vom UBA bescheinigte der Firma Herhof in einem Schreiben vom 16. Mai 2002: „Das Trockenstabilatverfahren mit stofflicher und energetischer Nutzung organischer Abfälle und differenzierten Recyclingmöglichkeiten für die anorganischen Fraktionen erfüllt bereits heute die Anforderungen, welche die Bundesregierung für 2020 geplant hat.“

Umwelt-Staatssekretär Rainer Baake lobte in diesem Frühjahr gar Herhofs Vision, den Haushalten in Zukunft ihre Abfälle ungetrennt und kostenlos abzunehmen, diese vollautomatisch zu sortieren und vollständig zu verwerten und die Abfallbehandlungskosten durch Rohstofferlöse zu decken. Indem sie für die EXPO 2000 in Hannover die vollautomatische Sortieranlage SORTEC entwickeln liess, hat die DSD AG ungewollt selbst dazu beigetragen, dieser Vision näher zu kommen und sich selbst überflüssig zu machen.

Edgar Gärtner

Kasten:

DSD-Monopol im Visier

Das deutsche Bundeskartellamt hat Ende August gegen die DSD AG ein förmliches Verfahren nach § 1 des Gesetzes gegen Wettbewerbsbeschränkungen (GWB) eingeleitet, da die Firma, an der neben den großen Handelsgesellschaften auch die Entsorgungsunternehmen beteiligt sind, die mit dem DSD sogenannte Leistungsverträge abgeschlossen haben, 95 Prozent des Marktes der Entsorgung von Verkaufsverpackungen beherrscht und alternativen Anbietern von Entsorgungsleistungen den Marktzutritt verwehrt. „Sollte das DSD unsere Bedenken nicht ausräumen, wird es ab 2006 in der jetzigen Form nicht mehr weiterexistieren“, erklärte Ulf Böge, der Präsident des Kartellamtes am 23. August in Bonn vor der Presse.

Sein Amt habe bislang im Rahmen seines Ermessensspielraums das Nachfragekartell toleriert, erläuterte Böge. Inzwischen seien aber Entwicklungen eingetreten, die ein Abgehen von dieser Praxis verlangten. Dazu zählten neben den Vorgaben der EU-Kommission (vgl. CR Nr. 10/2001) auch die Ergebnisse einer Durchsuchung der Geschäftsräume mehrer Handelsverbände, die den Verdacht erhärteten, dass diese ihre Mitglieder zum Boykott alternativer Entsorgungsdienstleister wie BellandVision und Interseroh aufgerufen haben.

eg

(erschienen 2002 in: Chemische Rundschau Nr. 17/6. September 2002)

Abkehr vom Kioto-Prozess wird unausweichlich

Auch in der deutschen Industrie gibt es neuerdings gewichtige Stimmen, die den sogenannten Kioto-Prozess als Sackgasse bezeichnen und anregen, sich der US-Position anzuschließen.

Klimapolitik

Abschied von Kioto. Energiepolitik muss wieder Standortpolitik werden

Auch in der deutschen Industrie gibt es neuerdings gewichtige Stimmen, die den sogenannten Kioto-Prozess als Sackgasse bezeichnen und anregen, sich der US-Position anzuschließen.

Der G-8-Gipfel Anfang Juli 2005 in Gleneagles/Schottland hat das Kioto-Protokoll beerdigt. Ein „Kioto-zwei“ oder „Kioto-Plus“ wird es vermutlich nicht geben. Stattdessen werden sich die führenden Industriestaaten der Welt gemeinsam mit ihren neuen Rivalen China und Indien um konzertierte Maßnahmen zur Anpassung an den Klimawandel und eine verstärkte Förderung „sauberer“ Methoden der Energieerzeugung bemühen. Die von den G-8-Staatschefs verabschiedete Erklärung hält fest, dass der weltweite Energiebedarf in den nächsten 25 Jahren um schätzungsweise 60 Prozent steigen wird und 16 Billionen Dollar in die Erschließung verlässlicher und bezahlbarer Energiequellen investiert werden müssen. Windräder können damit kaum gemeint sein. US-Präsident George Bush hat sich auf der ganzen Linie durchgesetzt. Die auf Kioto eingeschworenen deutschen Massenmedien haben erst gar nicht versucht, ihrem verwirrten Publikum diese Nachricht zu verkaufen. Sie haben sie zunächst schlicht tot geschwiegen.

Umso größer war die Überraschung, als die Vereinigten Staaten kurz nach dem G-8-Gipfel in Vientiane/Laos, ganz im Sinne der in Gleneagles verabschiedeten Erklärung, ein Abkommen über ein „Asia-Pacific Partnership on Clean Development and Climate“ zwischen den USA, China, Indien, Japan, Südkorea und Australien vorstellten. Die Mitglieder des neuen Bündnisses repräsentieren immerhin etwa 45 Prozent der Weltbevölkerung, fast die Hälfte der globalen CO2-Emissionen, fast zwei Drittel der Welt-Kohleförderung sowie fast die Hälfte des Erdölverbrauchs und haben somit ein größeres Gewicht als die im Anhang I des Kioto-Protokolls aufgeführten Länder, die sich verpflichtet haben, ihre Emissionen von CO2 und anderen „Treibhausgasen“ bis zum Jahre 2012 um durchschnittlich fünf Prozent unter das Niveau von 1990 zu drücken.

Diesem Abkommen, das ohne jegliche Einbeziehung der Vereinten Nationen und der Europäischen Union ausgehandelt wurde, werden sich wahrscheinlich in nächster Zeit noch weitere asiatische Länder anschließen. Und selbst in Europa gibt es immer mehr Stimmen, die fordern, das verbissene Ringen um ein „Kioto Plus“ aufzugeben und sich dem neuen Pakt anzuschließen. Besonderes Aufsehen erregte eine kurz vor dem G-8-Gipfel vom Wirtschaftsausschuss des britischen Oberhauses veröffentlichte Erklärung, die auf einer Studie fußt, die die Lords bei dem inzwischen emeritierten Londoner Top-Ökonomen David Pearce in Auftrag gegeben hatten. Dort hatte Pearce am Kioto-Ansatz insbesondere die fehlende Abwägung zwischen den Kosten einer Anpassung an den Klimawandel und den Kosten des (vermutlich vergeblichen) Versuchs, diesen aufzuhalten, beanstandet. Die Lords empfahlen dem britischen Premierminister Tony Blair daraufhin, seine verzweifelten Bemühungen, George Bush doch noch zur Ratifizierung des Kioto-Protokolls zu bewegen, aufzugeben und stattdessen mit den Amerikanern ein Abkommen über die Entwicklung sauberer Technologien abzuschließen.

In diesem Sinne äußerte sich Mitte August auch Carsten Kreklau, Mitglied der Hauptgeschäftsführung des Bundesverbandes der Deutschen Industrie (BDI). Die deutsche Politik müsse zur Kenntnis nehmen, „dass absolute Emissionsminderungsverpflichtungen wie im Kioto-Protokoll international nicht durchsetzbar sind“, schreibt Kreklau in einem der Presse zugespielten Namens-Beitrag. „Wenn wir in Deutschland mit höchstem Aufwand und immensen Kosten versuchen, den CO2-Ausstoß weiter zu senken, bringt das für das weltweite Klima fast nichts.“

Schon auf der vage ausgegangenen Weltklima-Konferenz in Neu Delhi vor zwei Jahren war deutlich geworden, dass sich den Anhang-I-Staaten des Kioto-Protokolls keine weiteren Länder anschließen würden. Insbesondere China und Indien konnten im Interesse ihrer boomenden Wirtschaften nicht an einer Einschränkung der energetischen Nutzung ihrer immensen Kohlevorräte interessiert sein und fanden sich damit – ob gewollt oder ungewollt – an der Seite der Kohle-Großmacht USA, die dabei ist, Milliarden in die Entwicklung sauberer Kohletechnologien zu investieren. Dennoch konnte das Kioto-Abkommen zu Beginn dieses Jahres offiziell in Kraft treten, weil sich Russlands Präsident Wladimir Putin in der Hoffnung, der EU gegen Bares mit der buchhalterischen Verwertung der ihm auf der Klimakonferenz von Marrakesch großzügig zugestandenen Kohlenstoff-Senken aus der Klemme zu helfen, im letzten Moment auf die Seite der EU schlug.

In der Tat steuert die europäische „Klimapolitik“ auf eine ernste Glaubwürdigkeitskrise zu. Während führende Politiker Deutschlands und der EU nicht müde werden, US-Präsident George Bush als Saboteur des Kioto-Abkommens anzuprangern und ihn nun sogar für die katastrophalen Folgen des Hurrikans „Katrina“ im Mississippi-Delta verantwortlich machen, zeichnet es sich immer deutlicher ab, dass die EU ihr eigenes (bescheidenes) CO2-Reduktionsziel von 8 Prozent weit verfehlen wird. Nach Angaben der Europäischen Umweltagentur (EEA) in Kopenhagen sind die CO2-Emission der 15 alten EU-Mitgliedsländer zwischen 2001 und 2004 um 3,6 Prozent gestiegen. Auch das Hinzukommen von 10 neuen Mitgliedsstaaten im Osten dürfte an diesem Trend nicht viel ändern. Im günstigsten Fall wird jetzt eine Reduktion von gerade einmal einem Prozent erwartet. Ein mageres Ergebnis, das mit Unsummen erkauft werden müsste, weil kostengünstige Möglichkeiten der CO2-Reduktion schon weitgehend ausgeschöpft sind. Das gilt in besonderem Maße für die chemische Industrie, die überproportional zur Selbstverpflichtung der Industrie und zur deutschen „Vorreiterposition“ in Sachen Energieeffizienz und CO2-Reduktion beigetragen hat. Noch immer gilt die Schätzung des Energieberichtes des damaligen Bundeswirtschaftsministers Werner Müller vom Oktober 2001, wonach die Umsetzung des von der rot-grünen Regierung ins Auge gefassten Zieles einer CO2-Reduktion von 40 Prozent bis zum Jahre 2020 in Deutschland nicht weniger als 256 Milliarden Euro verschlänge.

Dabei stand es außer Frage, dass die in Deutschland in den 90er Jahren erzielten CO2-Einsparungen von über 15 Prozent zum allergrößten Teil auf den Zusammenbruch der sozialistischen Wirtschaft im Osten und ansonsten auf Effizienzsteigerungen bei gleichzeitigem schwachen Wirtschaftswachstum zurückzuführen ist. Insofern sei es nicht verwunderlich, dass Deutschlands selbst gewählte Vorreiterrolle „andere Staaten eher zu einem abwartenden Handeln animiert“ habe, schrieb Dr. Jörg Rothermel, beim deutschen Verband der Chemischen Industrie (VCI) unter anderem zuständig für Klimaschutz und Energiepolitik, in einer Bewertung der rot-grünen Ziele für einen „Klimaschutz nach 2012“. Die EU-Mitgliedsländer, die derzeit ein nennenswertes Wirtschaftswachstum zu verzeichnen haben (wie Spanien, Irland, Dänemark oder Österreich) liegen inzwischen so weit über den von der EU in Kioto eingegangenen Selbstverpflichtung, dass schon jetzt ausgeschlossen werden kann, dass sie bis 2008/2012 noch die Kurve kriegen.

Sollte es wider Erwarten gelingen, auch die wenigen anscheinend Kioto-konformen, weil wirtschaftlich stagnierenden EU-Länder wie Deutschland und Frankreich wieder auf einen Wachstumspfad zu bringen, könnte man die Kioto-Ziele auf jeden Fall vergessen. Der EU, die sich in Sachen „Klimapolitik“ als Lehrmeister der Welt aufspielt, drohen übrigens im Falle des Verfehlens der Kioto-Ziele Strafen. Sie müsste sich dann in einem „Kioto-zwei“-Abkommen zu weitaus drastischeren Reduktionszielen verpflichten und könnte sogar vom weltweiten Emissionshandel ausgeschlossen werden – und damit von vergleichsweise kostengünstigen Clean-Development-Mechanism-Deals wie etwa Aufforstungsmaßnahmen in Entwicklungsländern.

Gerade auf einen Ausbau des internationalen Emissionshandels setzt jedoch Carsten Kreklau vom BDI. Er lässt jedoch im Unklaren, wie das inzwischen in Kraft getretene Europäische Emissionshandels-Schema (ETS), das auf den festen quantitativen Kioto-Verpflichtungen der EU und ihrer Mitgliedsstaaten aufbaut und somit nichts anderes als ein Rationierungssystem darstellt, in einen offenen Markt ohne absolute Emissionsziele überführt werden könnte.

Schon wenige Monate nach dem Start des ETS zeichnet es sich ab, dass es die EU in eine Sackgasse führen wird. Lag der an der Leipziger Strombörse EEX gehandelte Zertifikat-Preis für eine Tonne CO2 zu Beginn dieses Jahres noch unter sieben Euro, so ereichte er im Sommer kurzfristig schon 29 Euro und pendelte dann um 20 Euro, das heißt etwa auf dem doppelten des ursprünglich von der EU-Kommission für die erste Handelsperiode geschätzten Niveaus. Dadurch wird offenbar, dass dieser Preis nicht einfach vom Verhältnis zwischen Angebot und Nachfrage bestimmt wird, sondern von den Kosten des Umstiegs von Kohle auf Gas bei der Elektrizitätserzeugung. Darauf wies Seb Walhain von der Fortis-Bank (nach einer Meldung von Reuters) schon im Juni hin.

Wäre Erdgas, wie noch vor einem Jahrzehnt, relativ billig, wäre es für die Stromkonzerne ein Leichtes, den Kioto-Verpflichtungen nachzukommen, da Gaskraftwerke je Kilowattstunde nur höchstens halb so viel CO2 ausstoßen. Doch inzwischen ist der Gaspreis wegen der großen Nachfrage so weit gestiegen, dass Kohlekraftwerke selbst bei Berücksichtigung ihres zusätzlichen Bedarfs an CO2-Zertifikaten wieder billigeren Strom produzieren. Der bereits einmal erreichte Zertifikatpreis von 29 Euro liegt nach Ansicht von Analysten in der Nähe des Niveaus, oberhalb dessen sich ein Umstieg von Kohle auf Gas lohnt. Täten das aber viele Kraftwerksbetreiber gleichzeitig, würde der Gaspreis aufgrund der großen Nachfrage rasch so stark ansteigen, dass sich wieder ein Vorteil für Kohle ergäbe.

Also müssen sich die deutschen Stromkonzerne mit zusätzlichen Zertifikaten eindecken und auch die Zertifikate, die ihnen beim Start des ETS gratis zugeteilt wurden, entsprechend den steigenden Marktpreisen in ihren Kalkulationen berücksichtigen. Nach einer Schätzung des schweizerischen Finanzkonzerns UBS (zitiert im Wall Street Journal vom 10. August) ist die Einpreisung von CO2-Zertifikaten in Deutschland für einen 15-prozentigen Anstieg der Strompreise seit dem Start des ETS verantwortlich. Und das ist vermutlich erst der Anfang. Die Financial Times hat schon am 23. Mai dieses Jahres vor einem baldigen Anstieg des CO2-Zertifikat-Preises auf 40 Euro gewarnt. Denn wenn es sich herumspricht, dass die EU ihr bescheidenes CO2-Ziel weit verfehlen wird, kann der Markt nur in diesem Sinne reagieren. Einen Ausweg böte eine stärkere Nutzung von Atomenergie bzw. die Aufkündigung des deutschen „Atomausstiegs-Konsenses“, der jetzt im deutschen Bundestagswahlkampf von den Kandidaten der Opposition angeboten wurde.

Ende August hat es die Frankfurter Allgemeine Sonntagszeitung endlich gewagt, ihren Lesern reinen Wein über die Zukunftsperspektiven des Kioto-Prozesses einzuschenken, indem sie einen Text von Lord Dick Taverne übersetzte, in dem dieser unter der Überschrift „Vergesst Kioto!“ die Gründe für die zitierte Initiative des britischen Oberhauses anlässlich des G-8-Gipfels darlegt. Lord Taverne kommt darin zu dem vernichtenden Urteil: „Der Kioto-Prozess ist eine bemerkenswerte Übung darin, sich und der Welt etwas vorzumachen. Stufe 1 wird keinen messbaren Effekt auf die Klimaentwicklung haben. Weder Amerika noch Indien oder China…haben vor, sich an den Stufen 1 oder 2 zu beteiligen. Man muss kein Wirtschaftsnobelpreisträger sein, um einzusehen, warum das Kioto-Protokoll in der Liste der Programme zur Lösung globaler Krisen ganz nach unten rutschen sollte.“

Angesichts dieser Entwicklung haben die Verbände sämtlicher energieintensiver deutscher Industriezweige (darunter an führender Stelle der VCI), die mit einem Bedarf von 100 Terawattstunden Strom und 200 TWh Gas etwa ein Viertel der gesamten deutschen Energienachfrage auf sich vereinigen, Anfang September in einer gemeinsamen Erklärung einen „Richtungswechsel in der deutschen und europäischen Klimapolitik“ gefordert. Deutschland und die EU müssten ihre Alleingänge aufgeben und nach einem internationalen Abkommen streben, das die USA, China und Indien einschließt. Konkret plädieren die Verbände für eine Verlängerung der Restlaufzeit deutscher Atomkraftwerke und für transparente, kostensenkende Wettbewerbsbedingungen auf dem Strommarkt. Des weiteren regen sie eine deutliche Absenkung der Förderung „erneuerbarer“ Energien und eine weitergehende Entlastung energieintensiver industrieller Prozesse wie Elektrolysen, mineralogische und metallurgische Verfahren von der Ökosteuer entsprechend der EU-Energiesteuerrichtlinie an. „Energiepolitik muss wieder Standortpolitik werden!“, fordern die Industrieverbände von der aus den Wahlen vom 18. September hervorgehenden neuen deutschen Bundesregierung.

Edgar Gärtner

Kasten:

Die Musik spielt im Ozean

Selbst wenn es gelänge, alle menschengemachten Emissionen von „Treibhausgasen“ sofort zu stoppen, würde die globale Erwärmung – so sie denn real ist – mindestens noch ein halbes Jahrhundert lang ungebremst fortschreiten. Zu dieser Schlussfolgerung kamen im letzten halben Jahr unabhängig voneinander mehrere im Magazin Science veröffentlichte Aufsätze der führenden US-Klimaforscher Gerald Meehl, Tom Wigley und James Hansen. Der Grund dafür ist die große thermische Trägheit der Ozeane, die 71 Prozent der Erdkugel bedecken. Schon eine lediglich 10 Zentimeter dicke Schicht Meerwasser speichert mehr Wärme, als der atmosphärische Treibhauseffekt, entsprechend den „offiziellen“ Klimamodellen, überhaupt produzieren könnte. Deshalb hat der kalifornische Ozean-Physiker Tim Barnett schon vor einiger Zeit darauf hingewiesen, dass die Atmosphäre der am wenigstens geeignete Ort ist, um nach einem Signal der globalen Erwärmung zu suchen. Die Musik spielt im Ozean.

Dieser scheint nach den oben zitierten Forschern in den letzten jahrzehnten tatsächlich wärmer zu werden. Der Streit dreht sich nun um die Frage, woher die zusätzliche Wärme stammt. James Hansen ist sich sicher, dass der menschengemachte zusätzliche Treibhauseffekt dahinter steckt. Doch sein NASA-Kollege Bruce Wielicki glaubt in einer im Mai dieses Jahres ebenfalls in Science veröffentlichten Studie über Veränderungen des asiatischen Monsun nachgewiesen zu haben, dass die in den letzten Jahrzehnten deutlich gestiegene Kraft der Sonne entscheidend war.

Wie dem auch sei, es ist völlig klar, dass das die Umsetzung des Kioto-Protokolls und selbst eines „Kioto 2“ außer einer wirtschaftlichen Verarmung nichts bewirken würde. Der Analyst Charles Dumas vom Londoner Lombard Street Research hat vor kurzem auf der Basis der Arbeiten über die thermische Trägheit der Ozeane vorgerechnet, die Industrieländer müssten mindestens die Hälfte ihres Bruttosozialproduktes opfern, um mit Klimapolitik etwas bewirken zu können. Kein Wunder, dass unterschiedliche Hypothesen über die Ursachen des Klimawandels in der Auseinandersetzung um die Zukunft des Kioto-Protokolls kaum noch eine Rolle spielen. Den Menschen bleibt gar nichts anderes übrig, als sich an den Klimawandel anzupassen, zumal dieser neben den oft als Argument für „Kioto“ ins Feld geführten negativen auch angenehme Seiten haben kann. eg

(veröffentlicht in: Chemische Rundschau (VS/H-Medien, CH-Soluthurn) Nr. 9/2005 v. 20.9.2005)

Klimaforschung und Politik

Verhielt sich die Industrie nicht kurzsichtig, als sie sich den Warnungen vor einer drohenden „Klimakastrophe“ unhinterfragt anschloss?

Die „Klimapolitik“ (wir setzen diesen Ausdruck bewusst in Anführungszeichen!) begann nicht erst mit der Verabschiedung des „Rahmenübereinkommens der Vereinten Nationen über Klimaänderungen“ (Klimakonvention) auf der VN-Konferenz über Umwelt und Entwicklung (UNCED) vor zehn Jahren in Rio de Janeiro und dem darin festgelegten Ziel einer „Stabilisierung der Treibhausgaskonzentrationen in der Atmosphäre auf einem Niveau…, auf dem eine gefährliche anthropogene Störung des Klimasystems verhindert wird.“ Vielmehr besiegelten die auf dem „Erd-Gipfel“ von Rio von über 170 Regierungsdelegationen angenommenen Erklärungen und Aktionsprogramme einen Prozess der Neubestimmung des Verhältnisses von Politik und Wissenschaft, deren Wurzeln bis zum Ende der 60er Jahre des vergangenen Jahrhunderts, das heißt bis in die Zeit des Kalten Krieges zwischen dem individualistisch-marktwirtschaftlich orientierten Westen und dem kollektivistischen Ostblock zurückreichen. Die damals im Rahmen des atlantischen Militärbündnisses NATO beschlossene „Nutzbarmachung wissenschaftlicher Erkenntnisse bei der politischen Entscheidungsbildung“, bei der die Bundesrepublik Deutschland die Rolle des „Musterlandes“ spielte, bestätigt die alte Erkenntnis, dass verfeindete Lager einander ähnlicher werden, wenn sie ihre Kräfte messen.

Anfang April 1969 hob der damalige US-Präsident Richard Nixon anlässlich des 20. Jahrestages der Unterzeichnung des Nordatlantikvertrages die sogenannte „Dritte Dimension“ der NATO aus der Taufe, und zwar mit der Begründung, dass „das westliche Bündnis“ (neben der militärischen und politischen) „eine soziale Dimension benötigt, um sich mit unseren Besorgnissen über die Qualität des menschlichen Lebens im letzten Drittel dieses Jahrhunderts zu befassen.“ Nixon verstand die „Dritte Dimension“ der NATO als Antwort auf die Infragestellung des westlichen Nachkriegs-Wirtschaftswunder-Konsenses durch die Studentenbewegung von 1968 und die wachsende Opposition gegen den Vietnam-Krieg und dessen soziale Folgen. Diese Protestbewegung erscheint im Rückblick als eine Art Betriebsunfall des Kalten Krieges.

Noch im Dezember 1969 trat das NATO Committee on Challenges of Modern Society (CCMS) zu seiner konstituierenden Sitzung zusammen. 1971 veröffentlichte das NATO-Hauptquartier in Brüssel die programmatische Schrift „Das Atlantische Bündnis und die Umweltkrise“. Dort wurde der seit 1958 auf dem erloschenen Vulkan Mauna Loa auf Hawai gemessene kontinuierliche Anstieg des CO2-Gehaltes der Atmosphäre erstmals zum vordringlichen Umweltproblem erklärt – und zwar zu einer Zeit, als die Geowissenschaftler noch nahezu einhellig den nahenden Beginn einer neuen Eiszeit fürchteten. Es heißt dort: „Die Atemluft des Menschen wird durch etwa 12 Milliarden Tonnen Kohlendioxyd verseucht, die jedes Jahr von unserer Industriegesellschaft freigesetzt werden. Etwa die Hälfte dieser Menge bleibt permanent in der Luft. Es ist damit zu rechnen, dass der Kohlendioxydgehalt der Luft sich bis zum Jahre 2000 um 25 Prozent erhöht haben wird. (…) Die genauen Auswirkungen sind noch ungewiss, jedoch erscheint eine Verschiebung der durchschnittlichen Temperatur der Erde um mehrere Grad durchaus vorstellbar.“

Offenbar bezieht sich die Broschüre dabei auf den Bonner Geophysiker Hermann Flohn, der als Mitglied des NATO-Wissenschaftsausschusses eine 1896 vom schwedischen Chemiker Svante Arrhenius als Erklärung für die Entstehung der Eiszeiten aufgestellte Hypothese neu in die Diskussion gebracht hatte. Arrhenius vermutete, die Durchschnittstemperatur der Erde hänge in erster Linie von der CO2-Konzentration einer „Strahlungsschicht“ in sechs Kilometern Höhe ab, die durch „Gegenstrahlung“ reflektierter Sonnenenergie dafür sorge, dass die mittlere Temperatur der Erdoberfläche nicht der eines „schwarzen Strahlers“ (nach Stefan-Boltzmann) von minus 18 Grad entspricht, sondern plus 15 Grad Celsius beträgt. Verdoppele sich die CO2-Konzentration, steige der durchschnittliche Temperatur um 4 bis 6 °C. Sinke hingegen die CO2-Konzentration, komme es zur Abkühlung der Erdoberfläche und letztlich zu einer Eiszeit. Mit dieser Hypothese konnte Arrhenius um die vorletzte Jahrhundertwende niemanden überzeugen, weil sie nicht erklären konnte, wie eine einmal eingetretene Eiszeit zu einem Ende kommen konnte. Den Nobelpreis für Chemie bekam er 1903 für ganz andere Leistungen. Gegen Ende der 30er Jahre des 20. Jahrhunderts grub dann der englische Ingenieur Gay Stewart Callendar die zwischenzeitlich völlig in Vergessenheit geratene Hypothese wieder aus und versuchte mit einigem Erfolg, ihr mit dem Hinweis auf Arrhenius’ Nobelpreis Autorität zu verleihen. Über Callendar gelangte die Treibhaus-Hypothese noch in den 40er Jahren an Hermann Flohn.

Kasten

Auch wenn sie über das abstruse Postulat einer „Strahlungsschicht“ nur den Kopf schütteln können, akzeptieren viele mit Klimafragen befassten Naturwissenschaftler bis heute Arrhenius’ Herleitung des „natürlichen Treibhauseffektes“ von 33 °C, weil sich bis in die jüngste Zeit offenbar niemand die Mühe machte, seine Originalarbeit zu lesen. Das taten aber der Mainzer Meteorologe Wolfgang Thüne sowie der Braunschweiger Physiker Prof. Gerhard Gerlich und stellten dabei fest, dass Arrhenius grobe Rechenfehler unterlaufen sind. Akzeptiere man dessen Prämissen, so Thüne, gelange man nicht zu einer „Strahlungsgleichgewichtstemperatur“ von –18 °C. Thüne bestreitet allerdings, dass man die Erde überhaupt nach Stefan Boltzmann als punktförmigen schwarzen Körper in einer ebenfalls schwarzen Hohlkugel, mit der er im „Strahlungsgleichgewicht“ steht, betrachten kann, denn dann müssten Erde und Sonne die gleiche Temperatur haben.

Die Temperaturunterschiede zwischen der Erde und ihrem Trabanten, dem Mond, sind nach Thüne nicht in erster Linie die Folge des Gehaltes der irdischen Atmosphäre an Wasserdampf und anderen „Treibhausgasen“, sondern des viel rascheren Wechsels von Tag und Nacht (der Mond braucht für eine Umdrehung 772, die Erde hingegen nur 24 Stunden) sowie des Besitzes großer Wassermassen, die 71 Prozent ihrer Oberfläche bedecken. Das Wasser speichert große Mengen der eingestrahlten Sonnenwärme, und die Kürze der Nächte in den polfernen Regionen der Erde verhindert deren Auskühlung über das offene „atmosphärische Fenster“ zwischen 8 und 13,5 Mikrometer Wellenlänge, in der keines der in der Atmosphäre enthaltenen „Treibhausgase“ Infrarotstrahlen absorbiert. Wären auf der Erde die Nächte länger und fehlte Wasser, wäre es hier so kalt oder so warm wie auf dem Mond, vermutet Thüne. eg

Literatur: Wolfgang Thüne: Freispruch für CO2. Wie ein Molekül die Phantasien von Experten gleichschaltet. edition steinherz, Wiesbaden 2002, ISBN 3-9807378-1-0

Der transatlantischen Zusammenarbeit im Rahmen der „Dritten Dimension“ der NATO ist es im wesentlichen zuzuschreiben, dass zu Beginn der 70er Jahre des 20. Jahrhunderts in allen westlichen Industrieländern gleichzeitig in größter Eile Umweltschutz-Programme nach dem Muster des am 1. Januar 1970 von der Nixon-Regierung verkündeten „National Environment Policy Act“ verabschiedet wurden.

Es ging dabei im Grunde darum, das systemkritische Potential der Studentenrevolte dadurch zu entschärfen, dass man es auf die Schiene umwelt- bzw. soziotechnischer Verbesserungen der „Lebensqualität“ in den Industrieländern lenkte. Aus diesem Grunde wurde Umweltpolitik überall nicht parteipolitisch, sondern überparteilich „systemanalytisch“ begründet. Diesen Zweck erfüllte am besten die vom Club of Rome 1972 veröffentlichte Computersimulationsstudie „Die Grenzen des Wachstums“. Gleichzeitig hofften die NATO-Strategen, den Kalten Krieg durch die Politik des „Brückenschlages“ zum Ostblock auf ein für den Westen günstigeres Terrain verlagern zu können. Das heutige Verständnis von globaler Ökologie ist somit ein Kind des Kalten Krieges.

Dabei spielte die Angst vor einer drohenden Überhitzung unseres Planeten infolge eines menschengemachten „zusätzlichen Treibhauseffektes“ zunächst nur eine untergeordnete Rolle. Zwar schienen Dürren und Ernteausfälle in den USA die Warnungen vor einer Überhitzung der Erde zu bestätigen. Bis weit in die 70er Jahre des 20. Jahrhunderts blieb jedoch unter den Gelehrten die Furcht vor einer neuen Eiszeit vorherrschend, obwohl sich einzelne Forscher wie etwa der US-Klimahistoriker Stephen Schneider zum „Treibhaus“-Glauben bekehrten.

Das änderte sich erst in der zweiten Hälfte der 80er Jahre. Ende Januar 1986 stellte der Arbeitskreis Energie (AKE) der Deutschen Physikalischen Gesellschaft (DPG) der Presse in Bonn ein Papier mit dem Titel „Warnung vor einer drohenden Klimakatastrophe“ vor. Darin malt die von den Physikprofessoren Fricke (Würzburg) und Heinloth (Bonn) angeführte Gruppe in düstersten Farben die Überschwemmung dicht besiedelter Küstenregionen infolge des Abschmelzens polaren Eises durch eine erwartete Temperaturerhöhung von bis zu 8°C aus. (Das Wochenmagazin der „Der Spiegel“ berichtete darüber unter dem Titel „Tod im Treibhaus“.) Mit dieser für einen wissenschaftlichen Verein ungewöhnlichen Dramatisierung dachten die Physiker der Atomindustrie einen Gefallen zu tun. So ging die „skeptische Phase“ des politischen Klima-Diskurses zu Ende, die der Bielefelder Wissenschaftssoziologe Prof. Peter Weingart zwischen 1975 und 1985 ansetzt.

Es folgte die Phase des „Katastrophismus“, die bis zum „Erd-Gipfel“ von Rio reichte. Massenmedien, allen voran „Der Spiegel“ vom 11. August 1986 mit dem halb in den Nordseefluten versunkenen Kölner Dom auf dem Cover, griffen die Warnungen der Physiker auf und machten daraus eingängige Stories, die bewusst an der verbreiteten Urangst vor der Sintflut als Strafe Gottes anknüpften. Im Herbst 1987 setzte der deutsche Bundestag die Enquête-Kommission „Vorsorge zum Schutz der Erdatmosphäre“ ein. Diese hielt eine Reduktion der CO2-Emissionen um 30 Prozent für machbar. Im Jahre 1990 gab dann die deutsche Bundesregierung unter Helmut Kohl ihre vielzitierte einseitige Selbstverpflichtung zu einer 25-prozentigen CO2-Reduktion bis 2005 bekannt. Zu dieser Zeit sprachen alle im Bundestag vertretenen Parteien nur noch von der nahenden „Klimakatastrophe“. Der im angelsächsischen Sprachraum etablierte Terminus „climate change“ erschien ihnen als Verharmlosung.

Auch in den USA kam es zu einer gewissen Dramatisierung des Klima-Diskurses, als James Hansen, Direktor des NASA Goddard Institute for Space Studies, vor einem Ausschuss des Senats erklärte, es sei zu 99 Prozent sicher, „dass der Treibhauseffekt nachgewiesen und unser Klima bereits verändert ist.“ Hansens Aussage gab mit den Ausschlag für die Gründung des internationalen Klima-Schiedsgerichts IPCC durch die World Meteorological Organization (WMO) und das UN Umweltprogramm (UNEP).

So schien es dem US-Senator und Präsidentschaftsanwärter Al Gore naheliegend, in seinem pünktlich zum Rio-Gipfel erschienen Bestseller „Earth in Balance“ zu fordern, die drohende Klimakatastrophe nach dem Zusammenbruch des Ostblocks zum Ersatz-Feindbild des Westens zu machen. Die Rhetorik von der „einen Welt“, deren Ressourcen (einschließlich des Konstrukts „Weltklima“) rationell verwaltet werden sollten, beherrschte denn auch den „Erd-Gipfel“. Niemand fragte, ob es – angesichts der Geburt der Global-Ökologie aus dem Kalten Krieg – überhaupt noch angebracht war, die Einheit der Welt zu beschwören, sobald deren Zweiteilung in Ost und West überwunden war. Das taten erst ein Jahrzehnt danach die Berater des neuen US-Präsidenten George W. Bush.

Dennoch markiert die Rio-Konferenz das Ende des „Katastrophismus“. Aus der Herkules-Aufgabe „Abwendung der nahenden Apokalypse“ wurde eine Routineaufgabe der politischen Regulierung, die, entsprechend dem „Drei-Säulen-Modell“ der Nachhaltigkeit, mit anderen wirtschaftlichen und sozialen Aufgaben wetteifern musste. Nun wurden notgedrungen sehr viel kleinere Brötchen gebacken. Schon die 2. Konferenz der Unterzeichnerstaaten der Klimarahmenkonvention, die im März 1995 in Berlin stattfand, löste ein deutlich geringeres Medienecho aus.

Der „Katastrophen-Konsens“, zu dem es bei den Naturwissenschaftlern ohnehin nur scheinbar gekommen war, weil ihre Mehrheit schwieg, begann nun auch in den Medien zu bröckeln. Der Führung des IPCC gelang es nur mithilfe von Manipulationen, in das „Summary for Policymakers“ des für die Kyoto-Konferenz Ende 1997 ausschlaggebenden 2. IPCC-Berichts (John T. Houghton et al.: Climate Change 1995, Cambridge University Press 1996) die Aussage zu bringen: “In the light of new evidence and taking into account the remaining uncertainties, most of the observed warming over the last 50 years is likely to have been due to the increase in greenhouse gas concentrations.” Doch im Innern des dicken Berichts steht im Gegenteil, keine der zitierten Studien habe die beobachtete Erwärmung auf den Einfluss von „Treibhausgasen“ zurückführen können. In der Tat häuften sich in den 90er Jahren Arbeiten, die den Einfluss der „Treibhausgase“ erheblich geringer ansetzten als den der Solarzyklen und anderer natürlicher Klimaschwankungen. Außerdem konnten präzisere Satelliten-Messungen den in den letzten Jahrzehnten von etwa 1300 ungleich verteilten terrestrischen Mess-Stationen im Mittel registrierten leichten Temperaturanstieg nicht bestätigen. Kurz vor der Kyoto-Konferenz im Dezember 1997 brachte sogar „Der Spiegel“ einen Artikel mit dem Titel: „Der Weltuntergang fällt aus.“

Hätten sich Diplomaten und Wissenschaftler in Kyoto nicht noch im letzten Moment in einer ermüdenden Nachtsitzung auf einen mageren Kompromiss einer globalen CO2-Reduktion von 5,2 Prozent bis 2010 geeinigt, wäre es um die „Klimapolitik“ wohl endgültig geschehen gewesen. Das zeigt der Ausgang der Kyoto-Folgekonferenzen in Den Haag, Bonn und Marrakesch, in denen das CO2-Reduktionsziel durch die mehr als großzügige Anerkennung hypothetischer „Kohlenstoff-Senken“ noch weiter nach unten korrigiert wurde. Die Beschlüsse von Kyoto und Marrakesch – da sind sich alle Experten einig – werden keinen messbaren Einfluss auf die Temperaturkurve der Erde haben. Trotzdem hatten die „Klimaschützer“ in Politik, Wissenschaft und Wirtschaft allen Grund zum Jubeln. Denn die Beschlüsse von Marrakesch machen den Weg frei für das Milliardengeschäft des Emissionshandels. Verdienen dürfte daran hauptsächlich die Groß-Finanz, während die Industrie und ihre Beschäftigten die Zeche zahlen müssen.

Nach Ansicht des Wissenschaftssoziologen Peter Weingart verdeutlicht die Geschichte der „Klimapolitik“ die Grenzen und Risiken des naiv-rationalistischen Modells wissenschaftlicher Politikberatung. Das größte Risiko ist offenbar das der Verselbständigung scheinbar naturwissenschaftlich begründeter politischer „issues“. In einem Empfehlungspapier zur „Verbesserung der Kommunikation zwischen Wissenschaft, Politik und Medien, insbesondere im Hinblick auf die Wahrnehmung der Klimaforschung“, an dem Weingart maßgeblich mitgearbeitet hat, erklärt der Sachverständigenkreis des deutschen Bundesministeriums für Bildung und Forschung (BMBF) für Globale Umweltaspekte unter Vorsitz des Essener Physikochemikers Prof. Reinhard Zellner, „herkömmliche rationalistische Vorstellungen vom Primat wissenschaftlichen Wissens“ seien überholt. „Die Nachfrage der Politik nach gesichertem Wissen“, schreiben die Sachverständigen, „zwingt die Wissenschaft zu Aussagen, die immer stärker durch Nichtwissen gekennzeichnet sind. Die von der Sicherheit wissenschaftlicher Aussagen erwartete Legitimierung politischer Entscheidungen schlägt in ihr Gegenteil um.“ Dem ist nichts hinzuzufügen.

Edgar Gärtner

Zeittafel

1971: Die NATO erklärt die drohende Erwärmung der Erdatmosphäre infolge der steigenden CO2-Konzentration zum vordringlichen Umweltproblem.

1975: Die American Association for the Avancement of Science (AAAS) schließt sich auf ihrer Jahreskonferenz erstmals den Warnungen vor einer globalen Erwärmung an.

1986: Der Arbeitskreis Energie (AKE) der Deutschen Physikalischen Gesellschaft (DPG) erringt mit ihrer „Warnung vor einer drohenden Klimakatastrophe“ die Aufmerksamkeit der Massenmedien.

1987: Die Deutsche Meteorologische Gesellschaft (DMG) schließt sich der Warnung des AKE an, ersetzt aber das Schlagwort „Klimakatastrophe“ durch den sachlicheren Terminus „Klimaänderungen“.

1988: James Hansen, der Direktor des New Yorker Goddard Institute for Space Studies der NASA, erklärt vor einem Ausschuss des US-Senats, mit „99-prozentiger Sicherheit“ sei nachgewiesen, dass der „menschengemachte Treibhauseffekt unser Klima bereits verändert.“ Darauf hin gründen die World Meteorological Organization (WMO) und das UN-Umweltprogramm (UNEP) das International Panel on Climate Change (IPCC).

1991: Die dänischen Physiker Friis-Christensen und Lassen weisen in „Science“ auf auffällige Parallelen zwischen dem Sonnefleckenzyklus und der Entwicklung der mittleren Temperatur über den Landmassen der Erde hin.

1992: Die UN-Konferenz über Umwelt und Entwicklung (UNCED) in Rio de Janeiro verabschiedet das „Rahmenübereinkommen der Vereinten Nationen über Klimaänderungen“ (Klimakonvention).

1995: Auf der 2. Vertragsstaatenkonferenz der Klimakonvention in Berlin profiliert sich Deutschland erneut als Vorreiter des „Klimaschutzes“. International bindende Beschlüsse kommen nicht zustande.

1996: Der IPCC veröffentlicht seinen 2. Bericht. In seinen politischen Empfehlungen steht der vielzitierte Satz: „The balance of evidence suggests a discernible human influence on globale climate.“

1997: Die 3. Vertragsstaatenkonferenz der Klimakonvention in Kyoto einigt sch in letzter Minute auf bescheidene völkerrechtlich verbindliche Vorgaben für die Verminderung des Ausstoßes von CO2 und fünf weiterer „Treibhausgase“.

1999: Ein Statusreport führender Klimaforscher, angeführt von den Professoren Tim Barnett und Klaus Hasselmann, kommt zum Schluss, das „anthropogene Signal“ in der Klimaentwicklung sei nicht auszumachen.

2000: James Hansen widerruft seine Aussage von 1988. Eine Gruppe deutscher Geowissenschaftler unter Ulrich Berner und Hansjörg Streif veröffentlicht die Synthese „Klimafakten“, aus der hervorgeht, dass der Einfluss des CO2 auf die mittlere Temperatur der Erde um zwei Größenordnungen geringer ist als der der Sonnenzyklen. Die 6. Klimakonferenz in Den Haag wird im November ohne Ergebnis abgebrochen.

2001: Der neue US-Präsident George W. Bush kündigt in einem Brief vom 13. März an die Senatoren Craig, Hagel, Helms und Roberts den Ausstieg der USA aus dem „Kyoto-Prozess“ an. Durch die Erhöhung seiner Treibhaus-Erwärmungs-Hochrechnung auf bis zu 5,8 °C bis zum Ende des Jahrhunderts versucht der IPCC in seinem 3. Bericht die Kyoto-Beschlüsse zu retten.. Die Klimakonferenz von Den Haag wird im Juli in Bonn fortgesetzt. Zu einer Einigung kommt es schließlich erst im November in Marrakesch. Schon vor dem „Klima-Gipfel“ von Marrakesch schlägt die EU-Kommission ein rationierendes System der „Luftbewirtschaftung“ mithilfe handelbarer „Treibhausgasemissionsberechtigungen“ vor.

(erschienen Ende 2002 in „Chemische Rundschau“, CH-Solothurn)