Vom Geist der Freiheit

Hochmut kommt vor dem Fall. Ist es deshalb so abwegig, einen Zusammenhang zwischen dem schrecklichen Erdbeben in Haiti mit Hunderttausenden von Toten und dem geistigen Hintergrund der sozialrevolutionären Ursprünge der Insel-Republik zu vermuten? Immerhin gingen Haitis „schwarze Jakobiner“ im Jahre 1791 in einer Voodoo-Zeremonie einen Pakt mit dem Teufel ein, um die Befreiung von der französischen Kolonialherrschaft zu erlangen.

Freiheit: Auf den Geist kommt es an

Warum Materialismus und Christophobie in die Knechtschaft führen

Nach der Veröffentlichung meines Blogs über die spirituellen Hintergründe des Haiti-Desasters (auf dieser Unterseite weiter unten) an dieser Stelle bin ich von einem Teil der libertären Szene in Deutschland buchstäblich exkommuniziert worden. Es fehlte nur noch die Steinigung. Ich übergehe hier anstandshalber die wohl willentlichen Missverständnisse und die mir gegenüber vorgebrachten absurden Unterstellungen, die im Vorwurf der Scheinheiligkeit gipfeln. Worüber ich mich wundere, wenn nicht ärgere, ist die den meisten Kritiken zugrunde liegende materialistische Weltsicht und die zum Teil offen zutage tretende Christophobie.

Um deutlicher zu werden: Die kontrastierende Geschichte der beiden Teile der Karibik-Insel Hispaniola zeigt meines Erachtens alles in allem, dass es bei der Entwicklung der Wirtschaft und der Entfaltung menschlicher Freiheit weniger auf natürliche als auf geistig-religiöse Voraussetzungen ankommt. „Wo der Geist des Herrn wirkt, da ist Freiheit“, heißt es im zweiten Brief des Apostels Paulus an die Korinther. Wer abstreitet, dass unser abendländischer Humanismus und dessen Freiheitsbegriff nicht nur auf Sokrates, sondern auch auf Jesus von Nazareth und die spätantiken beziehungsweise mittelalterlichen Kirchenlehrer zurückgeht, sieht das freilich ganz anders. Für materialistisch, wenn nicht antichristlich ausgerichtete Libertäre ist der Kolonialismus eine Folge der Verbindung von christlichem Missionseifer mit materieller Gier und nicht Ausdruck der Abkehr Getaufter von der biblischen Botschaft.

Deshalb treffen sich Atheisten bei der Analyse der Hintergründe natürlicher und gesellschaftlicher Kataklysmen auch letzten Endes mit den Marxisten. Schon Fjodor Dostojewskij erkannte in der „Legende vom Großinquisitor“, dass die logische Konsequenz des Atheismus nicht die individuelle Freiheit, sondern die Verabsolutierung der Gleichheitsidee im Sozialismus beziehungsweise Kommunismus ist. Uneingestandenes Ziel des Sozialismus wiederum sei das Nichts, der Tod der Menschheit. Das hat der hoch dekorierte russische Mathematiker Igor Schafarewitsch schon in den siebziger Jahren des vergangenen Jahrhunderts in einem auch im Westen erschienenen bemerkenswerten historischen Überblick unter dem deutschen Titel „Der Todestrieb in der Geschichte“ herausgearbeitet. Schafarewitsch, den ich selbst, angeregt von den Kollegen Fink und Lichtschlag, leider erst Ende 2009 rezipiert habe, bestätigt meine Einschätzung, dass auch der Liberalismus zu einer Form von Nihilismus werden kann, wenn er sich gegen das christliche Gottes- und Menschenbild stellt. ((9. Februar 2010)

Internet

Der Sozialismus: so alt wie die Menschheit

Igor R. Schafarewitsch: Der Todestrieb in der Geschichte. Erscheinungsformen des Sozialismus. Ullstein Verlag, Berlin-Wien 1980

Liberalismus: Eros der Freiheit ohne Gott?

====================================================================================

Haiti: Der Fluch der Blasphemie

Warum US-Fernsehprediger Pat Robertson nicht ganz falsch liegt

Der inzwischen 79-jährige evangelikale Star-Prediger Pat Robertson löste Wellen gutmenschlicher Entrüstung aus, als er das schreckliche Erdbeben auf Haiti am 13. Januar im TV-Sender Christian Broadcasting Network (CBN) auf einen Pakt mit dem Teufel zurückführte, den die aufständischen Negersklaven der einst als „Perle der Karibik“ bekannten Insel im Jahre 1791 im Rahmen einer Voodoo-Zeremonie geschlossen hatten, um die Befreiung von der französischen Kolonialherrschaft zu erlangen. Zweifelsohne eine Provokation für alle Kulturrelativisten, die vielleicht gerade noch die Existenz eines fernen Gottes zugeben, jedoch die Existenz seines Gegenspielers Satan leugnen müssen. Aber ist es tatsächlich so abwegig, einen Zusammenhang zwischen dem aktuellen Desaster mit Hunderttausenden von Toten und dem geistigen Hintergrund der sozialrevolutionären Ursprünge der Republik Haiti zu postulieren?

Viele Touristen werden sich schon darüber gewundert haben, dass die westindische Insel Hispaniola, auf der Christoph Kolumbus und seine Seeleute 1492 erstmals amerikanischen Boden betraten, vom Flugzeug aus auffällig zweigeteilt erscheint. Der etwas größere östliche Teil, die spanisch sprechende Dominikanische Republik, ist satt grün, während der von der französisch sprechenden Republik Haiti eingenommene westliche Teil beinahe so kahl ist wie der Mond. Die Dominikaner leben mehr oder weniger einträglich vom Tourismus, während die Haitianer heute, trotz mehr als großzügiger „Entwicklungshilfe“ der US-Amerikaner in den vergangenen Jahrzehnten, zum allergrößten Teil bettelarm sind. Dieser Kontrast hat offenbar keine natürlichen Ursachen.

Nachdem die wenigen Ureinwohner ausgerottet und die Insel unter französische Herrschaft gelangt war, blühte dort über hundert Jahre lang der Zuckerrohranbau, der mithilfe aus Afrika importierter Sklavenheere betrieben wurde. Haiti wurde zu Frankreichs ertragreichster Kolonie. Als aber im französischen „Mutterland“ die Revolution ausbrach und Robespierre und seine Anhänger die Oberhand bekamen, konnte es nicht ausbleiben, dass einzelne Schwarze, die aufgrund besonderer Umstände eine bessere Bildung genossen hatten, von der in der Metropole herrschenden Gleichheits-Idee angesteckt wurden. Zu ihnen gehörte der als „schwarzer Jakobiner“ bekanntgewordene Toussaint Louverture, der Sohn eines in Benin geborenen freigelassenen Haussklaven. Er wurde zum Führer der weltweit einzigen (vorübergehend) erfolgreichen Sklavenerhebung, erlebte aber nicht mehr deren Sieg über das von Napoleon gesandte Expeditionskorps und die Unabhängigkeitserklärung Haitis im Jahre 1804 unter seinem Genossen und Rivalen, dem „schwarzen Kaiser“ Jean-Jacques Dessalines.

Das heutige, nicht erst durch das aktuelle Erdbeben ausgelöste gesellschaftliche und politische Desaster Haitis nahm seinen Lauf mit der nach der Revolution eingeleiteten egalitären Landreform. Die Besitzer der Zuckerplantagen wurden enteignet. Jede Bauernfamilie erhielt zunächst 15 Hektar Ackerland. Da die meisten Familien sich auf die Befriedigung ihres eigenen Bedarfs konzentrierten, brach die Exportwirtschaft zusammen. Infolge der von der Gleichheits-Idee diktierten Erbteilung des Landes schrumpften die Parzellen mit jeder neuen Generation immer mehr zusammen. Um die rasch wachsende Bevölkerung zu ernähren, wurden nach und nach auch die für den Ackerbau kaum geeigneten steilen Berghänge gerodet. Dennoch verfügte schon im Jahre 1971 jede Bauernfamilie im Schnitt nur noch über anderthalb Hektar karges Ackerland. Heute wird der größte Teil der Agrarfläche, da durch Übernutzung ausgelaugt und durch starke Tropenregen erodiert, gar nicht mehr bestellt.

Revolutionsromantiker und Fair-Trade-Fans sehen das allerdings anders. Um von der verheerenden Wirkung der Gleichheitsideologie abzulenken, verweisen sie auf die der jungen Republik als Gegenleistung für die diplomatische Anerkennung durch Frankreich unter Androhung militärischer Gewalt auferlegte Entschädigungssumme für die Enteignung der Plantagenbesitzer in Höhe von 90 Millionen Goldfranken (heute umgerechnet 17 Milliarden Euro!). Um die Riesensumme einzutreiben und schrittweise abzubezahlen, mussten dem Volk große Opfer und Restriktionen auferlegt und die Ressourcen des kleinen Landes buchstäblich ausgeplündert werden. Dabei erwies es sich als fatal, dass in Haiti der Voodoo-Kult von Anfang an als dem Christentum zumindest ebenbürtig, wenn nicht überlegen angesehen wurde. Das ist eine logische Konsequenz der Gleichheitsideologie beziehungsweise des Kulturrelativismus. Die infantile Gleichsetzung des demütigen Betens um göttliche Gnade mit obskurantistischen Beschwörungen und Zaubereien begünstigte die Machtübernahme durch Dynastien kleptokratischer Diktatoren und die damit einhergehende Vernachlässigung von Vorsorge-Investitionen gegen Hurrikane und Erdbeben. Davon hat sich Haiti nicht mehr erholt. Im Jahre 2003 haben Voodoo-Priester den ausgelaufenen Teufelspakt von 1791 mit Tieropfern ausdrücklich erneuert. Ein halbes Jahr zuvor hatte der damals herrschende Diktator Jean-Bertrand Aristide den Voodoo-Kult zur zweiten Staatsreligion neben dem Katholizismus erklärt.

Ich möchte nicht behaupten, Spezialist für Voodoo zu sein, denn ich kenne dessen Praxis hauptsächlich aus Romanen von Naipaul und anderen literarischen Zeugnissen. Es kommt hier nur darauf an, was diesen Kult von der christlich geprägten abendlänischen Kultur unterscheidet. Das ist in meinen Augen der allegenwärtige Fatalismus. Christen wissen, dass sie sich von Gott entfernen, wenn sie ihre Hände in den Schoß legen. Sie versuchen deshalb, von verschiedenen Seiten drohendes Unheil durch Vorsorgemaßnahmen abzuwenden. Oft tun sie dabei, wie ich an anderer Stelle schon dargelegt habe, sogar des Guten zuviel. Der Gedanke der Vorsorge ist den meisten Haitianern jedoch fremd. Überall in der Karibik wurden inzwischen Bauvorschriften für einigermaßen erdbebensicheres und Hurrikan-resistentes Bauen erlassen. In Haiti wurde das versäumt, obwohl Entwicklungshilfe-Gelder dafür zur Verfügung gestanden hätten.

Was könnte man aus diesem (zugegebenermaßen sehr groben) Einblick in die Probleme Haitis lernen? Die Haitianer mussten wie die Franzosen und später die Russen und Chinesen erfahren, dass blutige Revolutionen – so gut sie auch gemeint sein mögen – alles noch schlimmer machen als vorher. Nur stille und unblutige Revolutionen wie etwa in jüngerer Zeit die Verbreitung des Internet und mehr noch die Verbreitung des Christentums seit fast zwei Jahrtausenden bringen die Menschheit voran. Nach christlichem Verständnis ist jede blutige Erhebung gleichzusetzen mit Blasphemie, der die Strafe Gottes auf dem Fuße folgt. Auch Nichtchristen können kaum darüber hinwegsehen, dass es in der Geschichte keine vergleichbaren Fälle von Hochmut gibt, die nicht im Desaster endeten. Der Spruch „Hochmut kommt vor dem Fall“ bringt das zum Ausdruck. Nur Demut erweist sich als nachhaltig.

So kann ich dem Prediger Robertson zwar nicht folgen, wenn er zum Mord an Venezuelas rotem Diktator Hugo Chavez aufruft. Ich muss ihm aber zustimmen, wenn er die Zurückdrängung des Voodoo-Kultes durch massive Missionsarbeit für wichtiger erklärt als über aktuelle Nothilfe hinausgehende materielle Entwicklungshilfe. Der nicht religiös argumentierende Kolumnist des „Wall Street Journal“ Bret Stephens sieht das übrigens ähnlich. (aktualisiert am 3. Februar 2010)

Internet

Pat Robertson auf Dailymotion

Erdbeben eine Folge vom ‚Pakt mit dem Teufel’?

Haiti Hilflose Perle der Karibik

To Help Haiti, End Foreign Aid

Literatur

C. L. R. James: Die schwarzen Jakobiner: Toussaint Louverture und die Unabhängigkeitsrevolution in Haiti. Pahl-Rugenstein Verlag, Köln 1984. (Nicht mehr lieferbar, weil vom ehemals DKP-nahen Verlag wegen der trotzkistischen Position des Autors wieder aus dem Verkehr gezogen.)

=========================================================================================

Jeder braucht seine Apokalypse von Edgar L. Gärtner

Wer die Johannes-Offenbarung nicht kennt oder ablehnt, braucht die Klimakatastrophe

Wer sich mit der katholischen Liturgie etwas auskennt, der weiß, dass an Allerheiligen aus der Offenbarung des Johannes vorgelesen wird. Ich gestehe, dass ich am Sonntag, dem 1. November 2009, während der Verlesung des Evangeliums meine Gedanken etwas abschweifen ließ – allerdings durchaus nicht zu Dingen, die mit dem Thema nichts zu tun haben. Mir fiel nur ein, dass die Christen mit der Verbreitung der Johannes-Offenbarung seit fast 2000 Jahren doch eigentlich rundum mit apokalyptischen Gewissheiten versorgt sind und keiner weiteren Schreckensbilder bedürfen, um ihren Adrenalinspiegel beziehungsweise Angsthaushalt im Gleichgewicht zu halten. Dabei hatte ich die Theorie der Risiko-Kompensation im Hinterkopf, die der kanadische Psychologe Gerald J.S. Wilde schon vor Jahren in die Diskussion brachte, um die Beobachtung zu erklären, dass zusätzliche Sicherheitsvorkehrungen an Automobilen wie Sicherheitsgurte, Airbags oder ABS nicht unbedingt zu mehr Sicherheit im Straßenverkehr führen, weil sie die Fahrer zu einer riskanteren Fahrweise verleiten können.

Ich musste mich vor einigen Jahren mit dieser Thermostat-Theorie beschäftigen, als ich für die Risiko-Kommission des Bundesgesundheitsministeriums als Redakteur tätig war. Später habe ich einiges davon in meinem Buch „Vorsorge oder Willkür“ verarbeitet. Die Menschen brauchen offenbar einen bestimmten Risiko- und Stress-Pegel, um nicht vor Langweile einzuschlafen oder dem Alkohol zu verfallen. Eine solche Thermostat-Funktion gibt es aber vermutlich nicht nur beim menschlichen Risiko- und Stressbedürfnis, sondern auch bei der Angst vorm beziehungsweise der Lust am Untergang. Menschen, die die Johannes-Offenbarung nicht kennen oder nicht mögen, brauchen dafür vermutlich einen Ersatz. Deshalb greifen sie nach modernen Weltuntergangstheorien, saugen Computer-Hochrechnungen, die die nahende Erschöpfung von Rohstoff-Vorräten oder den drohenden Hitzetod an die Wand malen, begierig in sich auf.

Allerdings bieten diese Projektionen durchaus keinen gleichwertigen Ersatz für die biblische Apokalypse, auch wenn das die postmoderne „Diktatur des Relativismus“ postuliert. Die Johannes-Offenbarung besagt, dass Gott selbst dieser Welt ein Ende setzen wird und nicht wir Menschen. Oder anders herum: Der Weltuntergang wird nicht das Werk der Menschen sein. Wer die Menschen für einen drohenden ökologischen Kollaps verantwortlich macht, begeht also Gotteslästerung. Von daher verwundert es sehr, dass sich die meisten christlichen Kirchen inzwischen zum grünen Apokalypse-Ersatz bekennen. Denn Blasphemie wird bekanntlich nicht erst im Jenseits bestraft.

Für Gläubige ist der Weltuntergang ein Ende ohne Schrecken, weil er gleichbedeutend mit der Wiederkehr des Herrn Jesus Christus ist. Richtig verstandenes Christentum führt zur Gelassenheit. Christen können/dürfen sich gar nicht schuldig fühlen für einen angeblich drohenden Klima-Kollaps. Machtgierige bedienen sich heidnischer Ängste, um die Menschen gefügig zu machen. Wirklich gläubige Christen sollten sich von der Ersatzreligion Ökologismus nicht aus der Ruhe bringen lassen.

Internet:

Über Gerald J.S. Wilde

Target Risk 2

============================================================================

Nachlese zum Darwin-Jahr:

Das Wahrheitsmonopol des Materialismus wankt

Von Edgar L. Gärtner

Hätten der Bundesrat und die Bundesländer einer Petition der naturalistischen (= nihilistischen) Giordano Bruno Stiftung nachgegeben, dann wäre der ohnehin schon unter der Hand zum „Vatertag“ (ohne Väter) umfunktionierte hehre christliche Feiertag „Christi Himmelfahrt“ dieses Jahr erstmals als „Tag der Evolution“ begangen worden. Die Initiative der Bruno Stiftung ist freilich nur eines von zahlreichen Beispielen für den anlässlich des 200. Geburtstages von Charles Darwin im Februar mit großsprecherischer Pose vorgetragenen Anspruch atheistisch ausgerichteter Darwinisten auf das Wahrheitsmonopol des Materialismus. Wer die Entwicklung an der Front naturwissenschaftlicher Forschung verfolgt, fragt sich allerdings unwillkürlich, auf welche neuen Erkenntnisse militante Atheisten wie Richard Dawkins oder Ulrich Kutschera ihre Überzeugung, die Annahme eines göttlichen Ursprungs des Universums sei nicht nur überflüssig, sondern sogar schädlich, denn stützen.

Denn wir sind gerade Zeugen eines fundamentalen Paradigmenwechsels in den Naturwissenschaften. Einsteins Dogma von der Unübertrefflichkeit der Lichtgeschwindigkeit ist im Sommer 2008 in Genf experimentell ins Wanken gebracht worden. Ein Physiker-Team unter Nicolas Gisin konnte zeigen, dass das von Einstein nur als absurde Konsequenz gegnerischer Auffassungen postulierte Verschränkungsprinzip in der Quantenphysik real existiert. Dieses Prinzip besagt, dass zwei Teilchen A und B, die einmal zusammen gehörten, nach der Trennung wie durch Spuk miteinander verbunden bleiben und mit unendlich hoher Geschwindigkeit Informationen austauschen, selbst wenn der Zeitpunkt der Trennung weit in der Vergangenheit liegt oder die Teilchen mittlerweile Lichtjahre voneinander entfernt sind. Es ist somit auch nicht ausgeschlossen, dass Wirkungen in der realen Welt manchmal ihren Ursachen vorauszugehen scheinen oder tatsächlich vorangehen. Scheinbar überirdische Phänomene wie Geistheilung, Telepathie, Homöopathie, Hellsehen oder Liebe auf den ersten Blick werden möglicherweise bald erklärbar, ohne dabei etwas von ihrem Zauber einzubüßen.

Die Vorstellung, ähnlich dem Dualismus von Teilchen und Welle unterliege auch das Verhältnis von Leib und Seele und somit das Bewusstsein den Regeln der Quantenphysik, ist nicht neu. Der australische Hirnforscher John C. Eccles, ein enger Freund des bekannten Wissenschaftsphilosophen Karl R. Popper, gehörte zu den ersten, die eine solche Parallelität postulierten. Popper begründete damit seine Vermutung, das menschliche Wissen sei zu 99 Prozent angeboren und werde durch Lernen nur aktualisiert. Eccles, der 1963 für seine bahnbrechenden Erkenntnissen über die Erregungsübertragung in den Nervenzellen den Nobelpreis für Medizin erhielt, glaubte stets daran, dass es eine vom Körper unabhängige und unsterbliche Seele gibt. Er dachte, der Geist beeinflusse das Gehirn, indem er auf mikroskopisch kleine Strukturen in der Großhirnrinde, die so genannten Pyramidenzellen, einwirkt. Ausgehend davon, versuchten die US-Forscher Stuart Hameroff und Roger Penrose das Bewusstsein durch den Kollaps der Wellenfunktion in den Mikrotubuli des Gehirns zu erklären. Inzwischen ist auch der Frankfurter Physikprofessor Thomas Görnitz überzeugt, dass Gedanken so real sind wie Atome. Stoffe sind nur vorläufige Produkte der Wechselwirkung von Feldern. Die Realität ist primär geistig.

„Über das Verschränkungsprinzip sind wir auf subtile Art und Weise mit jedem x-beliebigen Punkt des Universums verbunden!“, folgert der promovierte Chemiker und Wissenschaftsjournalist Rolf Froböse in seinem neuen Buch. Anhand weiterer Zeugnisse und Beispiele macht er deutlich, dass sich Leben und Bewusstsein nicht hätten entwickeln können, wenn es nicht seit dem Urknall vor 13,7 Milliarden Jahren einen universellen Quantencode gäbe, in dem die Möglichkeit der Lebensentstehung schon angelegt war. Die Wahrscheinlichkeit für die Entstehung des Lebens durch blinden Zufall beträgt nach Berechnung des Karlsruher Makromolekularchemikers Prof. Bruno Vollmert höchstens eins zu zehn hoch tausend. Eher würde ein funktionsfähiger Pentium-Rechner dadurch entstehen, dass man alle seine Elektronikteile in zigtausendfacher Ausführung von der Aussichtsplattform des Eifelturms auf die Straße würfe, meint Vollmert. In der Tat konnte man bei endlosen Wiederholungen des 1953 von Stanley L. Miller zum ersten Mal in Chicago durchgeführten Laborexperiments zur Simulierung der Lebensentstehung aus der „Ursuppe“ immer nur Aminosäuren, aber nicht einmal einfachste Eiweißmoleküle gewinnen. Dafür fehlte die Information, die heute durch DNA und RNA übermittelt wird, nach Ansicht Vollmerts ursprünglich aber von Gott gekommen sein muss.

Darwins Selektionstheorie sei deshalb nicht einfach falsch, meint Froböse, sondern beschreibe nur die Übersetzung des universellen Quantencodes, der sich in der Universalität des genetischen Codes äußert. Dabei beruft er sich auf den US-Biochemiker Lothar Schäfer, der die Auffassung vertritt, bei der Anpassung der Arten an unterschiedliche Lebensbedingungen durch Mutation und Selektion werde nur eine bereits von vornherein gegebene virtuelle Ordnung von Quantenzuständen aktualisiert. Blinden Zufall lasse der Lebenscode des Universums nicht zu.

Internet:

Stiftung fordert Tag der Evolution statt Christi Himmelfahrt

Interview mit Rolf Froböse über Wissenschaft und Religion

Literatur:

Thomas Görnitz: „Der kreative Kosmos. Geist und Materie aus Information. Spektrum Akademischer Verlag, Heidelberg 2006

Lutz Simon (Hrsg.): „Wissenschaft contra Gott? Glauben im atheistischen Umfeld“. Hänssler Verlag, Holzgerlingen 2007

Joachim Bauer: Das kooperative Gen. Verlag Hofmann & Campe, Hamburg 2008

Rolf Froböse: „Der Lebenscode des Universums. Quantenphänomene und die Unsterblichkeit der Seele.“ Lotos Verlag (Random House), München 2009

===========================================================================

Verständigung braucht gemeinsame Werte

Die Macht des Wortes und die Grenzen des Dialogs

Von Edgar L. Gärtner

„Im Anfang war das Wort“, heißt es im Johannes-Evangelium (1,1-2). Die Bedeutung dieses Halbsatzes ist theologisch und philosophisch umstritten und jedenfalls unverständlich ohne dessen Fortsetzung „und das Wort war bei Gott, und Gott war das Wort.“ Wenn die Bibel die Macht des Wortes eindeutig Gott zuordnet, heißt das aber noch lange nicht, dass Worte in ganz irdischen zwischenmenschlichen Angelegenheiten nur Schall und Rauch seien. Im Gegenteil: Die Erfahrung lehrt, dass Worte sogar töten können. Dennoch verlassen sich heute gerade Werbe-Profis aus gutem Grund nicht allein auf Worte.

Sie haben gelernt: Kommunikation, echte zwischenmenschliche Verständigung beruht nur zu einem geringen Teil auf Worten, sondern zu allererst auf dem Austausch von Gebärden, Gesten und manchmal auch Düften. Sonst bliebe es unerklärlich, dass wir uns mit Hunden mitunter besser verständigen können als mit manchen Mitmenschen. Die eher zweitrangige verbale Verständigung bedarf darüber hinaus offenbar einer gemeinsamen Glaubensbasis. Allerdings sprechen die Werbeleute weniger vom Glauben als (neutraler) von zwischen vielen Menschen geteilten Bildern und Mythen. Um ihre Adressaten überhaupt ansprechen zu können, versuchen sie, die Produkt-Botschaft, die sie rüberbringen wollen, einem gängigen Mythos aufzusatteln. Beispiele für solche Mythen und Bilder sind etwa die Suche nach dem heiligen Gral oder der tapfere Kampf Davids gegen den Riesen Goliath.

Umgekehrt bedeutet das aber auch, dass verbale Kommunikation, Dialog zwischen Menschen grundverschiedenen Glaubens nur in sehr eingeschränktem Maße möglich ist. Darauf hat vor kurzem Papst Benedikt XVI. im Vorwort zum neuesten Buch des italienischen Philosophen und Ex-Senatspräsidenten Marcello Pera hingewiesen. Über religiöse Grundentscheidungen könne es keinen wirklichen Dialog geben, „ohne den eigenen Glauben in Klammern zu setzen“, betont dort der Papst. Mit einer „nicht widerlegbaren Logik“ lasse Pera in seinem Buch erkennen, dass der Liberalismus zum Nihilismus wird, wenn er sich gegen das christliche Gottes- und Menschenbild stellt, d. h. den Menschen die Eigenschaft der Gottesebenbildlichkeit abspricht. Europa könne nur dann zu einer „moralischen Gemeinschaft“ werden, wenn es zu seinen christlichen Wurzeln zurückkehrt, betont der Atheist und Popper-Schüler Pera. Als Skeptiker verspricht er sich allerdings nicht viel von Taufe und Wiedertaufe. Er rät den Europäern, zu handeln, „als ob es Christus gebe.“

Alexander Smoltczyk, der Vatikan-Korrespondent des SPIEGEL, berichtete über die päpstliche Klarstellung unter der Überschrift „Schluss mit Lessing.“ In der Tat sieht Lessings Ringparabel, im Lichte der modernen Kommunikationsforschung betrachtet, alt aus.

(Als Gastkommentar veröffentlicht in DIE WELT vom 27. Dezember 2008)

Internet:

Wikipedia: Marcello Pera

Schluss mit Lessing

Interreligiöser Dialog nicht möglich

============================================================

Gibt es Freiheit ohne Geist? Von Edgar Gärtner*)

Neulich stieß ich beim TV-Kanal Phoenix auf die Wiederholung einer Reportage über den St. Jakobs Pilgerweg. Da blieb ich eine Weile hängen. Zwar zieht es mich persönlich längst nicht mehr dorthin, seit es dort, ausgelöst durch den Bestseller von Hape Kerkeling, zu Staus kommt. Aber was ältere und jüngere Pilger den TV-Reportern zu erzählen hatten, interessierte mich schon. Im Gedächtnis haften blieb mir ein junges Ossi-Pärchen aus Magdeburg. Ich möchte den beiden nicht zu nahe treten. Aber was sie als „Ertrag“ ihres Trips festhielten, stimmte mich tief traurig. Für den Geist von Santiago de Compostella hatten sie offenbar weder Auge noch Ohr noch sonst ein Organ. Für sie war die Reise ein touristischer Event neben anderen. Was sie über ihre Empfindungen mitteilten, erschien mir höchst geistlos. Und so wie diese beiden sehen es wohl inzwischen viele Abgänger unseres entchristlichten Erziehungswesens.

Deshalb erscheint es nicht weiter verwunderlich, dass auch bei Debatten über Freiheit und Moral der Begriff „Geist“ oft gar nicht mehr auftaucht. Immerhin gibt es inzwischen, gefördert durch die neuesten Erkenntnisse der Humangenetik, einen weitgehenden Konsens darüber, dass die menschlichen Individuen keine Marionetten ihrer Gene sind, dass sie ihren Erbanlagen gegenüber einen gewissen Entscheidungsspielraum haben. So bringt es auch nicht viel, nach speziellen Genen zu suchen, die jemanden zum Genie, zur Niete, zum Hetero, zum Schwulen, zum Heiligen oder zum Verbrecher machen. Es gibt offenbar so etwas wie Freiheit. Aber worauf beruht und worin besteht diese? Hier scheiden sich die Geister, wenn man so sagen darf. Denn von „Geist“ wollen die meisten Anhänger des bei uns inzwischen zum Mainstream gewordenen Atheismus erst gar nicht reden. Sogar der herkömmliche, auf dem christlichen Menschenbild fußende Freiheitsbegriff ist vielen von ihnen höchst suspekt.

Nach christlicher Auffassung kommt es letzten Endes auf die mit der geistigen Person verbundene Willensfreiheit an. Eine ganze Schule der neurobiologischen Forschung bemüht sich demgegenüber um den Nachweis, dass der Mensch nicht Herr im eigenen Hause ist, dass es im menschlichen Hirn keine Strukturen gibt, die man mit Geist oder Willensfreiheit in Zusammenhang bringen könnte. Aber diese mit großem Eifer ins Werk gesetzte Suche beruht auf einer höchst dürftigen philosophischen Begründung. „Der Tag, an dem die Hirnforschung aufbrach, um die Freiheit zu suchen, ist vergleichbar mit dem Tag, an dem der proletarische Dummkopf Gagarin erzählte, er sei im Weltraum gewesen und habe Gott nicht gefunden“, urteilt der bekannte Psychiater und katholische Theologe Manfred Lütz mit dem ihm eigenen Sarkasmus in seinem Bestseller „Gott. Eine kleine Geschichte des Größten“ (2007).

Wieder und wieder werden Experimente zitiert, die der amerikanische Neurologe Benjamin Libet schon in den 80er Jahren durchführte. Danach entscheidet das Hirn über Handlungen, noch bevor uns ein Entschluss bewusst wird. Genau genommen, bestätigen solche Experimente aber nur Sigmund Freuds Entdeckung, dass der Anteil des Unbewussten an der Persönlichkeit viel größer ist als der des Bewussten. Freud dachte allerdings beim Unbewussten nur an Triebhaftes, vor allem an die Sexualität, und negierte dessen geistig-religiöse Dimension. Neurologen und Philosophen werden sich heute aber nicht einmal darüber einig, was unter Bewusstsein zu verstehen ist.

Konsens besteht nur darüber, dass die Menschen von Natur aus soziale Wesen sind, deren Entfaltung von der Kommunikation mit anderen Menschen abhängt. Materielle Grundlage gegenseitigen Einfühlens und Verstehens (Empathie) sind die so genannten Spiegelneuronen. In der Praxis beschränkt sich der Gefühls- und Gedankenaustausch aber meist auf abgegrenzte Gruppen von Bluts- und Geistesverwandten. Dennoch gibt es auch spontane Manifestationen von Altruismus gegenüber völlig Fremden, deren Wurzeln bis zu unseren behaarten Vorfahren zurück reichen.

Einiges spricht dafür, dass sich altruistische Verhaltensweisen deshalb in der Evolution durchgesetzt haben, weil sie im Hirn mit der Freisetzung des Botenstoffes Dopamin und dem damit verbundenen angenehmen Gefühl belohnt werden. Deshalb kann Freigiebigkeit sogar ein besonders raffinierter Ausdruck von Egoismus sein. Es gibt auch Simulationsexperimente, die darauf hinweisen dass Gesellschaften weltoffener Egoisten friedlicher sind als Gesellschaften gruppensolidarischer Gutmenschen. Menschen mit psychopathischer Veranlagung (immerhin etwa ein Prozent der Bevölkerung) fehlt jedoch die Fähigkeit zur Empathie und zum Lustgewinn durch selbstlose Hilfe. Das heißt aber noch lange nicht, dass sie dazu verdammt sind, auf die schiefe Bahn zu geraten.

Warum aber werden viele Menschen, trotz ungünstiger Erbanlagen, nicht zu Verbrechern? Darauf gibt bislang nur die jüdisch-christliche Lehre von der geistigen Person eine Antwort. Geist ist nach christlicher Auffassung keine Substanz, sondern reine Dynamis (wie Musik), von der sich der freie Wille ableitet. Nach materialistischer Auffassung kann es so etwas überhaupt nicht geben. Freiheit beschränkt sich für Materialisten auf Handlungsfreiheit. Diese besteht darin, im Einklang mit seiner mentalen Disposition (Instinkte, Motivationen, Glaubenssätze, Präferenzen, verbales und nonverbales Wissen) agieren zu können. Es bleibt dabei offen, wie die Disposition zustande kommt. Auch einem Hund dürfte danach das Attribut der Freiheit nicht abgesprochen werden. Es käme lediglich darauf an, ob er an der Kette liegt oder sich artgerecht bewegen kann. Diese Auffassung von Freiheit kann aber schlecht erklären, wie es eine Minderheit von KZ-Häftlingen schaffte, innerlich frei und somit Mensch zu bleiben. Der bekannte Wiener Neurologe und Psychiater Viktor E. Frankl, ein Schüler Sigmund Freuds, hat in der Nachkriegszeit eindrucksvoll geschildert, wie er es kraft eigener Geistesanstrengung schaffte, die Selbstaufgabe zu vermeiden, und es ihm so gelang, die Drangsal der Lager zu überleben.

Frankl erkannte aufgrund seiner Erfahrungen im KZ und in seiner psychiatrischen Praxis: Der Mensch „hat“ einen Charakter – aber er „ist“ eine Person. „Die Charakteranlage ist daher auf keinen Fall das jeweils Entscheidende; letztlich entscheidend ist vielmehr immer die Stellungnahme der Person. (…) Zuletzt entscheidet der Mensch über sich selbst. (…) Der Mensch hat also nicht nur Freiheit gegenüber Einflüssen je seiner Umwelt, sondern auch gegenüber seinem eigenen Charakter. Ja, in gewissem Sinne ist es sogar so, dass die Freiheit gegenüber der Umwelt in der Freiheit gegenüber dem Charakter fundiert ist.“

Frankls Analyse der Wechselwirkungen zwischen Geist und Körper scheint inzwischen in Deutschland leider fast vergessen. In der umfangreichen Bibliografie eines aktuellen Sachbuchs zum Thema unter dem Titel „Die gefühlte Moral“ (2008) aus der Feder des Wissenschaftsautors Frank Ochmann taucht sein Name gar nicht auf. Inzwischen hat aber das australische Wunderkind David Chalmers, dessen Name in Ochmanns Bibliografie ebenfalls fehlt, mit bestechender mathematischer Logik nachgewiesen, dass schon das Bewusstsein, das im jüdisch-christlichen Menschenbild unterhalb des Geistes in der Psychophysis angesiedelt ist, grundsätzlich nicht monistisch, d. h. auch nicht materialistisch, sondern nur mithilfe eines Dualismus von Geist und Körper erklärbar ist.

Immerhin sieht auch Ochmann ganz klar: „Reiner Utilitarismus, der nach dem Prinzip maximalen Glücks für die größtmögliche Zahl vorgeht und fordert, in jedem Fall entsprechend moralisch zu handeln, mag philosophisch richtig oder zumindest nachvollziehbar sein. Trotzdem überfordert er nicht nur die meisten Menschen, sondern offenbar den Menschen an sich.“ Aber was folgt daraus? Darüber schweigt sich der studierte Theologe und ehemalige Priester aus. Könnte es nicht doch sein, dass Viktor E. Frankl recht hat, wenn er gegen die nihilistische Reduktion des Menschen auf Biologisches, Psychologisches oder Soziologisches einwendet: „Die Wesenslehre vom Menschen muss offen bleiben – offen auf Welt und auf Überwelt hin; sie muss die Tür zur Transzendenz offen halten. Durch die offene Tür aber fällt der Schatten des Absoluten“?

Ich bin, angesichts der nun beginnenden Wirtschaftskrise und ihrer absehbaren sozialen Konsequenzen, mehr und mehr davon überzeugt, dass die Fronten in den kommenden gesellschaftlichen Auseinandersetzungen weniger zwischen Liberalen und Autoritären, sondern zwischen Nihilisten und jenen verlaufen, die an einen Übersinn des Lebens glauben. Dabei sollte man aber nicht vergessen, dass ein erfundener „Übersinn“, der sich gegen das wirkliche Leben wendet, nach Friedrich Nietzsche selbst die extremste Form von Nihilismus darstellt. Deshalb sollten islamistische Selbstmordattentäter (wie auch extreme christliche Asketen) nicht als Idealisten gelten, denen man bis zu einem gewissen Grad Verständnis entgegen bringt, sondern als Feinde des Lebens.

(Teilweise abgedruckt in: factum-magazin 8/08, Schwengeler Verlag, CH-Berneck)

============================================================

An Wunder glauben von Edgar Gärtner*)

Warum sind Liberale, wie jetzt durch empirische Untersuchungen bestätigt wurde, im Schnitt deutlich glücklicher, zufriedener und optimistischer als Anhänger des wohlfahrtsstaatlichen Sozialismus? Die Antwort auf diese Frage ist vermutlich einfacher, als viele denken: Liberale glauben an Wunder. Sie tun, was ihnen sichtbar nützt und vertrauen darauf, dass das freie Spiel von Angebot und Nachfrage hinter ihrem Rücken zu Wohlstand und Frieden für die ganze Gesellschaft führt.

Es geht bei diesem Wunderglauben nicht unbedingt um Übersinnliches oder Überirdisches, sondern um durchaus Diesseitiges. Es geht weder um optische Täuschungen noch um fromme oder abergläubische Einbildungen wie Marienerscheinungen, sondern zuallererst um greifbare Vorgänge in Politik und Wirtschaft, für die das deutsche Wirtschaftswunder der Nachkriegszeit als Paradebeispiel dienen kann. Bewusst schreibe ich hier Wirtschaftswunder ohne Anführungszeichen. Denn wie soll man die Tatsache anders benennen, dass schon wenige Tage nach Ludwig Erhards wagemutigen, dem sozialistischen Zeitgeist widersprechenden Beschluss, mitten in der Not des Jahres 1948 gleichzeitig mit der Währungsreform die Rationierung von Gütern des täglichen Bedarfs zu beenden und fast sämtliche Preiskontrollen abzuschaffen, die Geschäfte auf einmal voll Waren aller Art waren und lange Menschenschlangen vor einem knappen Angebot bald der Vergangenheit angehörten.

Bei aller streng evolutionistischen, antiteleologischen Argumentation wies gerade der Erzliberale Friedrich August von Hayek wiederholt auf seine Offenheit Wundern gegenüber hin. Denn es war ihm zutiefst bewusst, dass die Ergebnisse des Handelns der Vielen meist viel intelligenter sind als die Motive der einzelnen Handelnden. Hayek sah darin den eigentlichen Grund für die Borniertheit und Stupidität jeglicher Form von Planwirtschaft. Denn deren Ziele spiegeln nur das beschränkte Wissen der jeweiligen Machthaber wider. „Aus einem gelenkten Prozess kann nichts größeres entstehen, als der lenkende Geist voraussehen kann“, stellte Hayek fest. Er ging sogar so weit, die gewachsene Ordnung und den Zusammenhang großer Gemeinwesen als etwas Geheimnisvolles hinzustellen. „In der großen Gesellschaft profitieren die verschiedenen Mitglieder von den Tätigkeiten aller anderen nicht nur trotz, sondern oft sogar aufgrund der Verschiedenheit ihrer jeweiligen Ziele“, fügte er an anderer Stelle hinzu.

Gegenüber dem Mysterium des gesellschaftlichen Zusammenhalts trotz oder gerade wegen des Pluralismus individueller Motive und Ziele könnten Sozialforscher, wenn sie ehrlich sind, nur die Haltung der Demut einnehmen, meinte Hayek: „Die Erkenntnis von den unüberwindlichen Grenzen seines Wissens sollten den Erforscher der Gesellschaft eigentlich Demut lehren. Diese Demut sollte ihn davor bewahren, Mitschuldiger in dem verhängnisvollen menschlichen Streben nach der Herrschaft über die Gesellschaft werden“, forderte der Wirtschaftsnobelpreisträger von 1974. Demgegenüber gehöre es zum Wesen des Aberglaubens, dass die Menschen sich einbilden, genug zu wissen, um Wunder rational erklären und durch bewusste Maßnahmen ersetzen zu können. Hayek war sich also im Klaren, dass Politik und Ökonomie bis zum heutigen Tag weder in der Theorie noch in der Praxis der Theologie so leicht entgehen können. Und er hat in der Spätphase seines Wirkens selbst Überlegungen über eine Komplementarität von Evolutionismus und christlicher Religion angestellt, was ihn in den Augen der Sozialisten aller Parteien umso verdächtiger machte.

Als weniger suspekt erscheint da vielleicht die politisch eher links verortete große Philosophin Hannah Arendt. Aber gerade bei ihr spielt der Begriff des Wunders eine noch größere Rolle, und zwar gerade in ihrem Meisterwerk, der originellen politischen Theorie des tätigen Lebens. Auch wenn Arendt über das deutsche Wirtschaftswunder anders dachte als Ludwig Erhard oder Friedrich August von Hayek und „Wunder“ immer mit Anführungszeichen schrieb, teilt sie deren Auffassung über die grundsätzliche Beschränktheit der menschlichen Fähigkeit, mögliche Folgen ihres Handelns abzusehen. In Anlehnung an Friedrich Nietzsche, der den Menschen als Tier definierte, „das versprechen darf“, sah Hannah Arendt den Hauptunterschied zwischen freien Menschen und ihren unfreien Vorfahren nicht im größeren Wissen, sondern in der Fähigkeit zu versprechen und zu verzeihen. Gute Taten hängen nicht in erster Linie vom Umfang des Wissens und von den öffentlich proklamierten Absichten einer Person ab, sondern von ihrer Liebe und der Treue zu Mitmenschen gegenüber eingegangenen Verpflichtungen.

Alles wirklich Gute geschieht im Verborgenen, lehrte Jesus von Nazareth. Die rechte Hand soll nicht wissen, was die linke tut. Daran knüpfte Hannah Arendt in „Vita activa“ an und fügte mahnend hinzu: „Güte aber, die, ihrer Verborgenheit überdrüssig, sich anmaßt, eine öffentliche Rolle zu spielen, ist nicht nur nicht mehr eigentlich gut, sie ist ausgesprochen korrupt.“ Das könnte sie heutigen „Gutmenschen“ ins Stammbuch geschrieben haben. Sie selbst hält sich ans Neue Testament: Da die Menschen die ferneren Folgen ihres Handelns nur in sehr geringem Maße im Voraus abschätzen können, machen sie unweigerlich Fehler, fügen anderen Menschen und ihrer Umwelt Schaden zu und laden dadurch Schuld auf sich. Nur durch ihre Fähigkeit, eingegangene Versprechen allen Widrigkeiten zum Trotz einzuhalten und Schuld zu vergeben, kann der soziale Zusammenhalt gewahrt werden. In Arendts Worten: „Dass es in dieser Welt eine durchaus diesseitige Fähigkeit gibt, ‚Wunder’ zu vollbringen, und dass diese Wunder wirkende Fähigkeit nichts anderes ist als das Handeln, dies hat Jesus von Nazareth (dessen Einsicht in das Wesen des Handelns so unvergleichlich tief und ursprünglich war wie sonst nur noch Sokrates’ Einsichten in die Möglichkeiten des Denkens) nicht nur gewusst, sondern ausgesprochen, wenn er die Kraft zu verzeihen, mit der Machtbefugnis dessen verglich, der Wunder vollbringt, wobei er beides auf die gleiche Stufe stellte und als Möglichkeiten verstand, die dem Menschen als einem diesseitigen Wesen zukommen.“

Nicht weniger geheimnisvoll als das Wunder von Versprechen und Verzeihen war für Hannah Arendt ein anderes Band des sozialen und politischen Zusammenhalts: der Gemeinsinn oder gesunde Menschenverstand. Diesen hielt Arendt für die Grundlage des Politischen schlechthin, weil er erst dafür sorgt, dass die Mitglieder einer Gesellschaft in einer gemeinsamen Wirklichkeit leben. Der Gemeinsinn entsteht, wohlgemerkt, gerade nicht durch die Unterordnung aller unter vorgegebene Ziele. Vielmehr genügt es, dass zwei plus zwei für alle vier ist und bleibt. Wie der französische Literaturnobelpeisträger Albert Camus sah die jüdische Philosophin, dass die zunehmende Bürokratisierung des politischen und gesellschaftlichen Lebens im Wohlfahrtsstaat europäischer Prägung den Menschen nicht nur den Wunderglauben, sondern auch den gesunden Menschenverstand austreibt. Ein immer dichteres Geflecht bewusster, oft wissenschaftlich oder pseudowissenschaftlich begründeter administrativer Regelungen tritt an die Stelle von Wundern und Überraschungen. Die offene Welt wird mehr und mehr zu einem Zuchthaus.

Kurz: Wunder gehören ganz einfach zur Realität. Wer nicht daran glaubt, wird am Ende zum Nihilisten. „Der Nihilist glaubt nicht an nichts, sondern nicht an das, was ist“, definierte Albert Camus. Der Gemeinsinn geht gerade am Übermaß „sozial“ begründeter wohlfahrtsstaatlicher Reglementierungen (mit Extrawürsten für alle möglichen lautstarken Interessengruppen) zugrunde. Das zeigt sich m. E. derzeit am deutlichsten am verbreiteten Aberglauben, Staat und Wirtschaft könnten mithilfe von Milliardeninvestitionen in den „Klimaschutz“, durch die Rationierung des Energieeinsatzes über das Europäische Emissionshandelssystem, durch detaillierte Vorschriften für die Heizung und Wärmedämmung von Gebäuden (unter Missachtung von Eigentumsrechten) sowie durch die Gleichschaltung von Forschung und Lehre (alles in guter Absicht, versteht sich) das Wettergeschehen gezielt beeinflussen und den Klimawandel stoppen.

„Ein merkliches Abnehmen des gesunden Menschenverstands und ein merkliches Zunehmen von Aberglauben und Leichtgläubigkeit deuten immer darauf hin, dass die Gemeinsamkeit der Welt innerhalb einer bestimmten Menschengruppe abbröckelt, dass der Wirklichkeitssinn gestört ist, mit dem wir uns in der Welt orientieren“, mahnte Hannah Arendt. Diese Warnung ist aktueller denn je.

*) veröffentlicht in: DIE WELT vom 23. Oktober 2007

REACH, a regulation farce

Believing EU officials we have entered, on 1st December 2008, a new era. From now on it will be illegal to manufacture, import, sell, buy or use chemicals that have not been registered or pre-registered following EU’s complicated REACH procedure. Yet experiences during the pre-registration process are rather confirming old fears that REACH does not fundamentally improve chemicals security, but will only increase bureaucratic control over every day’s life.

REACH, a Costly Piece of Theatre?

By Edgar L. Gärtner

Believing EU officials we entered, on December 1st 2008, a new era. After this, it will be illegal to manufacture, import, sell, buy or use chemicals that have not been registered or pre-registered following EU’s REACH procedure. Yet the ongoing pre-registration process is rather confirming the old fears that REACH does not fundamentally improve chemicals security and that the good intentions behind this new regulation initiative would lead to a Babylonian confusion or a costly piece of theatre.

REACH is the paradigm for a new type of regulation that will have a worldwide impact – even if it is not really workable due to its fundamental flaws. For the EU’s new chemicals legislation is thought to fully translate into action for the first time the Precautionary Principle (PP) adopted in 1992 at the “Earth Summit” in Rio de Janeiro. Principle 15 of the Rio Declaration stipulates: “Where there are threats of serious and irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation.” Following the EU’s interpretation of the Rio declaration this wording implies a reversal of the burden of proof between government and industry. Till then government officials had to demonstrate that a product is unsafe before removing it from the market. But following the EU’s interpretation of the PP manufacturers would have to prove that their products are safe before putting them on the market. How, under this condition, is it possible to innovate and introduce new types of products, given the fact that nothing on earth can be considered absolutely safe?

In see behind the dogmatic precautionary approach the mentality of nihilism. What is nihilism? “Nihilists don’t believe in nothing, but do not believe in what is”, declared French literature Nobel Prize winner Albert Camus in 1951. In other words: Nihilists are capable to believe nearly in all but truth: This is that life by itself is very risky and that by tenting to reduce chemicals and other risks we are taking the much greater risk of reducing chances for human life in freedom and dignity (please see my book “Öko-Nihilismus. Eine Kritik der politischen Ökologie”, Jena 2007).

Even the original Rio wording of the PP is leaving lot of questions: How does it relate to Principle 12 of the Rio Declaration on Non-Discrimination? Does “cost effective” also mean “cost efficient” and thus respect the Principle of Proportionality fundamental in the EU’s Maastricht Treaty? This treaty refers in Art. 130r (later 174.2) to the Rio Declaration and doesn’t give a proper definition of the PP. In order to clarify these questions, the EU Commission issued, in February 2000, a special “Communication” précising that the PP applies only to risk management and not to risk assessment. The latter must be based on state-of-the-art scientific methodology. Last but not least the EU Commission’s paper underlined that the PP incorporates the Principle of Proportionality.

Thus, the EU Commission in 2000 clearly rejected definitions of the PP that open the way to different forms of irrationalism, like for instance the NGO’s Wingspread Consensus Statement on the PP which claimed: “When an activity raises threats of harm to human health or the environment, precautionary measures should be taken even if some cause and effect relationships are not fully established scientifically.” Following this, chocolate would need to be banned as even amateur chemists could easily convert it, with the help of ordinary kitchen equipment, into dangerous explosives!

Unfortunately, the EU Commission did not pursue this line in its White Paper “Strategy for a Future Chemicals Policy” published on 27 February 2001: “Whenever reliable scientific evidence is available that a substance may have an adverse impact on human health and the environment but there is still scientific uncertainty about the precise nature or magnitude of the potential damage, decision-making must be based on precaution in order to prevent damage to human health and the environment. Another important objective is to encourage the substitution of dangerous by less dangerous substances where suitable alternatives are available.” This is everything but a clear rejection of nihilism for very few things that have been selected by market competition are easily substituted. The “substitution principle” claimed by NGOs and many members of the European Parliament is based on the belief that political regulators can find a better way to select substance or product alternatives than the traditional trial and error interaction between scientific research, engineers’ creativity and consumer demands.

This belief was already subjacent in chapter 19 of Agenda 21 on waste management adopted 1992 in Rio. For the first time a new hazard based Globally Harmonized System (GHS) of substance classification and characterization, which will be introduced in the EU together with REACH, was proposed there. The nihilistic quest of risk minimizing down to zero became predominant in § 23 of the Action Plan adopted ten years later by the Johannesburg Summit on Sustainable Development (WSSD). The precautionary approach was also chosen by the UNEP-Initiative SAICM (Strategic Approach to International Chemicals Management) which, after some preparatory meetings in 2003, 2004 and 2005, was officially launched at the Dubai Conference in February 2006 with an Action Plan aiming the ban of all potentially dangerous substance uses till 2020. This plan is expressly referring to the Stockholm agreement on phasing out Persistant Organic Pollutants (POPs) whose DDT ban was leading to the rebound of mosquito born malaria causing the death of millions of people, mostly children, in Africa and other tropical regions of the world.

Thus, we were hearing at the Dubai Conference Austria’s environment minister Josef Pröll (at that time in charge of the presidency of the EU’s Environment Council) comment the Dubai Declaration on SAICM as follows: “Dubai is a milestone of global environmental policy. There is a clear commitment to the Precautionary Principle. We don’t need to see a tragedy happen to put safety systems in place. In other words, the Dubai Declaration says that if you’re not sure, don’t do it.” If man had always followed this interpretation of the PP, he would never have tamed fire nor invented the wheel!

Given this background it is not surprising to see the EU courts apply the PP in a very contradictorily and confusing way. US analysts Gary E. Marchant and Kenneth L. Mossmann concluded from a survey published in 2005 that the PP “provides an open invitation for arbitrary and unreasonable decisions by both regulators and judges.” A speaking example of an ill interpreted PP is the EU’s ban of six phthalates in toddlers’ toys and child-care articles which was decided in 2005. Following this decision the EU imposed a total ban on the use in children’s toys of three plasticizers employed in the manufacture of PVC (DEHP, DBP and BBP). It also has prohibited the use of three additional plasticizers (DIDP, DNOP and DINP) in babies’ toys intended to be put in the mouth. Only one of the banned substances (DINP) was currently used in toys. Yet on 11 April 2006 the EU Commission clearly confirmed the EU’s scientific risk assessment from 2003 and stated that “DINP is safe in all applications (toys included) and that there is no need for any further measures to regulate the use of this phthalate.”

Industry has spent over 130 million Euros in total to assess the health and environmental risks of plasticizers such as DEHP and DINP. A core reason for these tests was these plasticizers’ widespread use in medical equipment. All have now been in such longstanding use that if there had been any harmful side effects from their application these would have long since come to the fore. The EU now forces manufacturers of pacifiers, plastic ducks and baby equipment to switch to alternative plasticizers, which have not been investigated as thoroughly, have often not been tested sufficiently for these applications and are often considerably more expensive.

Adipates are one possible substitute. Their possible impact on human health and the environment appear to be slight, but so far they have not been subjected to such exhaustive examinations as have the six banned substances. Other alternatives, although extant for some time, have a high migration tendency, and are clearly much less suitable for these applications.

Citrate esters, touted by environmental groups as more environmentally and health-friendly, migrate from treated materials so quickly that these objects easily become brittle. Toys manufactured using citrate esters as plasticizers will therefore put children at risk of swallowing broken-off fragments. Are we therefore justified in substituting a (theoretical) health risk with the much more concrete risk of a child choking?

Greenpeace activists, on whose arguments the EU’s actions were based, don’t appear to be losing any sleep over such questions. In fact, they are demanding that toy manufacturers abandon the use of PVC altogether. According to them, soft PVCs in toys should be replaced with rubber. However, the effect of heat during the vulcanization process of rubber results in carcinogenic nitrosamines, and the substitution of organic for petroleum-based rubber will simply substitute a new, ‘natural’, set of carcinogens.

The plastics industry currently has great hopes for DINCH, a new substance developed through computer modelling by BASF in co-operation with customers from toys and medical device industry. This substance is only slightly more expensive than DEHP, and it can also be almost seamlessly substituted for DEHP without the need to rebuild production plants. DINCH also does not include any of the aromatic hydrocarbons defined as suspect by toxicologists so we can expect it to have a much more benign toxicological profile. BASF has confirmed this in a far reaching programme of tests. These tests indicate that DINCH does not affect the development of sexual organs or fertility, nor does it harm the environment. DINCH has a rate of migration which is at least 8 times lower than that of DEHP, although it has disadvantages such as higher volatility.

The quest for innovation or substitution in the case of these alternative plasticizers cannot be pursued without consideration of the costs, as we would end up substituting the proven with the unproven through ideologically driven wishful thinking. Society needs to pursue fulfilment of consumer demands in a way that balances benefits against the costs to the economy, the environment, and to health.

This raises the question of who decides which materials may be used: Greenpeace? The EU Commission? Science? Nature? And just who is ‘Nature’? Aren’t humans also part of nature, including the average consumer who weighs up product choices and then consciously chooses for instance PVC plastics? Wouldn’t it be better to choose the winner out of several competing market-based solutions?

Thus the European Parliament’s decision to restrict the use of DINP in spite of a thorough and costly risk assessment opens the way to unfounded black listing. Consumer product and packaging material manufacturers could be tented to ban all substances demonized by NGOs or restricted for use prior to their testing and assessment in line with REACH. This could cause major business disruptions as possible alternatives take years to come to market.

Will the REACH procedures dispel this sort of confusion? When the REACH initiative was started in 1999 its principal aim was to halt unequal treatment of ‘old’ and ‘new’ substances. New chemicals were submitted since 1981 to the registration procedure introduced by the EU directive 548/68/EEC while over 100.000 substances in use prior to 18 September 1981 (listed in the EINECS register at the EU Commission’s Joint Institute in Ispra/Italy) were exempt from registration. Only old substances on a ‘priority list’ established by EU Directive 793/93/EEC, Art. 15 had to undergo an assessment. This was done with 141 substances in 20 years. But only 28 of these have been definitely evaluated. With REACH the EU is trying to evaluate the different uses of approximately 30,000 substances over only 10 years. Doing this the original REACH proposal would have required data generation for the drafting of no less than 100 million safety reports, each containing 20 up to 200 pages (plus translations in some 20 languages). Everybody could see that this approach would create a new tower of Babel.

That is why after an internet consultation with industry and major wrangling between different stakeholders the scope of REACH has partially changed. Now extensive safety reports (and the sometimes costly data generation they suppose) are only required for substances with an annual production volume of more than 10 tonnes. Following the amendments to the EP’s First Reading on 17 November and the Council’s agreement on Common Position on 13 December 2005 (finally adopted by EP and EC in December 2006) the registration procedure has been facilitated while the authorisation process has been in tendency complicated. This could lead to more bureaucracy and create a new potential for arbitrary decisions and thus endanger industry’s innovation capacity. The main problem lies in REACH Art.57 which defines substances of Very High Concern (VHC) targeted by authorisation procedures. The definition of VCH substances has been partially altered. Instead of potentially dangerous substances susceptible to be released from products all potentially endocrine disrupting, persistent, bio-accumulative and carcinogenic chemicals as well as substances “giving rise to a similar level of concern” contained in products are focussed now.

Substances meeting the VHC criteria defined in Art. 57 shall be listed in REACH Annex XIV (pending authorisation procedure). Substances supposed to meet the VHC criteria are listed in Annex XV (‘candidate list’) in order to be examined as soon as possible. This creates a new risk of Black Listing. For manufacturers could be tented to seek out politically correct substances in order to replace VHC and ‘candidate’ substances bad mouthed by NGOs long before their examination has come to final conclusions. This is leading to difficult reporting issues.

For instance REACH, Art.7 stipulates that all VHC substances contained in domestic or imported articles surmounting 1 tonne per annum in total and surpassing concentrations of 0,1 % have to be notified. This is leading to problems like this one: Can an importer of cardboard manufactured and finished in China by using printing ink containing the famous postal yellow pigment lead chromate (PbCrO4), which was voluntarily banned in the EU by the printing ink manufacturers association CEPE, know how much of this substance is produced or imported in total? Another example: According to REACH Art.33 all suppliers of products containing VHC substances above a concentration of 0,1 % are obliged to respond free of charge before 45 days to VHC related requests of their customers. Greenpeace has already prepared post cards for mass requests.

Retailers are responding to this challenge by forming a sort of information cartel. Initiated by the German Retailers’ Federations HDE and BHB as well as by the big retailers Metro and REWE, a common data bank named “REACH Solution” was created. It is provided and operated by the specialised company Chemical Service Compliance AG in Cologne. The internet platform offers two portals: one for suppliers and one for their customers. The access to this data bank is also offered via the federation Eurocommerce to non German suppliers and retailers so that a unified European solution seems to be on the way. This illustrates well the general tendency that strong technical and economic regulation is leading to cartelisation of the private sector of the economy.

In spite of all good intentions REACH will probably not reduce but even enlarge grey or black markets for illegal applications of potentially hazardous substances. For on one hand due to the lack of viable substitutes many of those chemicals will remain for some time officially authorised for specific purposes, “if the risks are adequately controlled”. On the other hand it would be very difficult to avoid illegal applications of the same chemicals. There are still markets for ‘dirty’ products. Even completely forbidden chemicals that are applied only in very small amounts in textiles, printing inks or other consumer products can easily be imported from China via the ports of Naples or Piraeus. We cannot suppress those grey or black markets through more and more bureaucracy for excessive bureaucracy is often the real reason behind their emergence, but only by establishing sound open markets.

Well aware of those problems the EU member states have till now proposed only 15 substances as calling for special attention. Geert Dancet, the Executive Director of the EU’s new Chemicals Agency (ECHA) in Helsinki, is convinced that REACH Annex XIV will show in the first time an even smaller number of suspect chemicals while NGOs are calling for no less than 2,000. The official list of substances subject to authorisation will be updated every two years. It is intriguing to see on ECHA’s first “Candidate List” well proven, yet still controversial plasticizers and flame retardants like DEHP or HBCDD closely associated with clearly dangerous arsenic compounds. We can only hope that EU member states and ECHA will come to rational priorization.

Given these meagre prospects it is our duty to ask if REACH has any chance to become conform to the Principle of Proportionality. When starting the REACH process the EU Commission tried to demonstrate that the benefits of the new chemicals regulation overweigh largely its costs. One of the most quoted cost-benefit-analysis is an impact study done by the London based consultancy RPA Risk and Policy Analysts Ltd. In this study registration costs according to REACH were estimated to reach from 1,7 to 7 bn € till 2018. The expected benefits were estimated at 54 bn € in the next 30 years – due principally to a regression of occupational cancer. Yet Angela Logomasini from CEI (Washington) and German statistician Walter Krämer als well as Michael Nasterlack and Andreas Zober, two industry toxicologists from BASF, have shown in Chemistry World, January 2005 that some 80 percent of all occupational cancer cases in the EU are related to the asbestos legacy and that at most 360 out of 32.331 occupational cancer cases per annum can be imputed to the contact with chemicals. It appears now that chemicals industry represented in the EU by CEFIC had many reasons for its strong opposition against REACH.

Unfortunately pressed by big players on the market for end consumer products like for instance Unilever or Procter & Gamble CEFIC finally gave up its resistance against the new legislation. In 2006 CEFIC declared: “REACH is an opportunity for the chemicals industry to regain public confidence.” Behind this assertion I see the will of established big players to defend their monopoly against newcomers on the market, especially from poorer regions of the world by controlling the whole innovation process along a politically correct corridor. With REACH it is very difficult for players from outside the EU to comply with EU regulations for they are not allowed to pre-register or register substances directly but only with the help of what is called an Only Representative (OR) in the EU. Unfortunately ECHA’s guidance documents on REACH say very little about the legal status and the liability of the OR towards its clients, towards other players in the supply chain, towards possible victims of decision errors, and towards the ECHA (cf. Nicolas Gardères: “The Legal Risks of REACH”, in: Kemia-Kemi Vol.35, 2008, 5). It will be nearly impossible to import preparations or formulations of mixed and partly unknown substances ready to use from outside the EU without risking law suits. These are depending on the national tort and contract laws of each EU member state. Till now there is no tendency to harmonise the national legal conditions that depend on different juridical traditions.

This is worth also for data sharing between competitors in Substance Information Exchange Fora (SIEF) and consortia that are even mandatory in the case of data generation involving tests on vertebrate animals. In order to cooperate companies will have to disclose sensitive data that may let their competitors discover critical trade secrets. Which form of agreement between companies is prohibited depends on national legislation. In short: REACH is primarily an job creation program for lawyers. The new chemicals regulation is probably no more than a costly piece of theatre destined to produce the impression that politics is doing something to calm fearful consumers.

Conclusions

REACH contradicts nearly all we know about intelligent collective decision making and successful innovation (Cf. James Surowiecki: “The Wisdom of Crowds. Why the Many are Smarter than the Few”, Random House, 2004). There is no real alternative to trial and error. Market remains the main information source for decision makers. Bureaucracy needs to support it. The market’s role in experimentation and bureaucracy’s role in maintaining stability should be viewed as complementary. Bureaucracy needs to serve the market economy by assessing and crystallising the results of trial and error learning in order to avoid repeating such mistakes in the future.

In contrast to the position of the Green lobby appears to be that political application of the Precautionary Principle and the aims of sustainable development are core drivers for innovations. But how do they know which materials are inherently safe and which have a lasting impact on the environment … when even water can be deadly under certain circumstances? Do the Greens and their political friends consider themselves better able to judge what will prove itself on the open market than market participants themselves? The Greens seem perfectly happy with the authoritarian undercurrents inherent in their position.

Unfortunately, some people cling to the erroneous belief that the expansion of knowledge implies that there is an end – a point where society has attained ‘ultimate knowledge’. This is not the case. The accumulation of knowledge can even lead to total confusion. However important science may be as a reconnaissance and early warning system for society, the most important source of information in a market economy is not science but the market itself. This information is not transferred without cost, but rather set against the cost of the risks undertaken or refused. I think that Angela Logomasini is right when concluding her analysis quoted earlier: “Rather than following a stagnating precautionary principle, regulators should follow a risk-risk principle, assessing even the risk of regulation. They should also recognize that regulation is the last resort because well-being is best promoted by maximizing freedom, which results in human progress.”

In spite of all this, the REACH approach is spreading around the world like a virus. South Korea has already adopted a chemicals law which is a true copy of REACH. Japan is going to do the same. It is expected that under newly elected president Barack Obama even the US will follow the EU. Thus we are risking extending bureaucratic control of energy and substance use (via climate and chemicals policy) all over the world.

(Extended version of a speech presented, on 25 November 2008, at the LVMI’s conference on „Better Regulation“ in Brussels.)

Ressourcenschutz von unten

Der Wirtschaftsnobelpreis ging im Jahr 2008 an Elinor Ostrom und Oliver Williamson. Ostrom, die als erste Frau überhaupt die begehrte Auszeichnung erhielt, hat gezeigt, dass die nachhaltige Nutzung knapper Ressourcen nicht zentraler staatlicher Vorgaben und Kontrollen bedarf. Die Selbstorganisation der Ressourcen-Nutzer vor Ort erweist sich als viel effizienter. Eine Ohrfeige für die CO2-Rationierung durch die UN?

Ressourcenschutz von unten (Teil II)

Warum Almweiden nichts mit dem „Klimaschutz“ zu tun haben, die FAS aber Planwirtschaft gut findet

Von Edgar L. Gärtner

Es gibt Wirtschaftsjournalisten, die meine hier vorgetragene Schlussfolgerung, die diesjährige Verleihung des Wirtschaftsnobelpreises an Elinor Ostrom könne als Ohrfeige für die „Klimapolitik“ interpretiert werden, ganz und gar nicht teilen. Es geht dabei nicht nur um ein paar positive Bemerkungen der Preisträgerin über die „Klimapolitik“, es geht um Grundsätzliches. So schreiben Alexander Armbruster und Christian Siedenbiedel in der „Frankfurter Allgemeinen Sonntagszeitung“ (FAS) vom 18. Oktober 2009: „Was haben Bauern, die sich eine Alpen-Alm teilen, und Staaten, die den Klimawandel bremsen müssen, gemeinsam? Sie stehen im Grunde vor demselben Problem. Denn so, wie nicht jeder Bauer so viele Kühe, so lange er will, auf die Wiese drängeln darf, kann auch nicht jeder Kohlendioxid-Emittent ohne Ende Treibhausgas in den Himmel blasen.“

Dieser Satz enthält gleich mehrere ungeprüfte Behauptungen. Wieso müssen sich Staaten dem Klimawandel entgegenstellen? Und warum sollen sie sich dann ausgerechnet darauf konzentrieren, den Ausstoß des Atemgases Kohlendioxid zu verringern? Wäre es nicht besser, sich von vornherein mit der Frage zu beschäftigen, wie sich die Menschen am besten an Veränderungen ihrer Lebensbedingungen, die unabhängig von ihren Wünschen und Handlungen ohnehin stattfinden, anpassen können? „Die Wissenschaft geht momentan davon aus, dass bis zum Jahre 2050 noch rund 750 Gigatonnen Kohlendioxid (in der Atmosphäre) abgelagert werden können, wenn es nicht mehr als zwei Grad wärmer werden soll“, berichten die beiden Wirtschaftsredakteure. Auf welches wissenschaftliche Experiment stützt sich diese Aussage? Und auf welche historischen und prähistorischen Forschungen stützt sich die im FAS-Artikel zitierte Auffassung des Evolutionsbiologen Jared Diamond, die vollständige Entwaldung der Osterinsel sei ein Beispiel für die „Tragik der Allmende“? Man wird auf keine dieser Fragen eine Antwort erhalten.

Die Legenden, die Jared Diamonds in seinem Bestseller „Collapse“ weiterstrickte, wurden übrigens von Julian Morris, Wolfgang Kasper und Benny Peiser schon vor Jahren Punkt für Punkt widerlegt. Die Auslöschung der Osterinsel-Kultur ging, wie es scheint, mehr auf Invasionen von Sklavenhändlern denn auf selbstmörderische Ressourcenübernutzung zurück. Vermutlich wird man in der ganzen Weltgeschichte kaum ein Beispiel dafür finden, dass Menschen, obwohl zum vorausschauenden Denken und hinweisenden Kommunizieren befähigt, sehenden Auges den Ast absägten, auf dem sie saßen. Es bedurfte in der Regel äußeren Zwanges durch Naturkatastrophen oder fremde Eroberer oder aber innerer Repression durch religiös beziehungsweise pseudoreligiös begründete Diktaturen, um ganze Gesellschaften in den Selbstmord zu treiben. Das scheint beim Untergang der Maya-Kultur in Mittelamerika der Fall gewesen zu sein.

Wer den „Klimaschutz“ in Zusammenhang bringt mit der Abwendung eines „Kollapses“ durch Ressourcen-Rationierung, hat in Wirklichkeit weniger ein Problem mit dem Klima, sondern mit der menschlichen Freiheit. Angstkampagnen haben immer dazu gedient, Einschränkungen, wenn nicht schlicht die Abschaffung der Freiheit zu rechtfertigen. Derzeit gibt es für eine Begründung der globalen Rationierung des CO2-Ausstoßes nicht einmal den Schein eines wissenschaftlichen Arguments. Zwar wissen wir, dass die Erhaltung der Lebensbedingungen auf dem Planeten Erde von einem empfindlichen Gleichgewicht der Luftzusammensetzung abhängt. Das gilt aber nur für den Sauerstoff. Stiege dessen Konzentration in der Atmosphäre um nur ein, zwei Prozentpunkte, ginge die Erde spontan in Flammen auf. Wegen dieser und anderer Sauerstoff verbrauchender Prozesse ist die Sauerstoffkonzentration über Jahrmillionen annähernd konstant geblieben. Sie könnte allerdings durchaus von etwa 21 auf 16 Prozent sinken, ohne dass uns der Atem ausginge. Demgegenüber war die Konzentration des als Kohlenstoffquelle für die pflanzliche Fotosynthese unabdingbaren Spurengases CO2 in der Erdgeschichte großen Schwankungen unterworfen, die ganz unterschiedliche Ursachen haben können. Würde man den CO2-Gehalt der Atmosphäre, der heute bei gerade einmal 385 ppm (parts per million) liegt, verzehnfachen, würde mit Sicherheit kaum etwas passieren – außer dass ein Teil der Pflanzen ihre Fotosyntheseleistung deutlich steigern könnte, was zur Verbesserung der Welternährung führen würde. Die Menschen würden den höheren CO2-Gehalt jedenfalls nicht negativ wahrnehmen. Die von der Arbeitsmedizin festgelegte zulässige maximale Arbeitsplatzkonzentration (MAK) von CO2 liegt bei 5.000 ppm, früher sogar bei 10.000 ppm. (Diese Werte sollte man im Hinterkopf behalten. Sollte an der gängigen Vorstellung über die Rolle des CO2 bei der Klimaentwicklung etwas dran sein, müsste der CO2-Ausstoß in den kommenden Jahren kräftig erhöht werden, um eine Kleine Eiszeit zu verhindern.)

Das Beharren von Berufspolitikern und Spitzenbürokraten auf strengen CO2-Obergrenzen kann deshalb nur den Zweck haben, von folgender Binsenweisheit abzulenken: Klimawandel hat es immer gegeben. Perioden der Abkühlung stellten die Menschen vor viel größere Probleme als Warmphasen. Setzte man statt auf die (unnötige) Bekämpfung der vermeintlich CO2-gesteuerten globalen Erwärmung auf die flexible Anpassung der Menschen an den ohnehin ständig ablaufenden Klimawandel, dann würde offenkundig, dass zentralistische Vorgaben nicht weiter helfen. Vielmehr käme es darauf an, die Menschen vor Ort selbst frei entscheiden zu lassen, in welcher Form sie dem Klimawandel individuell und/oder gemeinschaftlich begegnen wollen. (20. Oktober 2009)

Internet:

Teil I: Eine Ohrfeige für den „Klimaschutz“

Alexander Armbruster/Christian Siedenbiedel: Auf der Alm, da gibt’s nur selten Streit

Jared Diamond: „Collapse. How Societies Choose to Fail or Survive”

Kollaps. Warum Gesellschaften überleben oder untergehen

Julian Morris: How Jared Diamond fails to convince

Wolfgang Kasper: Human Progress and Collapse

Benny J. Peiser: From Genocide to Ecocide

Interview mit Elinor Ostrom zur Kopenhagen Konferenz

Was würde Ostrom sagen, wenn sie davon ausginge, dass an der CO2-Treibhaus-Hypothese nichts dran ist?

Teil I:

Wirtschaftsnobelpreis 2009 an Elinor Ostrom und Oliver Williamson

von Edgar L. Gärtner

Eine Ohrfeige für den „Klimaschutz“?

Ob die Schwedische Akademie auch bei der Auswahl der diesjährigen Träger des Alfred-Nobel-Gedächtnispreises für Ökonomie politische Hintergedanken verfolgte, steht nicht fest. Es scheint eher, als sei dem Nobel-Komitee die Tragweite seiner Entscheidung nur halb bewusst gewesen. Denn insbesondere die Arbeiten der inzwischen 76-jährigen Politikwissenschaftlerin Elinor Ostrom, die die begehrte Auszeichnung als erste Frau überhaupt erhielt, lassen die offiziell als alternativlos dargestellte „Klimapolitik“ nach dem Muster des Kioto-Protokolls in einem ungünstigen Licht erscheinen. Sie hat die Frage, wie gemeinschaftlich genutzte knappe Ressourcen vor der Erschöpfung bewahrt werden können, durch empirische Beobachtung von Fischern und anderen Nutzergruppen ganz anders beantwortet als die UN und ihre Bürokratien.

Seit den Anfängen der Umweltpolitik in den USA ist die von Ostrom untersuchte Problematik unter dem Schlagwort „Tragik der Allmende“(Tragedy of the Commons) bekannt. Sie gilt noch heute als wichtigster Ausgangspunkt umweltökonomischer Überlegungen. Das Schlagwort wurde in einem Aufsatz geprägt, den der amerikanische Mikrobiologe Garret Hardin 1968 in „Science“ veröffentlichte. Hardin behauptete darin, auf eine entsprechende Theorie des reaktionären englischen Landgeistlichen Thomas Robert Malthus (1766-1834) verweisend, die Weltbevölkerung lasse sich mit Bakterien vergleichen, die sich in einer Kulturflüssigkeit so lange exponentiell vermehren, bis ihre Population infolge von Nährstoffmangel zusammenbricht. Die größte Gefahr für die Umwelt geht, so gesehen, von der menschlichen Freiheit aus. Denn freie Menschen, so die Vorstellung Hardins, werden in egoistischer Manier versuchen, ein möglichst großes Stück des Kuchens zu ergattern. Almbauern werden danach trachten, auf der Gemeindeweide (Allmende) den Viehbestand zu maximieren, bis kein Gras mehr wächst. Fischer werden versuchen, ihre Fangflotte und ihre Netze zu vergrößern beziehungsweise deren Maschen zu verkleinern, bis die Fischgründe leer gefischt sind.

Hardin beschreibt die Problematik in folgenden Worten: „Als rational denkendes Wesen strebt jeder Viehhalter danach, seinen Gewinn zu erhöhen, … mehr oder weniger bewusst stellt er sich die Frage: Was nützt es mir, wenn ich meiner Herde ein weiteres Stück Vieh hinzufüge. Diese Nutzung hat eine positive und eine negative Komponente.

1. Die positive Komponente besteht in der Funktion der Hinzufügung eines Stückes Vieh. Da der Viehhalter den ganzen Erlös vom Verkauf eines zusätzlichen Tieres erhält, beträgt der positive Nutzwert fast plus 1.

2. Die negative Komponente besteht in der Funktion der zusätzlichen Abgrasung durch ein weiteres Stück Vieh. Da nun die Auswirkungen des Abgrasens alle Viehhalter betreffen, beträgt der negative Nutzwert für den einzelnen Viehhalter nur einen Bruchteil von minus 1.

Wenn er die anteiligen Nutzwerte addiert, wird der rational denkende Viehhalter zu dem Schluss kommen, es sei für ihn das einzige Vernünftige, seiner Herde ein weiteres Tier hinzuzufügen und noch eins und so weiter. Aber zu diesem Schluss wird jeder rational denkende Viehhalter bei freier Nutzung der Allmende kommen, und darin liegt die Tragödie.“

Von diesen Überlegungen ausgehend, scheint die Lösung auf der Hand zu liegen: Der Geist Adam Smiths muss aus der Wirtschaft verbannt werden. Der Staat muss eingreifen und die knappen Ressourcen rationieren, zum Beispiel durch die Zuteilung oder Versteigerung einer streng begrenzten Zahl handelbarer Nutzungsrechte. Diese Hauruck-Methode liegt dem Kioto-Abkommen über die Reduktion von „Treibhausgasen“ und dem darauf aufbauenden Handel mit CO2-Emissionsrechten zugrunde.

Elinor Ostrom zeigte demgegenüber in ihrem bekanntesten Werk „Governing the Commons“, dass Almbauern, Fischer oder Wassernutzer durchaus in der Lage sind, die Verwertung ihrer Ressourcen ohne staatliche Auflagen und Eingriffe selbst zu regulieren – und zwar viel effizienter als der Staat das könnte. Weit davon entfernt, sich so stur egoistisch zu verhalten wie Hardins Modell-Strichmännchen, reden Menschen aus Fleisch und Blut, also auch Viehzüchter, Ackerbauern und Fischer nämlich miteinander, handeln gemeinsame Nutzungsregeln aus und überwachen deren Einhaltung selbst, wenn sie ein Problem auf sich zukommen sehen. Gesunder Menschenverstand ist unter einfachen Menschen offenbar viel weiter verbreitet, als es sich viele Wirtschaftstheoretiker vorstellen können. Dafür gibt es eine Fülle historischer Beispiele. Probleme der Übernutzung von Ressourcen traten meist nur in der Folge von Naturkatastrophen, Kriegen oder Revolutionen auf. Althistorikern ist zum Beispiel bekannt, dass die Versalzung von Ackerböden im Zweistromland keine unausweichliche Konsequenz Jahrtausende währender intensiver Bewässerungslandwirtschaft war, sondern die Folge von Kriegen und gesellschaftlichen Umbrüchen. In diesen Zeiten wurde die Unterhaltung der Kanäle vernachlässigt, so dass das labile Gleichgewicht zwischen Wasserzu- und –abfluss gestört wurde. Ähnlich kam es in Europa in der Regel nicht deshalb zu wiederholten Hungersnöten, weil die Menschen zu viele Kinder in die Welt setzten und zu viel aus ihren Böden herauszuholen versuchten, sondern weil die Ertragskraft der Äcker infolge der „Kleinen Eiszeit“ deutlich abnahm oder weil Konflikte wie der 30-jährige Krieg eine ordentliche Bestellung der Äcker nicht mehr zuließen.

Im Kioto-Prozess versuchen Berufspolitiker und Bürokraten diese historischen Erfahrungen in den Wind zu schlagen, indem sie von vornherein ausschließen, dass die arbeitenden Menschen Probleme ein Stück weit auf sich zukommen lassen und selbst überlegen können, wie sie Ihnen als Einzelne und als Angehörige von Kollektiven begegnen wollen. Die Menschen sollen dazu erzogen werden, ihren fünf Sinnen zu misstrauen, ihren Verstand abzuschalten und nur offiziellen Modellrechnungen Glauben zu schenken. Eine selbst ernannte Elite von Weltrettern rechnet den zu Untertanen degradierten Menschen gerade im Vorfeld der Kopenhagen-Konferenz über eine Fortschreibung und Verschärfung des Kioto-Protokolls vor, dass weltweit nur noch 750 Milliarden Tonnen CO2 in die Atmosphäre freigesetzt werden dürfen, wenn der Anstieg der bodennahen Durchschnittstemperatur auf zwei Grad Celsius begrenzt werden soll. Dieser Vorgabe sollen sich die Menschen fügen.

Um uneinsichtige Erdbürger gefügig zu machen, gilt der Handel mit rationierten Emissionsrechten als Mittel der Wahl. Gegenüber dem spontanen Aushandeln von Regeln der Ressourcennutzung vor Ort zeichnet sich der Handel mit „heißer Luft“ durch maximale Intransparenz aus. Er wird im Unterschied zu den bewährten Formen lokaler Selbstorganisation mit ziemlicher Sicherheit nicht die an ihn geknüpften offiziellen Erwartungen erfüllen, sondern vor allem eines bewirken: eine gigantische Umverteilung von Geldern von unten nach oben, d.h. in die Kassen eines internationalen Finanzkartells. Um dessen Interessen und nicht um das (ohnehin nicht definierbare) Weltklima geht es offenbar beim „Klimaschutz“. Elinor Ostroms starkes Plädoyer für die Anwendung des Subsidiaritätsprinzips beim Ressourcenschutz könnte durchaus helfen, diesen Schwindel auffliegen zu lassen.

Auch die Arbeiten Oliver Williamsons liegen, soweit ich das einschätzen kann, nicht gerade auf der Linie des derzeitigen Mainstreams rein theoretischer Modellspielereien, sondern beschäftigen sich mit konkreten Problemen der Corporate Governance. So zum Beispiel mit dem Problem der Transaktionskosten in Unternehmer-Netzwerken und der damit zusammenhängenden Frage nach der geeigneten Unternehmensgröße in Abhängigkeit vom jeweils gewählten Geschäftsmodell. Auch mit der oft überlebenswichtigen Entscheidung für oder wider den Aufbau eigener Entwicklungsabteilungen hat sich Williamson auf undogmatische Weise beschäftigt. Wie Ostrom geht auch er davon aus, dass der Markt beim Versuch, Probleme der Ressourcenknappheit zu lösen, nicht vergötzt werden darf. Beide begreifen den Markt vielmehr als eine Institution neben anderen, die sich im Laufe der Geschichte bewährt haben. Gerade damit rücken sie in die Nähe der österreichischen Schule der Politischen Ökonomie mit dem Wirtschaftsnobelpreisträger Friedrich August von Hayek und der Public Choice Theorie von Wirtschaftsnobelpreisträger James Buchanan. Denn die österreichische Schule hat sich, aufbauend auf der subjektiven Wertlehre, nie mit Modellmenschen wie dem berühmt-berüchtigten Konstrukt Homo oeconomicus beschäftigt, sondern mit den mehr oder weniger vernünftigen Entscheidungen von Individuen mit Leib und Seele. (veröffentlicht in: WirtschaftsBild 59. Jg. November 2009)

Internet:

Die Tragik der Allmende

Wofür Ostrom und Williamson geehrt wurden

Literatur:

Garret Hardin: The Tragedy of the Commons. In: Science. 162/1968. S. 1243-1248 (deutsch in: Michael Lohmann (Hrsg.): Gefährdete Zukunft. Hanser, München 1970, S. 30-48 und dtv Bd. 920, München 1973, S. 29-46)

Elinor Ostrom: Governing the Commons: The Evolution of Institutions for Collective Action. Cambridge University Press, Cambridge 1990, ISBN 0-521-40599-8, deutsch.: Die Verfassung der Allmende. Mohr, Tübingen 1999, ISBN 3-161-46916-X

=================================================================================

Ein Nobelpreis für nichts? von Edgar L. Gärtner

Vermutlich bekommt Barack Obama den Friedensnobelpreis nicht unbedacht

Nachdem bereits Polit-Gauner wie Yassir Arafat und Al Gore mit der begehrten Auszeichnung bedacht wurden, konnte man sich kaum noch vorstellen, dass es dem Osloer Nobel-Komitee noch gelingen würde, seine Fehlentscheidungen noch zu toppen. Doch mit der Wahl des 44. US-Präsidenten Barack Hussein Obama zum diesjährigen Träger des Friedensnobelpreises scheint das den Juroren gelungen. Denn um jetzt ausgezeichnet zu werden, muss Obama bereits am 1. Februar 2009, kaum 12 Tage im Amt, auf der Kandidatenliste für den Preis gestanden haben. Selbst Anhänger Obamas diesseits und jenseits des Atlantik gaben sich daher höchst verwundert über die Entscheidung des Osloer Komitees. Einige Freunde haben Obama nahegelegt, den Preis abzulehnen. Der Ausgezeichnete selbst konnte sich der Lächerlichkeit nur durch ein Lippenbekenntnis zur Demut entziehen.

Kaum jemand behauptet, Obama habe die Auszeichnung verdient. Über Versprechen und Ankündigungen sind seine Friedensinitiativen bisher in der Tat nicht hinausgelangt. Vielmehr wurde ein neuer, die vorsorgliche Kapitulation des Westens nicht ausschließender Ton in der US-Außenpolitik mit Vorschuss-Lorbeeren bedacht. Obamas Freunde fürchten (wohl nicht zu Unrecht), diese Lorbeeren könnten schon bald zur Hypothek der gerade erst begonnenen Amtszeit ihres Lieblings werden. „Mehr Bürde als Ehre“, überschreibt Obama-Fan Claus Christian Malzahn seinen Kommentar auf SPIEGEL-online.

Worum es dem Osloer Nobel-Komitee wohl in Wirklichkeit ging, offenbart ein Vergleich zwischen Obama und der Frau, die genau 30 Jahre vor ihm mit dem Friedensnobelpreis ausgezeichnet wurde: Mutter Teresa. In ihrer noch heute zu Tränen rührenden Dankesrede erklärte die inzwischen selig gesprochene, wenn auch nach wie vor umstrittene katholische Ordensschwester am 10. Dezember 1979 in Oslo: „Der größte Zerstörer des Friedens ist heute der Schrei des unschuldigen, ungeborenen Kindes. Wenn eine Mutter ihr eigenes Kind in ihrem eigenen Schoß ermorden kann, was für ein schlimmeres verbrechen gibt es dann noch, als wenn wir uns gegenseitig umbringen?“ Eine der ersten Amtshandlungen des 44. US-Präsidenten bestand demgegenüber darin, ein Gesetz außer Kraft zu setzen, das es der US-Regierung verbot, Entwicklungshilfeleistungen an Empfängnisverhütungs- und Abtreibungs-Kampagnen zu koppeln. So gesehen, erscheint die diesjährige Entscheidung des Nobel-Komitees als durchaus gewollte Korrektur der Wahl, die es vor drei Jahrzehnten traf. Obama bekommt den Nobelpreis also nicht für nichts, sondern für das Nichts, für praktizierten Nihilismus, der in den vergangenen Jahrzehnten unter Synonymen wie „Null-Emission“, „Nachhaltigkeit“ und „Klimaschutz“ die Weltarena erobert hat. (10. Oktober 2009)

Internet:

Obama schon nach 12 Tagen Amtszeit in der engeren Auswahl

Mehr Bürde als Ehre

Mutter Teresa bei der Entgegennahme des Friedensnobelpreises 1979

================================================================================

Der größte Mensch, der je gelebt hat, erntet Undank

Dankbarkeit scheint in der heutigen Welt, in der so vieles knapp wird, zu einer der seltensten Gemütsregungen zu werden. In meiner frühen Kindheit in der Nachkriegszeit war es noch keineswegs selbstverständlich, dass zu den Mahlzeiten immer genügend Essen auf dem Tisch stand. Deshalb empfand ich es, auch ohne den Katechismus gepaukt zu haben, als selbstverständlich, dass jedes Essen mit einem Dankesgebet begann. Heute gilt das tägliche Brot den Bürgern von Wohlfahrtsstaaten als „Commodity“, auf die sie einfach einen Anspruch haben. Man bittet nicht darum und dankt auch niemandem dafür. Erst recht verschwendet man keinen Gedanken an die menschlichen Leistungen und institutionellen Bedingungen, denen wir unsere Nahrungsmittelüberschüsse verdanken.

„Undank ist der Welten Lohn“, lautet ein oft zitierter Spruch. Auch Norman Borlaug, der als Vater der „Grünen Revolution“ 1970 mit dem Friedensnobelpreis geehrt wurde und am 12. September 2009 in Dallas/Texas im biblischen Alter von 95 Jahren an Krebs gestorben ist, kannte wahrscheinlich diesen Spruch beziehungsweise dessen amerikanische Entsprechung. So hat er sich wohl nicht sonderlich darüber geärgert, dass sein Name am Ende seines langen, erfüllten Lebens sowohl in seiner amerikanischen Heimat als auch in Europa beinahe in Vergessenheit geraten war. Die Auskünfte, die die Online-Enzyklopädie Wikipedia über ihn gibt, passen bequem auf eine Druckseite. Und doch galt dieser Mann, in den Worten des bekannten US-Comedian Penn Jilette, einmal als „der größte Mensch, der je gelebt hat.“ Nach Jesus Christus, sollte man wohl hinzufügen. Aber dieser war ja nicht nur Mensch, sondern Gottessohn. Das US-Magazin „Atlantik Monthly“ schätzte 1999, dass Borlaug durch die Züchtung widerstandsfähiger Hochleistungs-Getreidesorten nicht weniger als eine Milliarde Menschenleben gerettet hat.

Norman Ernest Borlaug wurde 1914 als Sohn eines kleinen Farmers in Iowa geboren. Nach dem Studium der Agrarwissenschaften arbeitete er zunächst im Forschungslabor der DuPont de Nemours Foundation und fand dann 1943 einen Job in einem kleinen Pflanzenzüchtungsinstitut der Rockefeller Foundation in Mexiko. Dank Borlaugs bahnbrechenden Erfolgen bei der Züchtung neuer Getreidesorten wuchs dieses Institut zum Internationalen Mais- und Weizen-Zentrum CIMMYT von Weltbedeutung heran. Borlaugs Erfolgsserie begann mit der Einkreuzung eines von einer japanischen Weizensorte stammenden Zwergwuchs-Gens in mexikanischen Weizen. Nach weiteren geduldigen Kreuzungsversuchen entstand eine robuste Hochleistungssorte, deren kurze, kräftige Halme besonders schwere Ähren tragen konnten. Seit 1962 wird dieser Weizen in Indien angebaut. Innerhalb eines einzigen Jahrzehnts stiegen die landwirtschaftlichen Erträge auf dem zuvor von chronischen Hungersnöten geplagten Subkontinent Dank des besseren Saatguts auf fast das Dreifache. Das Land wurde zum Weizenexporteur. Später erzielte Borlaug in China ähnliche Erfolge mit Reis.

Vor allem Dank dieser „Grünen Revolution“ stieg die Kalorienaufnahme je Kopf der Weltbevölkerung zwischen 1965 und 2005 von 2.065 auf 2.798. Trotz der in diesem Zeitraum abgelaufenen Bevölkerungsexplosion konnte die Welternährungsorganisation FAO den Hunger im Jahre 2006 für beinahe besiegt erklären. Seither hat sich die Situation aus ganz anderen Gründen leider wieder verschlechtert. Jedenfalls war Borlaugs Landsmann Paul Ehrlich, der die Welt 1968 in seinem Bestseller „Die Bevölkerungsbombe“ mit düsteren Prognosen in Angst und Schrecken versetzt hatte, von der Wirklichkeit gründlich widerlegt worden.

Doch beeinflussten Ehrlichs Weltuntergangs-Prognosen und nicht die 1970 mit dem Friedensnobelpreis gekrönte erfolgreiche Arbeit Borlaugs seit den 70er Jahren mehr und mehr die öffentliche Meinung. Borlaug hätte später nicht mehr die geringste Chance gehabt, mit einem Nobelpreis geehrt zu werden. Stattdessen musste er sich immer häufiger wegducken, um nichts von den Schmutzkübeln abzubekommen, die „grüne“ Misantropen über ihm ausgossen. Diese warfen ihm vor, die Bauern in die Anhängigkeit der Saatgut-, Pestizid- und Kunstdüngerkonzerne zu treiben und eine Klimakatastrophe heraufzubeschwören. In Indien versuchte die Oberkasten-Angehörige Vandana Shiva den armen Bauern die Anwendung von Hochleistungs-Saatgut auszureden, insbesondere solches, das mithilfe der Gentechnik erzeugt wurde.

Norman Borlaug hat sich im „Unruhestand“ in der Tat ganz selbstverständlich für die Grüne Gentechnik stark gemacht, weil er auch darin einen viel versprechenden Weg sah, die weiter wachsende Weltbevölkerung auf der vorhandenen Ackerfläche zu ernähren. Wäre es in der Nachkriegszeit nicht zu den zitierten Produktivitätssteigerungen gekommen, rechnete er vor, hätten längst die letzten Wälder der Erde in Äcker verwandelt werden müssen. Er befürwortete die Grüne Gentechnik gerade auch aus Gründen des Naturschutzes. Doch damit konnte er sich in seinen letzten Lebensjahren keine Sympathie erwerben.

Nahe liegender Schluss: Wer heute auf den Friedensnobelpreis aus ist, der sollte es tunlichst vermeiden, etwas für die Menschen Nützliches zu erfinden. Als nobelpreiswürdig gelten vielmehr Studien, die den Menschen Angst und Schuldkomplexe einjagen. Das zeigt die Ehrung Al Gores und des „Weltklimarates“ IPCC vor zwei Jahren. Als besonders aussichtsreich erscheinen heute Studien, die zeigen, dass es für das Weltklima besser ist, die Menschheit zu verkleinern als sich um die Ernährung der weiter wachsenden Menschenzahl zu kümmern. Studien, die aufzeigen, wie die Menschen mithilfe ihres Erfindergeistes sich an wärmere oder kühlere Zeiten anpassen können, haben eine schlechte Presse. Dank Norman Borlaug hatte Paul Ehrlich mit seiner Prognose zum Glück nicht recht. George Orwell dagegen leider doch.

Internet:

Norman Ernest Borlaug auf Wikipedia

Michael Miersch über den Mann, der Millionen Menschenleben rettete

Gregg Easterbrook about the Man who defused the ‚Population Bomb’

Paul Driessen: Adapting to climate change through technology

Contraception cheapest way to combat climate change

(4. Oktober 2009)

===========================================================================

Deutsche Waldwirtschaft auf dem Wege zur Nachhaltigkeit?

Etwa ein Vierteljahrhundert ist es nun her, da schienen die Tage des deutschen Waldes gezählt. Im Schwarzwald und in anderen deutschen, ostfranzösischen und schweizerischen Mittelgebirgen war Förstern und Spaziergängern eine Häufung vergilbter und kahler Nadelbäume ins Auge gesprungen. Da bekannte Ursachen der Austrocknung von Baumkronen wie etwa die Verbreitung des Borkenkäfers ausschieden, belegte die Bürokratie das Syndrom kurzerhand mit dem wenig phantasievollen Begriff „neuartige Waldschäden“. Umso mehr Phantasie entwickelte dagegen die seit der Gründung der Partei „Die Grünen“ im Jahre 1980 erstarkte Öko-Bewegung. „Erst stirbt der Wald, dann der Mensch“, sagt ein Sprichwort, von dem man nicht genau weiß, ob es schon älter ist oder eigens erfunden wurde, um auf das „Waldsterben“ als vermeintlich objektive Begründung der in Deutschland sich ausbreitenden Endzeitstimmung aufmerksam zu machen. Verschiedene Naturschutzverbände und Bürgerinitiativen hatten diesen Spruch im Herbst 1983 auf einer „Aktionskonferenz gegen das Waldsterben“ in Freudenstadt im Schwarzwald aufgegriffen und dafür gesorgt, dass die an die Wand gemalte Gefahr eines „ökologischen Holocaust“ zum dominierenden Thema des damals gerade laufenden Bundestagswahlkampfes wurde.

Schon 1981 hatte der Göttinger Bodenkundler Bernhard Ulrich prophezeit, in spätestens fünf Jahren würden ganze Wälder absterben. Der Hauptgrund dafür sei der „saure Regen“ infolge des massiven Ausstoßes von giftigem Schwefeldioxid (SO2) durch die hohen Schornsteine von Kohlekraftwerken. Das Schreckensbild kahler deutscher Mittelgebirge, bedeckt von eintönigen Grasflächen, in der kein Baum mehr Wurzeln fasst und kaum noch ein Vogel singt, schien in rasendem Tempo von der Wirklichkeit eingeholt zu werden. In den Kammlagen des Erzgebirges, an der Grenze zwischen den heute schon beinahe vergessenen sozialistischen Volksrepubliken DDR und CSSR, konnten die wenigen, die damals dorthin kamen, diese Zukunft bereits besichtigen. Doch das Absterben ganzer Baumbestände hatte dort greifbare Ursachen. Sozialistische Mangelwirtschaft hatte dazu geführt, dass große Kohlekraftwerke ihren Rauch völlig ungefiltert in Rübezahls Heimat bliesen.

Die im Westen beobachteten Symptome erwiesen sich als vorübergehend und hatten mit der großflächigen Waldzerstörung im Osten nichts zu tun. Das belegten in den folgenden Jahren vor allem schweizerische und französische Fortwissenschaftler, während ihre deutschen Kollegen mit der bürokratischen Zeremonie der jährlichen Waldschadenserhebung fortfuhren. Es gelang einer Initiative von privaten Waldbesitzern und Umweltverbänden, die vom Staat Schadensersatz für forstwirtschaftliche Ertragsausfälle durch das „Waldsterben“ gefordert hatte, nicht zu belegen, dass sich der Zuwachs der Holzvorräte in Deutschland verlangsamte. Wie auch: Die in größeren Abständen durchgeführten Bundeswaldinventuren zeigten, dass sich das Baumwachstum im Gegenteil beinahe explosionsartig beschleunigte. Die Förster mussten die ihren Planungen zugrunde liegenden Ertragstafeln deutlich nach oben korrigieren.

Die Bundeswaldinventur von 2004 förderte zutage, dass Deutschland heute mit fast 3,4 Milliarden Kubikmetern über die mit Abstand größten Holzvorräte in Europa verfügt. Es stellt damit selbst die „klassischen“ Waldländer Finnland und Schweden in den Schatten. Seit 1960 hat die Waldfläche in Deutschland im Schnitt in jedem Jahr um 10.000 Hektar zugenommen. Ob die Ende Februar 1983 eilig verabschiedete Großfeuerungsanlagen Verordnung bzw. der darin vorgeschriebene Bau riesiger Rachgasentschwefelungsanlagen dazu nennenswert beigetragen hat, blieb höchst umstritten. Jedenfalls wachsen bei uns heute in jedem Jahr auf jedem Hektar Wald mehr als 12, auf dem „grünen Drittel“ (d.h. etwa 31 Prozent) Deutschlands also insgesamt über 120 Millionen Kubikmeter Holz nach. Davon wird bislang nur etwas mehr als die Hälfte wirtschaftlich genutzt. Erheblich mehr, nämlich etwa 80 Millionen Kubikmeter, gilt aber als problemlos nutzbar.

Die deutsche Forstwirtschaft entspricht also formal durchaus dem Kriterium der Nachhaltigkeit, nicht mehr Holz zu schlagen als nachwächst und verfügt sogar noch über einen beträchtlichen Sicherheitsabstand. Dieser Abstand ist erst in jüngster Zeit durch die verstärkte Nutzung von Brennholz kleiner geworden. Hintergrund ist der starke Anstieg der Heizöl- und Gaspreise. Bei der Brennholzgewinnung auf eigene Faust kommt es nicht selten auch zu Freveltaten wie dem Fällen von kräftigen Randbäumen, die für den Windschutz von Baumbeständen wichtig sind. Alles in allem kann sich die deutsche Waldwirtschaft heute aber zu recht rühmen, das zu beherzigen, was der sächsische Oberberghauptmann Carl von Carlowitz, stark beeinflusst von der Romantik, schon im Jahre 1713 in seiner „Sylvicultura oeconomica“ forderte, nämlich „den Anbau des Holzes so anzustellen, dass es eine continuierliche, beständige, nachhaltige Nutzung gebe.“

Bis zur systematischen Umsetzung dieser Forderung ging aber noch mehr als ein Jahrhundert ins Land. Das ganze 18. Jahrhundert war gekennzeichnet durch einen sich zuspitzenden Holzmangel – eine Folge Jahrhunderte währender Übernutzung des Waldes als Brennholz-, Baumaterial- und Streulieferant sowie als Viehweide. Es war paradoxerweise die im 19. Jahrhundert mit der Erfindung der Dampfmaschine einsetzende industrielle Revolution, die den deutschen Wald vor dem weiteren Niedergang rettete. Dampfgetriebene Pumpen und Aufzüge machten den Kohlebergbau in großem Stil möglich. Durch den zunehmenden Einsatz von Kohle als Brennmaterial sank der Brennholzbedarf. Die aufkommenden Industrien benötigten statt des Knüppelholzes, das die heruntergekommenen Wälder vielerorts gerade noch lieferten, jede Menge gutes Stammholz. So brauchte man z.B. für den Bau der ersten Eisenbahnen ironischerweise doppelt so viel Holz wie Eisen.

Die Holzproduktion konnte nicht mehr dem Zufall überlassen bleiben, sondern musste so weit wie möglich auf eine rationale betriebswirtschaftliche Grundlage gestellt werden. Zu den noch heute zitierten Begründern der wissenschaftlichen Forstbetriebslehre zählen Heinrich Cotta, der in Tharandt bei Dresden lehrte, und der preußische Oberlandforstmeister Georg Ludwig Hartig, der in Berlin wirkte. Anders als von Carlowitz waren diese weniger von der Romantik als vielmehr von den liberalen Ideen des schottischen Moralphilosophen Adam Smith, dem Begründer der Nationalökonomie, beeinflusst. Um eine Nation auf den Weg zum Wohlstand zu führen, kommt es danach lediglich darauf an, dem Gewinnstreben und dem gesunden Menschenverstand der Einzelnen freien Lauf zu lassen. „Denn“, so Smith, „verfolgt er sein eigenes Interesse, so fördert er das der Gesellschaft weit wirksamer, als wenn er dieses wirklich zu fördern beabsichtigte.“

Smith hatte in seiner „Untersuchung über Wesen und Ursachen des Reichtums der Nationen“ (1776) hergeleitet, dass Arbeit, Kapital und Boden ebenbürtige Quellen für Lohn, Zins und Rente sind. Als Kapital der Forstwirtschaft erscheint danach der Holzvorrat lebender Bäume, als dessen Zinsen der jährliche Zuwachs. Folglich müsse die Forstwirtschaft danach trachten, von den Zinsen zu leben und ihr Kapital zu pflegen und zu mehren. Während Cotta in seiner „Bodenreinertragslehre“ den Nutzen forstwirtschaftlicher Investitionen allein aus der erforderlichen Umtriebszeit errechnete und somit der Kahlschlagswirtschaft mit schnell wachsenden Baumarten wie Pappeln, Fichten oder Kiefern Vorschub leistete, legte Hartig in seiner „Waldreinertragslehre“ mehr Gewicht auf die längerfristige Entwicklung des Überschusses der Einnahmen über die Ausgaben der Betriebe. Dadurch schlugen auch die deutlich höheren Verkaufspreise langsam wachsender Buchen und Eichen sowie die größere Widerstandsfähigkeit von Mischwäldern gegenüber Stürmen und Schädlingsbefall positiv zu Buche. So wurde Hartig zum eigentlichen Vater der auf Nachhaltigkeit bedachten Forstbetriebslehre.

Hartig riet den Förstern im Jahre 1795: „Jede weise Forstdirektion muss daher die Waldungen … ohne Zeitverlust taxieren lassen, und sie zwar so hoch als möglich, doch zu nutzen suchen, dass die Nachkommenschaft wenigstens ebenso viel Vorteil daraus ziehen kann, als sich die jetzt lebende Generation zueignet.“ An diesem Verständnis von Nachhaltigkeit knüpfte 1987 die UN-Kommission für Umwelt und Entwicklung (Brundtland-Kommission)an, wobei sie allerdings nicht klärte, wieweit das betriebswirtschaftliche Konzept überhaupt auf gesellschaftliche Entwicklungen außerhalb der Forstwirtschaft sinnvoll anwendbar ist. Als nachhaltig definierte die Kommission eine „Entwicklung, die den Bedürfnissen der heutigen Generation entspricht, ohne die Möglichkeiten künftiger Generationen zu gefährden, ihre eigenen Bedürfnisse zu befriedigen und ihren Lebensstil zu wählen.“ Im Jahre 1992 wurde diese Definition auf dem „Erd-Gipfel“ von Rio de Janeiro von allen vertretenen Staaten einstimmig als weltweit gültiges Leitbild angenommen. Im Jahre 2007 schließlich verabschiedete die UN-Vollversammlung in New York ein spezielles Waldabkommen, das die Erhaltung der Wälder durch die in Richtung von Schutzzonen und eine nachhaltige Bewirtschaftung fordert.

Um dieses Leitbild in der Waldwirtschaft umsetzen zu können, müssen vor allem die Eigentumsverhältnisse geklärt sein, was in vielen Gegenden der Welt bis heute leider nicht der Fall ist. Nicht zufällig befinden sich heute unsere schönsten Mischwälder mit den ältesten Bäumen und den größten Holzvorräten seit Jahrhunderten im Besitz adliger Familien, während die Pflege von Staatswäldern nicht selten kurzfristigen kriegs- oder devisenwirtschaftlichen Interessen geopfert wurde. Deshalb gelten inhabergeführte Familienbetriebe zu Recht als das Rückgrat einer am Leitbild der Nachhaltigkeit orientierten Forst- und Holzwirtschaft. In Deutschland erzielten im Jahre 2004 insgesamt 185.000 Betriebe der Forst- und Holzwirtschaft (einschließlich der Papierverarbeitung und des Druckereigewerbes) einen Jahresumsatz von über 180 Milliarden Euro und beschäftigten mehr als 1,3 Milliarden Menschen. Das sind nach EU-Kriterien mehr als in der Automobilindustrie!

In der EU gelten die sechs allgemeinen Kriterien für eine nachhaltige Waldwirtschaft, die die europäische Ministerkonferenz zum Schutz der Wälder im Jahre 1993 in Helsinki beschlossen hat. In Deutschland werden diese Kriterien durch die Waldgesetze des Bundes und der Länder sowie in Form freiwilliger Zertifizierungen umgesetzt. Dabei konkurrieren zurzeit zwei Systeme: das Programme for the Endorsement of Forest Certification Schemes (PEFC) und das etwas strengere System des Forest Stewardship Council (FSC). Rund 65 Prozent (über 7 Millionen Hektar) der deutschen Waldfläche wurden nach dem PEFC-System zertifiziert. Den konkurrierenden FSC-Kriterien entsprechen zurzeit weniger als 600.000 Hektar.

Das deutet an, dass auch in Deutschland durchaus noch einiges zu tun bleibt, um den Leitbild der Nachhaltigkeit noch näher zu kommen. Zum Beispiel ist der Anteil der Nadelwälder mit 59 Prozent noch immer deutlich größer, als es im Sinne der Steigerung der Widerstandsfähigkeit gegenüber Witterungsunbilden, Krankheiten und Schädlingsbefall wünschenswert erscheint. Der begonnene Umbau des deutschen Waldes in Richtung auf eine stabilere Baumartenzusammensetzung wird wohl noch Jahrzehnte in Anspruch nehmen. Dabei sind Rückschläge nicht ausgeschlossen. Erfahrene Förster wissen wie die Gärtner und die Bauern, dass sie sich nie zu früh freuen dürfen…

Edgar Gärtner (erschienen in: WirtschaftsBild 58.Jg. August 2008, UBG Rheinbach)

Ist REACh bereits am Ende?

Mitten in der schwersten Wirtschaftskrise der Nachkriegszeit müssen viele Unternehmen erhebliche Kosten für die Umsetzung von REACh aufwenden. Doch kaum ein Beteiligter hat den Eindruck, das bringe einen Nutzen. Nun warnt ein Toxikologe vor dem vorzeitigen Scheitern des ehrgeizigen Unterfangens wegen eines zu hohen Versuchstierbedarfs. Vielleicht ist das eine Chance für alternative Testverfahren.

Chemiepolitik: Steht REACh schon vor dem Aus?

Wie alle Toxikologen gehört auch der aus Konstanz am Bodensee stammende und nun an der John Hopkins Universität in Baltimore/Maryland lehrende Professor Thomas Hartung, ein Pionier der Suche nach tierversuchsfreien Methoden zur Prüfung der Chemikaliensicherheit, grundsätzlich zu den glühenden Befürworten der Verbesserung des Verbraucherschutzes durch die systematische toxikologische Prüfung aller „Altstoffe“ mithilfe der EU-Chemikalienverordnung REACh. Doch Ende August 2009 warnte Hartung zusammen mit der italienischen Chemikerin Constanza Rovida in einem Meinungsbeitrag unter dem Titel „Chemical regulators have overreached“ im britischen Wissenschaftsmagazin „Nature“ (Vol. 460/27 August 2009) eindringlich vor einer Fortsetzung des mit REACh eingeschlagenen Weges. Die beiden beziehen sich darin auf eine von ihnen durchgeführte detaillierte Abschätzung des Testbedarfs, die zur gleichen Zeit im Fachorgan „ALTEX“ (Jahrgang 26) erschien. Hartung, der als Erfinder eines tierfreien Pyrogentests und als Leiter des europäischen Zentrums für Alternativen zu Tierversuchen ECVAM in Ispra am Lago Maggiore bekannt geworden ist, hält der EU vor, den zweiten Schritt vor dem ersten getan zu haben, indem sie (implizit) eine Riesenzahl aufwändiger Stoffprüfungen vorschrieb, ohne über einigermaßen zuverlässige Hochdurchsatz-Prüfmethoden zu verfügen.

Die EU-Kommission war bei der Abschätzung der Kosten von REACh davon ausgegangen, dass bis Ende 2008 etwa 27.000 Firmen etwa 180.000 Vorregistrierungen für ungefähr 30.000 Stoffe bei der ECHA in Helsinki einreichen würden. Bekanntlich sandten stattdessen 65.000 Unternehmen insgesamt 2,75 Millionen Vorregistrierungen von fast 150.000 Subtanzen nach Helsinki. Nach einer ersten Bereinigung blieben in diesem Jahr immerhin 143.835 Substanzen auf der ECHA-Liste, davon 54.686 mit einem Produktionsvolumen von über 1.000 Jahrestonnen. Diese müssten schon bis Ende 2010 registriert sein, was kaum vorstellbar ist. Die Europäische Chemikalienagentur ECHA in Helsinki geht davon aus, dass die unerwartet hohe Zahl von Vorregistrierungen durch Fehler der Anmelder (siehe Kasten) zustande gekommen ist. Wie in der zur Verfügung stehenden kurzen Zeit die Spreu vom Weizen getrennt werden kann, ist aber noch immer nicht ersichtlich.

Nach den Schätzungen der ECHA müssten bis Ende 2010 statt über 50.000 „nur“ etwa 8.700 Substanzen (davon 3.500 bekannte „Großstoffe“, die höchsten Testanforderungen unterliegen, plus eine noch unbekannte Zahl von „Problemstoffen“, die verdächtigt werden, krebserregend, erbgutschädigend, reproduktionstoxisch oder besonders umweltbelastend zu sein) samt einer Liste vorgeschlagener Tierversuche registriert werden. Nur bei einem kleinen Teil der betroffenen „Großstoffe“ dürften die bereits vorhandenen Daten für die Registrierung ausreichen. In den meisten Fällen bleibt offen, wie die nötigen Tierversuchsdaten in der bleibenden kurzen Zeitspanne generiert werden können. Als Flaschenhals erweist sich die vorgeschriebene Untersuchung der Reproduktionstoxizität, die nach den bislang gültigen Vorschriften in Zwei-Generationen-Studien an Ratten getestet werden muss. Jeder Zwei-Generationen-Test kostet über 300.000 Euro und nimmt fast zwei Jahre in Anspruch. In den vergangenen 28 Jahren wurden in Europa jährlich nur etwa zwei bis drei Stoffe so aufwändig gestestet. Hartung und Rovida schätzen, nun müssten jedes Jahr einige Hundert solcher Tests durchgeführt werden. Dafür gebe es bei weitem nicht genügend Laborkapazitäten und erst recht nicht genug Toxikologen.

Nach Ansicht Hartungs und Rovidas geht die starke Unterschätzung des Testaufwandes durch die EU-Kommission vor allem darauf zurück, dass ihr Produktionsdaten der Jahre 1991 bis 1994 zugrunde liegen, das heißt aus einer Zeit, in der die EU lediglich 12 Mitgliedsstaaten zählte. Seither habe sich aber das Produktionsvolumen der chemischen Industrie im alten Europa mehr als verdoppelt und sei durch die Erweiterung der EU durch osteuropäische Länder mit bedeutenden Kapazitäten in der Grundstoffchemie zusätzlich gewachsen. Selbst wenn man wie die ECHA annehme, dass die Zahl der vorregistrierten Stoffe durch Mehrfachmeldungen oder die vorsorgliche Anmeldung des ganzen EINECS-Altstoffregisters (aus Angst, den Marktzugang zu verlieren) künstlich aufgebläht wurde, müsse man realistisch von einer mittleren Zahl von 68.000 Stoffen ausgehen, die unter REACh fallen – zumal der Geltungsbereich von REACh in der Rangelei kurz vor der Verabschiedung der Verordnung auch noch auf Zwischenprodukte ausgedehnt wurde. Auch unter sehr optimistischen Annahmen wie der Anwendung computerbasierter Testmethoden wie (Q)SAR und der Vermeidung von Testwiederholungen gelange man zu einem Bedarf von mindestens 54 Millionen Wirbeltieren und einem finanziellen Aufwand von 9,5 Milliarden Euro in den kommenden zehn Jahren. Das ist das Sechsfache der von der EU-Kommission offiziell geschätzten Kosten! Zum Vergleich: Bislang wurden in der EU jedes Jahr etwa 900.000 Versuchstiere für die Prüfung neuer Chemikalien „verbraucht“, was die Industrie etwa 600 Millionen Euro kostete.

Die ECHA hat, wie erwartet, sofort in Form einer umfangreichen Pressemitteilung auf den in „Nature“ veröffentlichten Warnruf reagiert. Sie geht darin von 34.000 von REACh betroffenen Stoffen aus und beharrt auf der offiziellen Schätzung von 9 Millionen Versuchstieren und Kosten in Höhe von 1,3 Milliarden Euro. Sie verweist dabei auf eine Auftragsarbeit des deutschen Bundesinstituts für Risikobewertung (BfR) aus dem Jahre 2004 (T. Höfer und andere). Darin war allerdings ein fünfmal höherer Versuchstierbedarf nicht ausgeschlossen worden.

Prof. Hartung wies die Kritik seitens der ECHA gegenüber der CR zurück, indem er betonte: „Es geht uns nicht primär um den Tierschutz oder um die hohen Kosten der Tierversuche, sondern um die Durchführbarkeit von REACh. Wir möchten darauf hinweisen, dass REACh in der jetzigen Form in eine Sackgasse führt, die nur durch einen anderen Ansatz vermieden werden kann.“ Werde nur jeder der von der ECHA geschätzten 3.500 „Großstoffe“ nach den OECD-Vorschriften TG 414 und 416 getestet, entstehe bereits ein Bedarf von 13 Millionen Versuchstieren, deren Kosten mit 1,4 Milliarden Euro veranschlagt werden könnten. Schon dadurch werde also der für das Gesamtprojekt offiziell geschätzte Kostenrahmen gesprengt. Der Aufwand für die Prüfung der unbekannten Zahl besorgniserregender Chemikalien niedrigerer Tonnage (CMR-Stoffe und besonders umweltbelastende Stoffe) ist dabei gar nicht berücksichtigt.

Da aber schon bei der Prüfung bekannter „Großstoffe“ mit Sicherheit viele falsch positive Befunde auftauchen werden und es kaum denkbar sei, allein deshalb bewährte Allerweltschemikalien aus dem Verkehr zu ziehen, sieht Hartung hier die Chance für einen Neuansatz in der Toxikologie. In einem Aufsatz in „Nature“ (Vol 460/9 July 2009) hat er skizziert, wie er sich die Toxikologie des 21. Jahrhunderts vorstellt. Dass die Aussagekraft von Tierversuchen zu wünschen übrig lässt, ist Fachleuten schon lange bekannt. Bei Zwei-Generationen-Tests muss mit über 60 Prozent falsch positiven Befunden gerechnet werden. Dennoch erwies es sich in den vergangenen vier Jahrzehnten als unmöglich, die Testverfahren auf der Basis der Verabreichung hoher Dosen der Prüfsubstanzen an Nagern (vor allem Ratten) zu verändern, sobald sie einmal in einem mühsamen internationalen Abstimmungsverfahren standardisiert waren, weil die Industrie darauf achten musste, ihre Produkte überall auf der Welt vermarkten zu können.

REACh biete nun die Chance, alternative Testverfahren weltweit durchzusetzen, zumal die US National Academy of Sciences und die US-Umweltagentur EPA, die ein ähnliches Regelwerk wie REACh anstreben, in einem 2007 erschienen Report eine Kombination verschiedener In-vitro-Tests anstelle klassischer Tierversuche empfehlen. In ihrem Tox Cast Programm verspricht sich die EPA viel von Tests an Zellkulturen, darunter insbesondere an menschlichen Stammzellen, von der Anwendung biotechnischer und bioinformatischer Auswertungsmethoden sowie von Genomik und Proteonomik. Diese ermöglichen die Entwicklung computerisierter Hochdurchsatz-Verfahren, mit deren Hilfe gezielt nach bekannten „Signaturen“ toxischer Effekte gesucht werden kann.

Thomas Hartung versteht seine Warnung nicht als Ruf nach einem REACh-Moratorium. Es gehe lediglich darum, REACh entsprechend den neuesten Erkenntnissen der Forschung nachzubessern. Nur einer von 17 verschiedenen Tier-Tests, der allerdings 90 Prozent des Versuchstierbedarfs verursacht, müsse ersetzt werden. Ohnehin stehe zurzeit in der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) die Entscheidung über die Zulassung des erweiterten Ein-Generationen-Tests anstelle des Zwei-Generationen-Tests der Reproduktionstoxizität (TG 416) an. Allein dadurch könne ein Fünftel der Versuchstiere eingespart werden. Hartung gibt sich hier optimistisch: „Die Gesetzgebung ist sperrangelweit offen für solche Änderungen. Meine Hoffnung: Problem erkannt – Problem gebannt.“

Edgar L. Gärtner (veröffentlicht am 9. Oktober 2009 in: Chemische Rundschau Nr. 10/2009, VS-Medien, CH-Solothurn)

KASTEN: Durcheinander in den SIEF

Kaum dass sie ihre Vorregistrierung nach einigen Geduldsproben über REACH-IT nach Helsinki übermittelt hatten, erhielten viele der zuständigen Mitarbeiter von Unternehmen eine Flut von e-Mails, in denen sich Consulting-Firmen unter allen möglichen Fantasie-Namen als SIEF Facilators (SFF) aufdrängten, aber nach einiger Zeit nichts mehr von sich hören ließen – offenbar, weil sie merkten, dass für sie dort nichts zu holen war. Daneben haben viele Firmen Vorregistrierungen eingereicht, obwohl sie gar nicht die Absicht haben, irgendetwas definitiv zu registrieren, weil sie allein schon durch die automatische Einladung zu SIEF an wichtige Informationen über potenzielle Kunden und Wettbewerber gelangen. Im Ergebnis hat sich in etlichen SIEF, an denen im Extremfall mehrere Tausend Firmen teilnehmen, ein heilloses Durcheinander ausgebreitet. Die meisten haben bis heute noch keinen „lead registrant“ benannt und sind weit von einer Regelung der Kostenteilung entfernt. Wie unter diesen Umständen die Zahl vorregistrierter Stoffe bereinigt werden kann, ist nicht absehbar. Immerhin finden sich unter den 143.835 vorregistrierten Substanzen über 22.000, die weder über die CAS-Nummer noch über die EC-Nummer identifizierbar sind. EG

KASTEN: REACh und der Mittelstand

Die Schwierigkeiten kleiner und mittlerer Unternehmen mit REACh beginnen schon mit der Sprache. Bekanntlich gab es die REACH-IT für die Vorregistrierung von Stoffen nur auf Englisch. Und nur die englischen Stoffbezeichnungen konnten auch angemeldet werden. Das war wohl eine der wichtigsten Fehlerquellen beim Start von REACh. Viele Mehrfachregistrierungen ein und desselben Stoffes sollen darauf zurückzuführen sein. Nun kranken die obligatorische Bildung von Substance Information Exchange Fora (SIEF) durch Firmen, die den gleichen Stoff registrieren wollen, sowie darauf aufbauende Anläufe zur Bildung von Registrierungs-Konsortien oft daran, dass viele Vertreter südeuropäischer Firmen kein verhandlungssicheres Englisch mitbringen. Die Annahme von Verträgen verzögert sich, weil teilnehmende Firmen mangels ausreichender Sprachkenntnisse nachträglich Übersetzungsbüros mit der Überprüfung ausgehandelter Texte beauftragen.

Anlass zu Zweifeln an der Durchführbarkeit von REACh geben aber auch andere ungelöste Probleme. Zurzeit haben etliche KMU an der Entscheidung des Europäischen Gerichtshofs (EuGH) unter Generalanwältin Juliane Kokott vom 7. Juli 2009 (EUR-Lex-62007J0558) zu kauen. Darin legt der Gerichtshof die sehr spät in die EG-Verordnung 1907/2006 aufgenommene Meldepflicht für Monomere in importierten Polymeren sehr restriktiv aus. Mittelständische Firmen des Chemiehandels aus Frankreich, England und Deutschland hatten in der Meldepflicht für Monomere, die zu mindestens 2 Masseprozent in Polymeren enthalten sind, die in Mengen über einer Jahrestonne importiert werden, eine Verletzung des Grundsatzes der Verhältnismäßigkeit gesehen, da es in der Praxis kaum möglich ist, die Einhaltung der Vorschrift mit vertretbarem Aufwand zu überprüfen. Nach der Abweisung der Klage durch den EuGH bleibt europäischen KMU, die sich gesetzeskonform verhalten wollen, nichts anderes übrig, als auf Importe von Polymeren zu verzichten. Es dürfte aber kaum möglich sein, illegale Importe und graue Märkte zu verhindern, weil die Zollämter dafür nicht gerüstet sind.

Obendrein obliegt die Umsetzung, das „enforcement“ von REACh, bekanntlich den Nationalstaaten. Selbst ECHA-Chef Geert Dancet weist darauf hin, derselbe Regelverstoß könne in einem EU-Mitgliedsstaat als schweres Vergehen geahndet werden, während er in einem anderen EU-Land als Kavaliersdelikt durchgeht. Dr. Alex Föller, der Hauptgeschäftsführer des Verbandes TEGEWA in Frankfurt am Main, fordert deshalb mehr Kompetenzen und Kapazitäten beim Zoll. Dass das bei Stoffen, die in kleineren Mengen gehandelt werden, nur sehr begrenzt hilft, ist ihm auf dem Hintergrund der Erfahrungen mit dem Drogenhandel wohl bewusst. Ungelöste Probleme sieht Föller auch in den Stoffverwendungsbeschreibungen. Den Herstellern ist es nach wie vor kaum möglich, sich einen einigermaßen realistischen Überblick über kleinvolumige Stoffverwendungen zu verschaffen. Denn auf diesem Feld stehen viele KMU ganz unterschiedlicher Branchen in einem heftigen Ideen-Wettbewerb und lassen sich folglich nicht gerne in die Karten schauen. Eine realistische Risikobewertung ist unter diesen Umständen schwierig. Überdies werden die technischen Anleitungen für die Anwendung der REACh-Bestimmungen (RIB) laufend geändert, so dass vor allem kleinen Stoffanwendern oft nicht klar ist, welche Bestimmungen für sie gelten. Manche Anwender ahnen wohl gar nicht, dass sie bei strenger Auslegung von REACh schon mit einem Bein im Gefängnis stehen. In der Praxis werden diese Probleme in Netzwerken mit kurzem Draht zur EU-Bürokratie durch pragmatische Festlegungen aus der Welt geschafft. Aber wehe dem, der nicht mitspielt! Von der Rechtssicherheit, die REACh der Wirtschaft bringen sollte, kann jedenfalls bislang nicht die Rede sein. EG

==============================================================================

REACH: Babylon lässt grüßen

Die Chemiepolitik der EU schafft nur Datenfriedhöfe von Edgar L. Gärtner

Die am 1. Dezember 2008 zu Ende gegangene erste Phase der Umsetzung der neuen EU-Chemikalienverordnung gilt als großer Erfolg. Doch weist die überraschend hohe Zahl von insgesamt 2,75 Millionen Vorregistrierungen von sage und schreibe 150.000 Stoffen (im Vergleich zu 30.000 Substanzen, mit denen gerechnet worden war) durch insgesamt 65.000 Unternehmen auf erhebliche Startprobleme bei der obligatorischen Bildung von Substance Informations Exchange Fora (SIEF) hin. Hinzu kommt Ärger mit der Registrierungs-Software REACH-IT.

Nach dem Abschluss der Vorregistrierung scheint höchste Eile geboten. Denn Stoffe mit einem Produktionsvolumen von über 1.000 Jahrestonnen müssen bereits bis Ende November 2010 ordnungsgemäß registriert sein. Dabei müssen Daten vorgelegt werden, die in manchen Fällen schon irgendwo, aber oft auf verschiedene Eigentümer verteilt vorhanden sind, in manchen Fällen aber erst mithilfe aufwändiger Tierversuche generiert werden müssen. Da bleibt nicht viel Zeit für das Zusammentrommeln und das Management der Substance Informations Exchange Fora (SIEF), die vom Gesetzgeber vorgeschrieben wurden, um die Zahl der Tierversuche und die Gesamtkosten von REACH erträglich zu halten. Bei manchen Stoffen sind, bei Eibeziehung des Chemiehandels, mehrere Tausend Firmen betroffen, die von den „SIEF Formation Facilators“ zusammengebracht und animiert werden müssen.

Doch wer sich zu Beginn dieses Jahres bei REACH-IT einloggen wollte, stieß auf der Homepage der ECHA) auf die folgende Meldung:

“The number of concurrent REACH-IT users is high and the system is exhibiting slow behaviour.

ECHA is monitoring the system performance and making improvements to its robustness.”

Wer es dennoch endlich geschafft hatte, sich einzuloggen, flog oft wieder raus, bevor er alle ihn betreffenden Meldungen studiert hatte. Wer sich darüber beschweren oder beim Help Desk der ECHA um Rat fragen wollte, landete in der Regel in einer Sackgasse. Stunden um Stunden vergingen mit neuen Versuchen, sich einzuloggen. Einige europäische Firmen versuchten mithilfe ihrer amerikanischen Töchter oder Niederlassungen, sich außerhalb der europäischen Geschäftszeiten Zugang zum Server der ECHA in Helsinki zu verschaffen. Am 19. Januar meldete sich schließlich ECHA-Exekutivdirektor Geert Dancet und kündigte an, in den kommenden Monaten würden verschiedene Schritte zur Verbesserung der REACH-IT unternommen.

Darüber entrüstete sich in einem Schreiben vom 21. Januar CEFIC-Generaldirektor Alain Perroy. Die von der deadline 30. November 2010 betroffenen Firmen könnten keineswegs noch Monate lang warten, sondern befänden sich bereits im Endspurt. Nur über die REACH-IT könnten sie erfahren, mit welchen Firmen sie Kontakt aufnehmen müssen, um ein SIEF zu bilden, dort dann die Identität (sameness) der registrierpflichtigen Stoffe zu prüfen, Stoffdaten auszutauschen, Wissenslücken auszumachen und Teststrategien und deren Finanzierung festzulegen, um fehlende Daten zu generieren.

Die überraschend große Zahl von Vorregistrierungen stellt an sich schon ein organisatorisches Problem dar. Es wird vermutet, dass viele Stoffanwender vorregistriert haben, obwohl sie gar nicht die Absicht haben, etwas zu registrieren. Vielmehr scheint es ihnen darum gegangen zu sein, über die automatische Einladung zur Teilnahme an SIEFs Informationen über potenzielle Kunden und Wettbewerber zu erhalten. Wegen der bei vielen Anwendern herrschenden Verunsicherung wurden auch viele Substanzen vorangemeldet, deren Jahresproduktion unterhalb der für REACH gültigen Mengenschwelle von einer Jahrestonne liegt. Außerdem finden sich auf der Liste etliche Endprodukte, die nicht unter die Stoffdefinition von REACH fallen. Die lange Liste der Vorregistrierungen muss deshalb aufwändig bereinigt werden. So gehen Monate ins Land, bevor die SIEF sich im Detail um die Datenlage der registrierpflichtigen Stoffe kümmern können, zumal es nach wie vor eine Menge rechtlicher Probleme zu klären gibt. Bis schließlich ein „lead registrant“ am Ende die Registrierung durchführt und deren Kosten auf die einzelnen SIEF-Mitglieder umlegt, können weitere Monate vergehen. Deshalb kommen immer mehr Zweifel auf, ob die Fristen für die Registrierung überhaupt eingehalten werden können. Manche Industrievertreter halten es (hinter vorgehaltener Hand) nicht für ausgeschlossen, dass die Umsetzung von REACH schon in der ersten Etappe stecken bleibt. Leben könnten sie damit ganz gut, denn die Vorregistrierung verschafft vielen von ihnen erst einmal eine Atempause.

Zu den ungelösten juristischen Problemen der SIEF zählt der Status der Only Representatives (OR) für die Registrierung von Stoffen, die in die EU importiert werden. Das gilt insbesondere für Stoffe, die in China und Indien produziert werden. Nach Ansicht von Nicolas Gardères, Anwalt in der Pariser Kanzlei Denton Wilde Sapte, ist es nach wie vor unklar, wie weit die OR bei eventuellen Schadensersatzansprüchen strafrechtlich zur Verantwortung gezogen werden können, zumal etliche EU-Mitgliedsstaaten, wie die ECHA im Dezember meldete, ihr Strafrecht noch immer nicht um die mit REACH verbundenen Verpflichtungen und Straftatbestände ergänzt haben.

Kommen schon die obligatorischen SIEF kaum ohne detaillierte anwaltliche Beratung aus, so ist der juristische Beratungsbedarf, wie Gardères unterstreicht, bei der Bildung freiwilliger Registrierungs-Konsortien noch erheblich größer. Nach dem geltenden Kartellrecht dürfen Konsortien unter keinen Umständen dazu dienen, ihren Mitgliedern einen wirtschaftlichen Vorteil gegenüber Wettbewerbern zu verschaffen oder bestimmte Marktteilnehmer zu diskriminieren. Das ist im Konfliktfall schwer zu beweisen.

Inzwischen hat die ECHA eine vorläufige Liste von sieben Stoffen veröffentlicht, die in einer öffentlichen Stakeholder-Anhörung aus der Ende Oktober 2008 veröffentlichten „Kandidatenliste“ besonders bedenklicher Substanzen ausgewählt wurden, um sie für den Anhang XIV der Liste zulassungspflichtiger Stoffe vorzuschlagen. Dabei handelt es sich um den synthetischen Duftstoff Moschus Xylen, um kurzkettige chlorierte Paraffine, um das Flammschutzmittel Hexabromcyclododecan (HBCDD) und seine Isomere, um 4,4’-Diaminodiphenylmethan (MDA) sowie um die als Kunststoff-Weichmacher verwendeten Phthalate DEHP, BBP und DBP. Dass sich das in Medizinprodukten wie Blutbeuteln oder Magensonden nur schwer ersetzbare DEHP auf der Liste befindet, wird nur auf dem Hintergrund der seit Jahren von Greenpeace und anderen Interessengruppen gegen den bewährten, aber toxikologisch nicht abschließend beurteilten Weichmacher geführten Kampagne verständlich. Über entsprechende Web-Formulare kann diese vorläufige Liste bis zum 14. April kommentiert werden.

Industriechemiker, die zurzeit buchstäblich Tag und Nacht mit der REACH-IT kämpfen, fürchten, dass ihre aufopferungsvolle Arbeit letztlich nicht mehr bewirkt als einen riesigen Datenfriedhof zu erzeugen, der die Illusion nährt, durch das bürokratische Monster REACH werde das tägliche Leben der EU-Bürger etwas sicherer.

Edgar Gärtner (erschienen in: CR-Chemische Rundschau Nr. 1-2/2009)

=============================================================

REACH – Wende in der Stoffbewertung oder teures Theater?

Die neue Europäische Umweltagentur (ECHA) in Helsinki hat am 1. Juni 2008 mit dem Beginn der Vorregistrierung von Stoffen nach einer einjährigen Vorbereitungszeit offiziell ihre operative Tätigkeit begonnen. Zwar erreicht die Zahl der fest eingestellten qualifizierten Mitarbeiter der Agentur mit etwas über 200 noch längst nicht das ursprünglich einmal ins Auge gefasste Niveau. Doch der Agenturchef Geert Dancet gibt sich zuversichtlich, dass die Mitarbeiterzahl bis 2010 auf 450 (davon zwei Drittel Wissenschaftler) ansteigen wird. Auf den ersten Blick erscheint der Start der Agentur durchaus gelungen. Über 9.000 Firmen haben sich beim REACH-IT-System der Online-Registrierung angemeldet. (Das ist allerdings nur etwa ein Viertel aller europäischen Chemiefirmen.) Bis Mitte September waren bereits 352.641 Vorregistrierungen eingegangen. Davon allein 141.185 aus Deutschland und 138.434 aus Großbritannien. An dritter Stelle folgen die Niederlande mit 17.356 Vorregistrierungen, danach Italien mit 13.989 und Frankreich mit 9.945. Ende September 2008 erreichte die Gesamtzahl der Vorregistrierungen nach Angaben Dancets schon 402.584. Allerdings wies ein Teil davon Formfehler auf (siehe Kasten) und zwei Firmen haben sogar das ganze EU-Verzeichnis EINECS von über 100.000 Altstoffen vorangemeldet.

Deshalb fleht Dancet alle betroffenen Firmen an, doch bitte nur Substanzen voranzumelden, die sie später auch tatsächlich registrieren wollen. Andernfalls werde die Arbeit der Substance Exchange Fora (SIEF), zu denen die Vorregistrierer nach der Einreichung ihres Dossiers automatisch geladen werden, unnötig erschwert, wenn nicht völlig sabotiert. „Die vorregistrierende Firma kann dann zum einen unmöglich an allen SIEFs teilnehmen, zu denen sie geladen wird. Zum andern fehlt den nachgeschalteten Anwendern die Möglichkeit, zu überprüfen, welche der von ihnen dringend benötigten Roh- und Hilfsstoffe vorregistriert wurden, und können die ECHA nicht auf Stoffe aufmerksam machen, die auf der Liste fehlen“, erklärt Dancet.

Anna-Liisa Sundquist, die Vorsitzende des Ausschusses der EU-Mitgliedsstaaten bei der ECHA, weist zudem mit Nachdruck darauf hin, dass Hersteller außerhalb der EU Stoffe nicht unmittelbar, sondern nur mithilfe eines Alleinvertreters (Only Representative) in der EU registrieren können. „Das hat sich zu unserer Überraschung in vielen Teilen der Welt noch nicht herumgesprochen“, gibt Sundquist zu. Gleichzeitig räumt sie ein, dass auch viele kleine und mittlere Unternehmen in der EU mit den komplizierten Bestimmungen von REACH schlicht überfordert sind. Nina Mähönen-Antink vom bekannten, auf die Kommunikation in der Lieferkette spezialisierten finnischen IT-Beratungsunternehmen REACHWAY Oy bestätigt, dass viele kleine und mittlere Unternehmen in der EU sich noch gar nicht ernsthaft mit REACH beschäftigt haben und keine Anstalten machen, ihre Stoffe zu registrieren, weil sie entweder davon ausgingen, das bürokratische Monstrum werde ohnehin nicht funktionieren oder eine Geschäftsaufgabe vor Ablauf der Registrierungsfrist in zehn Jahren ins Auge fassen. Anna-Liisa Sunquist räumt ein, es sei noch völlig unklar, wie verfahren werden könne, sollte es sich gegen Ende dieses Jahres herausstellen, dass wichtige Substanzen gar nicht auf der Liste der vorregistrierten Stoffe erscheinen.

Ohnehin, so Sundquist weiter, müsse man sich nicht nur auf das Fortbestehen großer rechtlicher Grauzonen, sondern auch auf die Entstehung eines grauen Marktes für nicht registrierte und/oder nicht zugelassene Substanzen einstellen. Denn die Überwachung der Einhaltung der REACH-Vorschriften obliege nationalen Behörden. Zwar versuche die ECHA das Monitoring durch die Erarbeitung von Leitlinien zu harmonisieren. Doch niemand könne garantieren, dass diese in allen EU-Mitgliedsstaaten gleich streng befolgt werden. Außerdem werde wohl auch eine Reihe als potenziell gefährlich erkannter Chemikalien mangels verfügbarer Alternativen mit offizieller Genehmigung im Gebrauch bleiben. Bislang haben die EU-Mitgliedsstaaten nur 16 Stoffe für die so genannte „Kandidatenliste“ bedenklicher Substanzen nach REACH Art. 57, Anhang XV vorgeschlagen. Der Ausschuss der Mitgliedsstaaten wird demnächst die inzwischen zu den einzelnen Stoffen eingegangenen Kommentare im Detail diskutieren und voraussichtlich Ende Oktober 2008 die erste offizielle „Kandidatenliste“ vorlegen. ECHA-Chef Geert Dancet schließt nicht aus, dass diese sogar weniger als 16 Stoffe enthalten wird. Und nur ein Teil davon werde wohl im Anhang XIV der genehmigungspflichtigen Stoffe landen. Die Anhänge XIV und XV sollen alle zwei Jahre aktualisiert werden. Umweltverbände fordern dagegen, bis zu 2.000 Stoffe vordringlich unter die Lupe zu nehmen und auf „schwarze Listen“ zu setzen.

Auch Geert Dancet gibt offen zu, dass sich die Umsetzung der REACH-Verordnung am Rande der Legalität bewegt. Denn REACH schafft keinen neuen Rechtsrahmen, die Verordnung darf dem Maastricht-Vertrag der EU wie den nationalen Bestimmungen des Zivil- und Strafrechts über Wettbewerb, geistiges Eigentum und die Gültigkeit von Verträgen nicht widersprechen. So bewegen sich die von den europäischen Gesetzgebern und der ECHA erwünschten Konsortien für die gemeinsame Nutzung von Stoffdaten von Wettbewerbern zur Vermeidung unnötiger Tierversuche hart am Rande des nach dem Kartellrecht noch Erlaubten. Schon in den SIEFs gibt es Probleme mit der Geheimhaltung vertraulicher Geschäftsinformationen und mit der gerechten Aufteilung der Kosten – zumal, wie zu hören ist, etliche der beteiligten Firmen versuchen, selbst alte Tierversuchsdaten zu Geld zu machen. Einige dieser Probleme lassen sich durch Einschaltung neutraler Berater lösen, wodurch allerdings zusätzliche Kosten entstehen.

Geert Dancet weist in diesem Zusammenhang auf Folgendes hin: „In einigen Fällen kann die freie Verwendung von Daten durch das Gesetz oder durch Entscheidungen der Regulierungsbehörden erlaubt sein, z.B. im Rahmen der so genannten 12-Jahres-Regelung. Nach den Bestimmungen von REACH kann jede Studie beziehungsweise robuste Zusammenfassung von Studien, die im Rahmen einer Registrierung vor mindestens 12 Jahren eingereicht wurde, für die Registrierung nach REACH von jedem anderen Hersteller oder Importeur verwendet werden. Der Nachweis des rechtmäßigen Besitzes ist nicht notwendig für Daten, die vor mindestens 12 Jahren registriert wurden. Das gilt unter gewissen Umständen auch bei Anfragen oder wenn Parteien, wie im Leitfaden über das Data-Sharing beschrieben, sich in einem SIEF nicht über die gemeinsame Nutzung von Daten einigen. Unter gewissen Umständen kann die ECHA die Erlaubnis zur Verwendung von Daten erteilen.“

Dancet hält aber die besonders in der mittelständischen Wirtschaft verbreitete Angst vor dem Verlust geistigen Eigentums für unbegründet: „Wir versichern, dass REACH keine negativen Auswirkungen auf das Urheberrecht haben wird. REACH verlangt in der Tat, dass die Registrierer in der Regel im legitimen Besitz von Summaries auf der Grundlage vollständiger Studien oder eines legitimen Zugangs zu Robust Study Summaries sind, der in den Registrierungsunterlagen belegt werden muss. Das gilt auch für Robust Study Summaries aus dem Internet (z.B. aus dem OECD/ICCA HPV Programms oder dem US HPV Chemical Challenge Program). Darüber hinaus sollte man beim Herunterladen öffentlich zugänglicher Studien sorgfältig prüfen, ob deren Verwendung Urheberrechte verletzt.“ Wird das die Adressaten beruhigen?

Ungeklärt sind auch der rechtliche Status und die strafrechtliche Verantwortung der für die Anmeldung importierter Stoffe obligatorischen Alleinvertreter in der EU. „Hände weg vom Import fertiger Zubereitungen!“, rät deshalb Liisa Rapeli-Likitalo der europäischen Industrie. Da stehe man gleich mit einem Bein im Gefängnis. Die kleine, aber energische Frau ist zurzeit bei dem auf die Wasser- und Holzchemie spezialisierten finnischen Konzern Kemira Tag und Nacht damit beschäftigt, Stoffe ordnungsgemäß voranzumelden. Dabei machen ihr nicht nur Probleme mit der Registrierungs-Software IUCLID 5 und dem universellen Identifizierungscode UUID zu schaffen, sondern auch rechtliche Grauzonen. „REACH ist vor allem ein Arbeitsbeschaffungsprogramm für Anwälte und nichts für Menschen, die nicht gelernt haben, mit Ungewissheit zu leben“, resümiert sie ihre Erfahrungen.

ECHA-Chef Dancet gibt denn auch zu: „Uns bleibt noch viel zu tun, um zwischen unserer Behörde, der Industrie, den Gewerkschaften sowie den Umwelt- und Verbraucherverbänden eine transparente Vertrauensbasis aufzubauen und die ECHA zur wichtigsten Quelle für wissenschaftlich verlässliche Stoffinformationen zu machen.“ Nach der für Ende 2008/Anfang 2009 vorgesehenen Publikation der Liste vorregistrierter Stoffe wird die ECHA mit der Registrierung der großvolumigen Stoffe beschäftigt sein. Dancet erwartet, dass im Jahre 2010 nicht weniger als 20.000 Registrierungs-Dossiers bearbeitet werden müssen. Sollte es sich am Ende herausstellen, dass REACH, statt eine neue Ära der harmonisierten Stoffbewertung einzuleiten, vieles beim Alten lässt, wird das aber vermutlich weder in Brüssel noch in Helsinki jemand zugeben wollen. Die EU-Bürokratie wird sich wohl mit den Anspruchsgruppen darauf einigen, den Verbrauchern und Steuerzahlern ein Theater vorzuspielen. Darin fehlt es den EU-Behörden nicht an Übung.

Edgar Gärtner

===========================================================

Die fünf häufigsten Gründe für die Zurückweisung von Registrierungsdossiers durch die ECHA:

• Die im Einreichungsformblatt angegebene UUID (Identitätsnummer) stimmte nicht mit dem UUID des eingereichten IUCLID 5 Dossiers überein;

• Das Unternehmen hat sich nicht vorher bei REACH-IT angemeldet oder die Unternehmens-UUID falsch angegeben;

• Es wurde keine digitale Fassung des Einreichungsformblatts und/oder IUCLID 5 Dossier vorgelegt;

• Das eingereichte Dossier entsprach nicht dem XML Format;

• Das Bestätigungsfeld am Ende des Einreichungsformulars wurde nicht angeklickt.

===========================================================

(veröffentlicht in: Chemische Rundschau Nr. 10/2008, VS-Medien, CH-Solothurn)

Precaution or Arbitrariness?

The “precautionary principle” leaves open the question of whether preventive measures are also subject to cost-benefit criteria or not. Even non-monetary evaluations of the costs and benefits of actions to prevent hypothetical threats appear all too often more than doubtful, especially when they show that screening is only available at the cost of individual freedom. In real life people often have to decide between two evils. Which one is the lesser?

Prevention is not Always Better than The Cure

by Edgar L. Gärtner

Lessons about Precaution from the Swine Flu Vaccine Fiasco

The French government under the ever-energized President Nicolas Sarkozy became aware at the beginning of the year that it was threatened to sit on more than 90 million doses of Swine flu vaccine, hastily ordered last year to face an allegedly advancing pandemic. Only five out of currently more than 60 million French people got vaccinated to date against the exaggerated threat of a planetary swine flu pandemic. According to estimates by physicians, at the same time more than 20 million French people got immunized against the new flu variant free of charge, i.e. by responding to infection with barely perceptible slight flu symptoms. More than one billion euros seemed to be set in the sand. In the German federal states, the situation is similar but not quite as bad as in France. Since the ordered batches are in part not yet produced, France and Germany managed to cancel at least part of their orders. Especially in France the following questions remain unanswered: Why almost 100 million vaccines were ordered – three times more than what would have been necessay for a reasonable coverage of the population? Why did the government invest simultaneously on a vast storage of the controversial flu drug Tamiflu (one third of total world reserves!)? Why were expensive gas masks purchased, but only available for top officials and managers?

I’m not looking for responses like those given by libertarians and conspiracy theorists, whereby the virus itself H1N1 and his propagation is imputed to worldwide machinations of pharmaceutical companies GlaxoSmithKline (GSK), Sanofi-Pasteur and Novartis. I restrict myself rather to the official justification of action by the “precautionary principle”. This decision scheme was invented in Germany at the beginning of the 70s and became known worldwide after the 1992 “Earth Summit” in Rio de Janeiro under the following definition: “Where there are threats of serious or irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation.” (Principle 15 of the Rio Declaration). Subsequently, this principle was introduced into the Maastricht Treaty, the Lisbon Constitutional Treaty and the French Constitution. As Nicolas Sarkozy has himself set upon overrun the Germans with preventive rhetoric, he gave his officers orders to try hard to follow the principle consistently. But just by doing that they have created the problems they are now facing. Because unlimited provision is an absurd idea. Those who constantly concentrate on precaution, forget to live. The precautionary principle is useful only insofar as it is not consistently applied. Healing is much more important than prevention, even though the welfare state’s advertising is mindlessly repeating the opposite.

The above-quoted definition of the “precautionary principle”, namely, leaves open the question of whether preventive measures are also subject to cost-benefit criteria or not. Widespread is the view that cost considerations are not justified when it comes to human life. If this argument was valid, there would be neither life nor accident insurance. Underlining this I do not deny that the monetary evaluation of life issues must remain very restricted. But even non-monetary evaluations of the costs and benefits of measures to prevent hypothetical threats appear all too often more than doubtful, especially when they show that screening is only available at the cost of freedom. There are exceptions like private retirement plans or provisions for maintenance and repair costs, as well as precaution measures against harmful events, whose probability can be realistically estimated. But even in these cases it is often not enough to weigh between the advantages and disadvantages of economically justifiable protection measures. In real life instead, people often have to decide between two evils. Which one is the lesser?

Such decisions, if they are not spontaneously taken from the gut, can in general not be justified without any reference to religious belief. As long as Christianity was prevailing in Europe this was no problem. Later, Christian Humanism was successively replaced by Ecologism, a synthetic mix of knowledge and unfounded beliefs with a clear misanthropic, if not nihilist tendency. No wonder that allegedly preventive actions and investments, justified by the “precautionary principle” more and more turn out to be economically disastrous.

Internet:

Revisiting the Swine flu lies and hysteria

France’s Swine Flu Fiasco

Financial Time on France’s Vaccine Flop

The Rio Declaration on Environment and Development (15 January 2010)

==========================================================================================

Precaution or Arbitrariness?

Plasticizers in Political Crossfire

By Edgar Gärtner

This study has been made possible by the financial support of the AgPU – Working Group on PVC and the Environment, Bonn

The EU ban on plasticizers in toys

Despite the enormous health benefits brought by the use of DDT, which provided an extremely effective insecticide and was instrumental in the fight against malaria, a total ban was imposed on its use in 1972 on the basis of unsubstantiated health and environmental threats. International bans have since been introduced on other substances and, once in place, they are virtually impossible to reverse.

Similarly, unfounded suspicions and accusations led the EU to impose a total ban on the use in children’s toys of three plasticizers employed in the manufacture of PVC (DEHP, DBP and BBP). It also has prohibited the use of three additional plasticizers (DIDP, DNOP and DINP) in babies’ toys intended to be put in the mouth. This is not the EU’s first attempt to impose a substance ban motivated primarily by politics – as opposed to a decision made on sound scientific principles. Yet this case forms a precedent which would serve to create lasting, fundamental, and possibly irreversible flaws in EU policies on technology and the environment.

Only one of the substances, DINP, is currently in general use in children’s toys. This material has been subjected to a thorough risk assessment in the EU and again in the US, and has been found to be quite safe. Industry has spent over 130 million Euros in total to assess the health and environmental risks of plasticizers such as DEHP. A core reason for these tests was these plasticizers’ widespread use in medical equipment. All have now been in such longstanding use that if there had been any harmful side effects from their application these would have long since come to the fore. The EU now forces manufacturers of pacifiers, plastic ducks and baby equipment to switch to alternative plasticizers, which have not been investigated as thoroughly, have often not been tested for these applications and are often considerably more expensive.

Adipates are one possible substitute. Their possible impact on human health and the environment to appear to be slight, but so far they have not been subjected to such exhaustive examinations as have the six banned substances. Other alternatives, although extant for some time, have a high migration tendency, and are clearly much less suitable for these applications.

Citrate esters, touted by environmental groups as more environmentally and health-friendly, migrate from treated materials so quickly that these objects easily become brittle. Toys manufactured using citrate esters as plasticizers will therefore put children at risk of swallowing broken-off fragments. Are we therefore justified in substituting a (theoretical) health risk with the much more concrete risk of a child choking?

Greenpeace activists, on whose arguments the EU’s actions were based, don’t appear to be losing any sleep over such questions. In fact, they are demanding that toy manufacturers abandon the use of PVC altogether. According to them, soft PVCs in toys should be replaced with rubber. However, the effect of heat during the vulcanization process of rubber results in carcinogenic nitrosamines, and the substitution of organic for petroleum-based rubber will simply substitute a new, ‘natural’, set of carcinogens.

This raises the question of who decides which materials may be used: Greenpeace? The EU Commission? Science? Nature? And just who is ‘Nature’? Aren’t humans also part of nature, including the average consumer who weighs up product choices and then consciously chooses PVC? Wouldn’t it be better to choose the winner out of several competing market-based solutions?

As I see it, the debate over the advantages and risks of plasticizers boils down to one question: “Can safe and sustainable solutions be developed through the interaction between inventors and the needs and wishes of consumers?”

Mankind has been using plasticizers since the Stone Age, when plant oils were worked into stiff animal pelts to make soft leather. With the advent of different types of soft PVC in the twentieth century, researchers found that PVC performed better when combined with phthalates than with other materials on the market. Plasticizers are used to achieve desired qualities such as flexibility, flame retardation or low-temperature resistance.

In hindsight, it is clear that modern industry would not have been able to develop without both the development of synthetic plastics, and, secondly, inexpensive plasticizers that improve the processing ability and durability of natural materials. However, this development required a long and somewhat painful process of trial and error. And, had this been hampered by bureaucratic ‘precautionary measures’, it simply would not have taken place.

PVC began to lose its innocence in 1961 as experiments carried out on rats in the US showed clear indications of the highly carcinogenic potential of the vinyl chloride monomer (VCM), used to manufacture PVC. Even in low concentrations, VCM provoked a rare form of liver cancer. In the early 1970s, numerous workers exposed to VCM developed various conditions including liver cancer. Strict measures and exposure limits were immediately introduced. However, an undercurrent of fear took hold in the public’s mind that PVC products could leech out insidious poisons. And this same fear has most probably since attached itself to plasticizers as well.

In subsequent decades, this undercurrent grew. In the American biologist Barry Commoner’s book The Closing Circle – Nature, Man, and Technology (1971), PVC plasticizers play a similar villainous role to the (unfounded) accusations weighed against the insecticide DDT in Rachel Carson’s Silent Spring (1962). Pressure from environmentalists came to a head following the escape of the ‘super-poison’ dioxin into the environment at the chemical plant at Seveso, Northern Italy in July 1976.

The accusation of being carcinogenic has been levelled in general against plasticizers used in PVC, and particularly against DEHP. In the early 1980s, DEHP was classified as ‘potentially carcinogenic’ by the International Agency for Research on Cancer (IARC) on the basis of experiments on rodents which showed a tendency to develop liver tumours following exposure to high doses. It was later proven that humans and higher mammals are not at risk because they metabolize DEHP differently. The IARC has since reclassified DEHP as “not classifiable as to its carcinogenicity to humans.”

The German Parliament created a special Enquete Commission to investigate the influence of chemicals on humans and the environment. The Commission also covered chlorine and PVC. The findings from the first phase were published in 1994 (pages 362–364):

„…following years of intensive debate, PVC is today far and above the most researched materials in respect of its environmental impact. (…) the commission cannot recommend the substitution of other materials for PVC without sound economic or ecological reasons to support this. Any such substitution would carry the risk of creating new problems – and would possibly lead to a worsening of the overall situation vis-à-vis the present.“

How risk assessment became a political issue

In 1993, the EU issued the 793/93/EEC Directive analyzing the risks associated with around 100,000 ‘old’ chemicals – substances registered prior to September 1981 in line with the (then) EEC’s Dangerous Substances Directive (67/548/EEC). In 793/93/EEC, Article 15 now called for the testing of substances arousing particular suspicion. Later that year, they also published a priority list of 134 substances. This list included phthalates used as plasticizers for PVC. Four further PVC plasticizers appeared in the two subsequent priority lists. If decades of suspicion had not already fallen on these substances, then nobody would have been able to fathom just how phthalates found their way onto this list. It would suggest that their inclusion owed less to scientific scrutiny than it did to political pressures.

Given that environmental groups and political parties were already on the warpath; firms, industry associations and scientists targeted in this attack had no other choice but to play ball. They were confident, though, that the toxicological and ecological risk assessments would bear out their own conclusions. However, well before the risk assessment had been completed, the debate on these materials was forced by pressure from media campaigns and the protestations of environmental groups.

The health and environmental risks for Di-butyl-phthalate (DBP) were tested by the EU in 1994. DBP is only used in small quantities as a plasticizer in PVC. The toxicologists found that DBP posed no health risk to consumers, even when it was smeared directly on the skin. In test-tube experiments (though not in animal experimentation) DBP showed a weak oestrogen-producing effect (‘feminizing’) and was therefore characterized as “possibly affecting fertility” and given a Category Two (“harmful to fertility”) rating. In addition, DBP was found to cause potential harm to vegetation.

In 1995, the EU tested Di(2-ethylhexyl)phthalate (DEHP) which had previously been the standard plasticizer for PVC, which had appeared in the second list of high-risk chemicals (noted above). This risk assessment has only recently been completed and has proven a tug of war between the various stakeholders. During this assessment process, a group of doctors specializing in occupational and community medicine published new research findings which suggested a completely new assessment of the legacy of DEHP in the broader population. The German Federal Institute for Risk Assessment’s (BfR) and the CSTEE’s (European Commission Scientific Committee on Toxicity, Ecotoxicity and the Environment) conclusions from this study, needed to be revised on the back of studies conducted in Erlangen on volunteers, even before the CSTEE’s published its findings.

CSTEE’s final Risk Assessment Report does not exclude the possibility that DEHP absorption could have a potential impact on occupational health. Both adults and children could theoretically suffer health damage as a result of the use of DEHP in medical apparatus. Toddlers are put at risk through sucking toys containing DEHP. On these grounds, the report supports the EU’s pronounced ban on materials and calls for strict workplace protection measures. And on the back of experiments on rats, DEHP joined DBP in being designated as “impairing fertility” and was also given a Category Two rating, and has been totally banned from use in toys.

In 1995, it was the turn of Diisononyl phthalate (DINP) and Diisodecyl phthalate (DIDP) to be assessed. Both were increasingly important standard plasticizers for PVC also placed on the EU’s second priority list. However, the risk assessment of these materials was much less controversial than that of DEHP, and the political conclusions drawn from this study seem all the more baffling as a result. The EU toxicologists have not found the slightest exposure risk for these substances – not even in their use in babies’ toys. In the case of DIDP, they only found a theoretical risk for its universal use in children’s toys. This conclusion was confirmed in April 2006 by the EU Commission in the EU’s Official Journal. The EU has nevertheless imposed a ban on the use of both plasticizers in children’s toys.

In 1997, Butylbenzyl phthalate (BBP) was assessed. This plasticizer is used in tubes, cables, artificial leather and food packaging. On the results of animal experiments, it was given a Category Two “harmful to fertility” rating. The obligatory fish test used in assessing environmental risks had to be abandoned as BBP proved to biologically degrade much more rapidly in the environment than other phthalates discussed. That these plasticizers find their way into the food chain is a myth. The opposite is the case: the concentration of these phthalates declines as organisms higher in the food pyramid break these substances down in their digestive systems and excrete them.

In order to understand the dichotomy between the scientific risk assessments and their political evaluation we have to look back once again to the 1990s. In November 1997, well before the EU completed its risk assessments, Greenpeace published the following warning:

Greenpeace has carried out random tests on 23 toys manufactured by Mattel, Fisher Price, Tyco and Safety First. In 12 of these toys, the amount of plasticizers given off exceeds the recommended limit of 3mg per cm2 surface area as set by the Federal Institute for Consumer Health Protection and Veterinary Medicine (BgVV).

The Working Group on PVC and the Environment (AgPU), in conjunction with Mattel, and three recognized independent analysis institutes, set out to refute Greenpeace’s findings. It quickly became clear that Greenpeace had not been able to measure any phthalate emissions but instead has measured the total amount of volatile organic compounds (TVOC). Greenpeace was tacitly going on the assumption that the amount of TVOC was equivalent to the phthalate emissions. It was however known that TVOC normally stems from solvent emissions. But the laboratory contracted by Greenpeace had not even set this according to the then valid measurement standards.

All three of the laboratories commissioned by AgPU and Mattel established that the amount, if any, of DEHP and DINP emissions from children’s toys was too small to be measured. It was also evident that the EU had no generally accepted method to simulate the sucking out of phthalates from babies’ toys. However, the offer by the PVC and toy industries to develop a joint verification process was met with the following reply by Greenpeace spokesperson Judit Kamthak:

„in your communication of 28 January 1998 you suggest a joint verification process. In our opinion this is not necessary and would take the discussion backwards. In addition, we do not believe that this path would corroborate Greenpeace’s migration findings.“

Not just the toy industry but also a significant section of the press shook their heads at this.

Greenpeace continued its reply with a big campaign, timed to interfere with the pre-Christmas sales period, using the slogan “no environmental poisons in our babies’ mouths”. Parental concern for their children’s wellbeing turned broader segments of the population against PVC and its additives. To this end, activists for the fundraising organization even dug up the IARC’s carcinogenic suspicions regarding phthalates made in 1982 – although these had long since been refuted.

Unfortunately, they managed to impress the health authorities of a number of EU member states and parts of the EU Commission. The Bundesanstalt für gesundheitlichen Verbraucherschutz und Veterinärmedizin (BgVV), predecessor of the German Federal Institute for Risk Assessment, warned in December 1997 against babies’ toys containing plasticizers, without concrete evidence of these exceeding the designated exposure limits. Scandinavian countries and Austria demanded an immediate ban on phthalates. In Germany, many major department stores removed toys made from soft PVC from their shelves. The following year, much of Europe introduced national bans on soft PVC in babies’ toys.

The EU Council for Consumer Protection ordered the CSTEE to establish scientifically-based limits for the Tolerable Daily Intake (TDI) for phthalates for both adults and children. The CSTEE established the NOAEL (No Observable Adverse Effect Level) for the six most often used phthalates and determined their TDI, for which they set the baseline for the safety margin at 100. For DINP, the plasticizer most often used in PVC toys, CSTEE set the TDI at 0.15 milligrams a day per kilogram of body weight. Toxicologists in the Netherlands attempted to estimate if this level could be reached by toddlers weighing 8 kg chewing and sucking on a ten cubic centimetre piece of soft PVC for three hours a day. This proved difficult; as discussed there was no EU-wide established methodology to measure plasticizer migration. The permitted safety margin between the NOAEL and the TDI was only 75 for DINP and not 100. For DEHP, which is not permitted for use in toys, it only reached 19. In April 1998, the CSTEE could not exclude the possibility that the TDI could be significantly exceeded given unfavourable circumstances (particularly active toddlers who get poor quality PVC between their teeth).

CSTEE took the view that this did not pose a serious threat. Following a proposal from the Health Ministry of the Netherlands, the committee supported tackling the issue of the compromised safety margin through introducing limits on plasticizer migration for various types of PVC. The EU States’ universally-accepted Risk Assessment Report set the safety margin at 220 and did not believe any threat was posed.

The European Parliament and the relevant EU Directorate General took quite a different view and chose to adopt the Precautionary Principle. In April 1999, the EU amended the EU Directive 76/769/EEC to include a ban on phthalates in toys for children under the age of three. The EU Committee for Product Safety decided, after fierce debate, in December 1999 (right in the midst of the pre-Christmas sales) to adopt Greenpeace’s arguments. The Committee recommended that the EU Commission impose an immediate ban, in the form of an Emergency Decree, on all toddlers’ toys containing phthalates. In line with this, the DINP, DEHP, DBP, DIDP, DNOP or BBP content has been limited to 0.1% of their weight in toys which are designed for toddlers up to the age of 36 months.

These emergency measures were limited to three months and were supposed to bridge the gap prior to appropriate amendments to the EU Directive 76/769/EEC being brought in. That there was no scientific basis for this action did not stop this Emergency Decree being renewed every three months right up to Summer 2004, a total of nineteen times. In the meantime, the EU’s Joint Research Centre (JRC) carried out a risk assessment. This established no discernible risks for either DINP or DIDP that would warrant any restrictions on their use – not even in toddlers’ toys. Only DBP came out of the study badly. But this substance is not used in toys.

In 2003, the JRC’s Institute for Health and Consumer Protection wrote:

„The end products containing DINP (clothes, building materials, toys and baby equipment) and the sources of exposure (car and public transport interiors, food and food packaging) are unlikely to pose a risk for consumers (adults, infants and newborns) following inhalation, skin contact and ingestion.“

In September 2004, the EU Council on Competition decided to go along with the Dutch proposal to ban DINP, DIDP and DNOP from all toys and objects that children under three years could put in their mouths; and to impose a total ban on the use of DEHP, DBP and BBP in toys. This was a big step up from the Commission’s original decision which was only aimed at toys such as babies’ soothers or pacifiers which are intended to be put in the mouth. Through this action, the EU Council on Competition had put one over on the European Parliament. On 6 July 2005, the proposal had the second reading in the European Parliament (five years after the first reading!). MEPs voted with an overwhelming majority in favour of the commission’s tighter proposals. If the EU Council does not stop the procedure, the new Directive will come into force in autumn 2006. Since the EU Commission itself has in the meantime, in a communication published on 11 April 2006, confirmed the conclusions that the JRC drew in 2003, it seems difficult to explain to the public why a substance classified as safe can nevertheless be mandatory excluded from certain applications.

The European Council for Plasticizers and Intermediates (ECPI) sees the decision to also include the extensively researched plasticizer DINP in the ban, a dangerous parallel in REACh (Registration, Evaluation and Authorization of Chemicals). The risk assessment for DINP, which cost the industry more than 10 million Euros, was simply ignored. ‘Intrinsic’ characteristics of these materials served as the deciding factor and assumptions were extrapolated from this, but real appraisals were not conducted. Through this, the EU Commission, either deliberately or otherwise, encouraged the blanket demonisation of an entire group of substances. And, in doing so, it encouraged those who believe that they can improve the world through outlawing all materials and production methods that do not fit in with their narrow and ultimately religious-based concept of nature.

If they don’t stop it, they’ll go blind…

As was to be expected, this ban on phthalates escalated into calls for further bans. TV and mass circulation magazines brought out sensationalist reports on the supposed health dangers of plasticizers.

In 2001, Stern magazine carried a cover story on blow up dolls and other sex toys made from soft PVC. Author Gerd Schuster put forward that those men who used these phthalate-containing products to achieve sexual satisfaction were putting their potency at risk.

The Frankfurt based Öko-Test Magazin really took the prize for running scare stories on plasticizers. Almost every month, the magazine’s editors discovered suspect phthalates in everyday objects and ran a consumer scandal story on these, often taken up by other media. In July 2002, the summer-themed headline “throwing the baby out with the bath water” threw the spotlight on children’s paddling pools. Of course, the laboratories which undertook this analysis found high concentrations of phthalates in all the brands they examined, and in some they also found organotin compounds. According to the editors, that should have been enough to put the children and their parents off playing in paddling pools.

The Vienna-based cancer researcher Professor Wilfried Bursch examined the published findings of the Öko-Test under the worst case scenario of young children drinking the paddling pool water or sucking and chewing on the sides of the paddling pool to see if these posed a serious health risk to children. Bursch came to the conclusion that reaching the current TDI limits would be highly unlikely. He reproached the Öko-Test editors with having contented themselves with the very presence of suspect substances and to not have actually considered if the amounts found actually posed a health risk. The industrial study group AgPU and the VKE German Plastics Manufacturers Association calculated that a 1 year old child weighing 10kg would have to drink at least 167 litres of pool water per day for an entire lifetime to approach the TDI level for DEHP.

In January 2003, the Federal Institute for Risk Assessment (BfR) officially confirmed this estimate. “The BfR has found that the levels of phthalates, butyltins, tributyltins and other organotin compounds contained in plastic found by Öko-Test through the normal use of paddling pools represent no health threat to small children.”

In August 2002, Öko-Test played the same game with inflatable arm bands and also plastic beach sandals (‘flip-flops’). Once again, the magazine contented itself with the presence of the substances demonized by Greenpeace, and did not attempt to ascertain at the outset whether these substances could be taken up into the human body in amounts which would give rise to concern – despite the fact that a calculation model for the take up of DEHP into the human body through skin contact had already been established in the US in 1984. Dr. Sabine Lindner of AgPU performed calculations using the American model as a basis and employing the figures published by Öko-Test in 2002. Her conclusion: “A person would need to walk around in flip flops for 15,000 hours a day in order to absorb the lifetime TDI through their skin.”

A scientific study on 20 adolescents led by Khodayar Rais-Bahrami appeared in Environmental Health Perspectives. These adolescents had been born prematurely and had been placed on respirators and fed artificially through soft PVC tubes and thus had come into contact with high doses of DEHP. This study came to the following conclusion:

„Our results imply that adolescents who have been exposed to considerable amounts of DEHP as premature babies show no discernible influences on their growth rate and sexual maturity as a result of this exposure. (…) Their male and female sexual functions showed no deviation from the norm.“

A study by the University of Rochester, also published in Environmental Health Perspectives (May 2005), claimed that there was a clear link between the concentration of plasticizer-metabolites in the urine of 85 pregnant women one (possible) predictor of later male infertility noted in their male offspring. However, these metabolites did not include those for DEHP, and the Statistical Assessment Service (STATS) at George Mason University in Washington DC found serious flaws in the research methodology and the statistical analysis of University of Rochester’s findings.

Disempowering the consumer

The refusal to recognize that almost nothing in this world is gained for free has taken widespread hold of the EU powers-that-be in their interpretation of the Precautionary Principle. They have interpreted the Precautionary Principle similarly to the universally adopted “Rio Declaration” made at the end of the UN Conference on Environment and Development in 1992. This is the source of oft quoted “Where there are threats of serious and irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation.”

This is surely going too far. Even the old proverb “an ounce of prevention is worth a pound of cure” implies curbs on preventive measures: the seventeenth ounce of prevention will be a wasted effort. This prevention-cure calculation becomes even more difficult when, as is often the case in science, the costs of the cure are far from certain. Taken to extremes, Rio’s Precautionary Principle would condemn us to inertia in order to avoid all risks. Indeed, shortly before the Rio Summit numerous Nobel Prize winners warned in the ‘Heidelberg Appeal’ against a surge in irrationalism.

Above all, environmental and other groups wanted the application of the Precautionary Principle to not only be limited to cases where full scientific certainty regarding environmental threats had not been established, but to have the Principle used in a way that would reverse the burden of proof. The 1992 UN report did not establish just how serious a threat needs to be in order to justify draconian measures. Suspicion alone counted in principle as sufficient reason to justify costly precautionary measures or production bans. Using that logic, chocolate would need to be banned – any competent chemist could combine chocolate with everyday ingredients to manufacture dangerous explosives.

As a reaction to this illogic, the EU Commission issued a paper in 2000 indicating that the Precautionary Principle should not be involved in risk assessment, but rather should play a part in the decision-making processes for risk management. The Principle should not be subverted either through vague suspicions, or through capricious misrepresentations with protectionist ulterior motives.

But the Commission could not establish in which cases the Precautionary Principle should be applied and in which it should not. The Commission’s papers said simply:

„An assessment of the potential consequences of inaction and of the uncertainties of the scientific evaluation should be considered by decision-makers when determining whether to trigger action based on the Precautionary Principle.“

Taken to extremes, the Precautionary Principle contradicts the age old insight that all human behavioural choices imply an element of risk and incur costs. Therefore the good needs to be weighed up against the bad. If an individual, a company, or the state decides against particular actions on the grounds of caution, or chooses to prohibit such actions, that does not mean that in doing so they are reducing the risks and the costs. Taking any particular risk out of an equation necessarily means accepting another one; someone who decides to stay home for fear of having an accident on the way to work has decided to accept the risk losing his job. A person who tries to avoid all risk will wrap themselves in a cocoon, and miss out on life altogether.

The lesser evil is most often evident only in hindsight. Whether or not someone agrees with (or likes), the idea, the fact remains that the discovery process is affected by market forces – i.e. we need to include market forces in our approach, even if we find the idea abhorrent. This does not, however, mean that we must, or indeed should, remove the Golden Rule from our decision making processes.

Risk assessments cannot be divorced from prevailing cultural, socio- economic and political contexts: your attitude to risk will depend on whether you are a man or a woman, young or old, living in poverty or extremely wealthy, an individualist or a collectivist. However, even with these caveats, the weighing up of good and bad consequences leads to an assessment according to clear criteria. By comparison, the strategy of minimizing evils is not based on rational thinking.

Should the EU Commission’s decision regarding the ban on the use of plasticizers in babies’ toys, which largely disregards both scientific fact and reason, become the accepted principle behind new legislation, then the EU would undoubtedly shift further towards the behaviour of an authoritarian state – where scientific research and findings are overruled by political pressure.

Fortunately, the Treaty of Maastricht already requires that all EU Directives are subjected to a comprehensible cost/benefit analysis to establish whether they are commensurate with the underlying legal principles. This was reinforced in February 2000, when, in order to avoid market intrusions prompted by arbitrary suspicions and the bad-mouthing of products and materials, the European Commission stated that employing the Precautionary Principle would always require a sound scientific risk assessment.

In 2001, the EU published a White Paper which set out the blueprint for a new Chemicals Policy. Among other things, the White Paper decided to call a halt to the separate treatment for Old and New substances. The Paper also examined their unprecedented regulations project REACh (Registration, Evaluation and Authorization of Chemicals), which applies to millions of substance applications and tried to determine, on a cost/benefit basis, whether REACh was actually justified.

The EU Commission ordered a study by the London-based consultancy Risk and Policy Analysts, which predicted that REACh would cost between 1.7 and 7 billion Euros in the first eleven years of its introduction, but that the EU stood to gain a possible cost saving (following the expected fall in occupation-related cancers) of up to 54 billion Euros over the next 30 years. However, these figures appear to be plucked from thin air, as around 80% of all occupation-related cancers in the EU stem from the asbestos legacy. This example shows the importance to effective risk management of input from occupational health specialists and other experts.

The position of the Green lobby appears to be that political application of the Precautionary Principle and the aims of sustainable development are core drivers for new innovations. But how do they know which materials are inherently safe and which have a lasting impact on the environment … when even water can be deadly under certain circumstances? Do the Greens and their political friends consider themselves better able to judge what will prove itself on the open market than market participants themselves? The Greens seem perfectly happy with the authoritarian undercurrents inherent in their position.

Unfortunately, some people cling to the erroneous belief that the expansion of knowledge implies that there is an end – a point where society has attained ‘ultimate knowledge’. This is not the case. The accumulation of knowledge can even lead to total confusion.

However important science may be as a reconnaissance and early warning system for society, the most important source of information in a market economy is not science but the market itself. This information is not transferred without cost, but rather set against the cost of the risks undertaken. Both PVC and tested plasticizers have not proven themselves to be harmful, while their attractive cost / price ratio means they have won in a fiercely competitive market. Millions of consumers who, on the basis of sound human reason freely weigh up costs and benefits, could scarcely be wrong. Clearly, putting pressure on the market by pushing forward alternative materials on the back of product bans or market subsidies constitutes a clear case of consumer disempowerment.

The average consumer from the silent majority does not need such incentives or help with decision-making in an open marketplace. This is demonstrated by the fact that in open competition PVC has easily won through on a number of sustainability criteria such as durability, energy and resources efficiency according to 21 key indicators of the German National Environmental Sustainability Plan set out in 2002. (This is far from my endorsement of this plan; as this cannot be sustainable as long as it fails to include, except for liberalization of international trade barriers, any further moves towards the development of economic freedom.)

Future perspectives

When discussing innovations through the filter of sustainable development, we need to ask if there are any sound reasons not to use proven products. As we have already indicated, innovation cannot be a goal in and of itself. In evolution in the natural world, attributes that have proven useful are not abandoned unless dictated by need; there are many cases of survival features that have remained unaltered over millions of years existing alongside far more recent developments. This is true not least of the genetic code which has been maintained virtually unchanged over the course of evolution from the simplest micro-organisms right up to the most highly developed land plants and mammals.

Today there are many interesting alternatives to phthalate plasticizers such as adipines and alkyl sulfonic acid. These materials are already often mixed with phthalates used in various products, as they improve specific qualities such as flame retardation, or flexibility at cold temperatures. But these substances do not necessarily present fewer problems than phthalates. A few of these such as chlorinated paraffins are even poisonous or carcinogenic. For example, DEHA, used in food packaging and regarded as harmless, has been replaced by some adipates which demonstrate a higher degree of volatility and migration. Similarly, citric acid esters and their derivatives have been increasingly used in toys and food packaging, despite the disadvantages of their higher price and lower microbial resistance.

The plastics industry currently has great hopes for Di-isononyl-cyclohexan-1.2-dicarboxylat (DINCH) a substance developed through computer modelling by BASF in co-operation with customers from other industries. This substance is somewhat more expensive than DEHP, and it can also be almost seamlessly substituted for DEHP without the need to rebuild production plants. DINCH also does not include any of the aromatic hydrocarbons defined as suspect by toxicologists so we can expect it to have a much more benign toxicological profile. BASF has confirmed this in a far reaching programme of tests. These tests indicate that DINCH does not affect the development of sexual organs or fertility, nor does it harm the environment. DINCH has a rate of migration which is 8 times lower than that of DEHP, although it has disadvantages such as higher volatility.

The quest for innovation or substitution in the case of these alternative plasticizers cannot be pursued without consideration of the costs, as we would end up substituting the proven with the unproven through ideologically driven wishful thinking. Society needs to pursue fulfilment of consumer demands in a way that balances benefits against the costs to the economy, the environment, and to health.

Our proven sound basis for rational decision-making would clearly be lost if materials or indeed entire product lines and production methods were to be condemned lock, stock and barrel without a rational cost / benefit analysis.

The history of technology shows us that we can seldom regard any solution to a problem as permanent; legs were complemented by horses, then wheels, then rail. It goes without saying that “good will be superseded by better” in the case of plasticizers. Already it has been demonstrated that in the near future the manufacture of not only hard PVCs but a very broad range of soft PVCs will be possible without the use of special plasticizers.

The American research company Teknor Apex has succeeded in manufacturing polyolefin elastomers. These compounds can be used to make highly elastic and soft PVC manufactured parts without the addition of plasticizers, but are 80% more expensive. Their use will initially be limited medical or specialized technical applications, where the use of plasticizers is a disadvantage and cost is not the deciding factor. Should it become possible to manufacture these compounds more cheaply, then they could take over in a number of markets. However, there is no reason for the artificial acceleration of their market introduction as long as they prove themselves sufficiently against market competition. In short: Current standard plasticizers will probably be replaced one day. What is important is that they are replaced by something really better and not by something declared political correct before being tested by the competition between different solutions on the market.

Conventional plasticizers could also see possible competition from nanotechnology. Nanotechnology has already proved itself in number of cases as a cost-effective physics-based replacement to existing chemical solutions. It is not inconceivable that nanotechnology could soon provide original proposals to solve the problem of plasticizers that we could scarcely dream of today. The name “nanotechnology” also highlights the fact that new solutions to problems could also carry new risks, as nanotechnology is already primarily regarded in the media as “the technology of risk”. No such intelligent technology would free humans from the torment of choice – the weighing up of relative evils.

(Translated by Amanda Oliver, London)

Es wird langsam kühler

Es wird immer deutlicher, dass die befürchtete Abkühlung der Erde, eine so genannte Kleine Eiszeit, schon begonnen hat. Kaltlufteinbrüche mit Schneefällen in Nordamerika, Asien und Europa lange nach Beginn der meteorologischen Sommerzeit haben in letzter Zeit zu beträchtlichen Ernteausfällen geführt und verschärfen die wegen der Finanzkrise ohnehin schon prekäre Ernährungssituation in armen Ländern.

Abkühlung lässt Agrarerträge sinken

Es lässt sich nicht mehr leugnen, dass die globale Erwärmung der Vergangenheit angehört. Seit der Jahrtausendwende wird es auf der Erde wieder langsam kühler. Kann mann über die Aussagekraft von Messungen der Bodentemperaturen noch streiten, so liefert die Entwicklung der landwirtschaftlichen Erträge ein unmissverständliches Bild. Der britische Kollege Christopher Booker hat im „Sunday Telegraph“ vom 14. Juni 2009 einen guten Überblick über witterungsbedingte Ernteausfälle in Nordamerika und in Asien zusammengestellt, der nur den Schluss zulässt, dass Klimawandel konkret Abkühlung heißt. Dazu passt auch die bei SPIEGELonline mit Verwunderung aufgenommene Nachricht, ein bedeutender argetinischer Gletscher dehne sich wieder aus. In einem schon vor über zwei Jahren erschienenen Artikel habe ich versucht zu erklären, was hinter den Wetterkapriolen steckt.

Was ist bloß mit dem Wetter los?

Von Edgar Gärtner*)

Man darf sich in Deutschland offenbar über gar nichts mehr freuen. Nicht einmal über die ermäßigte Heizkostenrechnung, die uns der erstaunlich milde Winter 2006/2007 beschert hat. Die deutschen Massenmedien haben die Veröffentlichung der (politischen!) Zusammenfassung des 4. Berichts des zwischenstaatlichen Klimarates IPCC Anfang Februar 2007 zum Anlass genommen, wie auf Kommando in einem Akt der Selbstgleichschaltung einander mit apokalyptischen Prophezeiungen, hysterischen Warnungen vor hypothetischen Gefahren und Bußpredigten zu überbieten.

Was will etwa der FOCUS-Titel „Die Erde im Klimaschock“ (Nr. 9/2007) sagen, wenn man voraussetzt, dass die World Meteorological Organisation (WMO) „Klima“ als 30-jährigen Mittelwert der Wetterabweichungen einer gegebenen Region vom Wetter anderer Regionen definiert? Ist nun der Mittelwert ein Schock oder wird er geschockt? Oder was bedeutet der Spruch „Die Klimakatastrophe ist eine Tatsache“ Anfang Februar 2007 im ZDF-heute-journal? Angesichts der geologischen Erkenntnis, dass lebensfeindliche Eiszeiten in der aktuellen Phase der Erdgeschichte mehr als zehnmal wahrscheinlicher eintreten als Warmzeiten, könnte das ja nur bedeuten, dass kilometerdicke Eisschilde bereits bis nach Hamburg oder Berlin vorgedrungen sind. Das war aber offenbar nicht gemeint. Vielmehr möchte man den Adressaten der GEZ-finanzierten Propaganda weismachen, die in den letzten 100 Jahren registrierte leichte Erhöhung der Durchschnittstemperatur über den Landmassen der Erde von 0,74 Grad Celsius sei die Katastrophe. Dabei müssten alle, die sich ein Körnchen gesunden Menschenverstand bewahrt haben, hoffen und/oder beten, die Erwärmung möge noch möglichst lange weitergehen. Ein Gemeinwesen, in dem sich eine solche semantische Umweltverschmutzung ausbreiten kann, ist dem Untergang geweiht!

Genau besehen, ist der jüngste IPCC-Bericht übrigens weniger alarmistisch als sein Vorgänger von 2001. Doch wie viele von den lieben Journalisten-Kollegen, die ihre wichtigste Aufgabe darin sehen, den Menschen Angst einzujagen und Opferbereitschaft zu predigen, haben die 13 Seiten Text und 7 Seiten Grafiken des „Summary for Policymakers“ überhaupt studiert? Jedenfalls dürfte es ihnen nicht leicht fallen, den dort projizierten möglichen Anstieg der Durchschnittstemperatur um 2 bis 4,5 Grad Celsius bis zum Jahr 2100 und den damit vermutlich einhergehenden Anstieg des Meeresspiegels um wenige Dezimeter als Katastrophe zu verkaufen.

Was verbirgt sich also hinter dem Schlagwort „Klimawandel“? Gab es in den letzten Jahrzehnten überhaupt einschneidende Veränderungen im Wettergeschehen? Wurden nicht vielmehr natürliche Schwankungen, maßlos übertreibend, zu Vorboten eines „Umkippens“ des herkömmlichen „Klima-Systems“ umgedeutet? Gab es aber dennoch in den letzten Jahrzehnten, wie ich selbst glaube, signifikante Veränderungen im Wetterablauf, wie lassen diese sich dann erklären? Zuerst eine für manche etwas enttäuschende Antwort: Was sich genau hinter den seit den 70er Jahren beobachtbaren auffälligen Veränderungen in der atmosphärischen Zirkulation verbirgt, wissen wir noch nicht. Als sicher kann hingegen gelten, dass die der „Klimapolitik“ zugrunde liegende „offizielle“ Erklärung, die dem bei der Verbrennung fossiler Energieträger (Kohle, Erdöl und Erdgas) entstehenden Kohlendioxid (CO2) und damit uns Menschen die Hauptverantwortung zuspricht, unhaltbar ist. Denn diese stützt sich ausschließlich auf numerische (nicht analytische!) Computersimulationen, deren Übertragbarkeit in die Realität höchst zweifelhaft ist.

Für Atmosphärenforscher verschiedener Disziplin ist CO2 ein Spurengas, weil es gegenüber den Hauptbestandteilen der Gashülle der Erde (78 Prozent Stickstoff und 21 Prozent Sauerstoff) nur etwa einen Teil von 3000 ausmacht. Neben CO2 gibt es noch eine Reihe weiterer Spurengase, darunter extrem reaktionsträge Edelgase und vor allem gasförmiges Wasser (Wasserdampf) in sehr stark schwankender Konzentration. Nicht von ungefähr bezeichnen Ökologen die Erde als „Wasserplanet“. Etwa 71 Prozent ihrer Oberfläche sind von kilometertiefen Ozeanen mit Salzwasser bedeckt. Dieses absorbiert und speichert einen großen Teil der bei klarem Himmel eintreffenden Sonnenwärme. Bereits die oberen drei Meter der Meere enthalten mehr Wärme als die ganze Atmosphäre. Schon allein die Existenz dieses riesigen Wärmespeichers kann, neben der sehr viel schnelleren Rotationsgeschwindigkeit und des damit verbundenen Wechsels von Tag und Nacht, die unterschiedlichen Temperaturverhältnisse auf der Erde und ihrem Trabanten, dem Mond, zu einem beträchtlichen Teil erklären.

Aber auch das bei der Aufheizung der Meere durch Verdunstung in die Lufthülle gelangende, dann zu Wolken kondensierende und als Regen oder Schnee auf die Landmassen fallende Süßwasser ist ein Klimafaktor ersten Ranges und bekanntlich auch in anderer Hinsicht lebenswichtig. Der Kreislauf des Wassers ist der mit Abstand wichtigste Stoffkreislauf auf der Erde. An zweiter Stelle steht der Sauerstoff-Kreislauf. Und erst an dritter Stelle folgt der Kreislauf des Kohlenstoffs, bei dem das Kohlendioxid Ausgangs- und Endpunkt zugleich darstellt. Denn CO2, obwohl in der Luft nur in Spuren vorhanden, bildet die Grundlage für den Aufbau organischer Substanz (Biomasse) durch die pflanzliche Photosynthese. Dabei erweist sich die aktuelle atmosphärische CO2-Konzentration als deutlich unteroptimal, denn eine künstliche Anreicherung dieses Gases in Gewächshäusern führt zu einer deutlichen Steigerung der Photosyntheserate und damit der Rentabilität der Pflanzenzucht.

Kohlendioxid und Wasser haben als dreiatomige Moleküle Eigenschaften, die sich von denen der zweiatomigen Hauptbestandteile der Luft (Stickstoff und Sauerstoff) unterscheiden. Beide werden durch die vom aufgeheizten Erdboden in Form von Infrarotstrahlen (IR) reflektierte Sonnenenergie für winzige Bruchteile von Sekunden zu Schwingungen angeregt. Es ist aber noch längst nicht ausgemacht, ob diese Anregung zu einer zusätzlichen Aufheizung des Bodens durch Rückstrahlung („Treibhauseffekt“) oder nicht im Gegenteil zu einer Abkühlung durch eine Beschleunigung des Wärmetransports ins kalte Weltall führt. Da es in den feuchten Tropen tagsüber längst nicht so heiß wird wie in den trockenen Subtropen, scheint der kühlende Effekt des Wasserdampfes zu überwiegen. Experimentell lässt sich diese Frage aber nicht klären.

Immerhin zeigten spektroskopische Messungen schon in der ersten Hälfte des 20. Jahrhunderts, dass der mögliche Einfluss von CO2 auf das Verhalten der Atmosphäre gegenüber dem Einfluss des Wassers vernachlässigbar gering sein muss. Denn die IR-Absorptionsspektren beider Gase überlappen sich sehr stark. Es gibt ein „Fenster“, durch das Wärmeenergie ungehindert in den Weltraum entweichen kann, weil in diesem Spektralbereich keines der Spurengase IR-Strahlen absorbiert. Die außerhalb des „Fensters“ einzige vom Wasser noch frei gelassene Absorptionsbande (bei 15 Mikrometer Wellenlänge) war – nach spektroskopischen Messungen, die der Wiesbadener Chemiker Heinz Hug durchgeführt hat – schon bei einer CO2-Konzentration von 280 ppm, die als „vorindustrielles Niveau“ angenommen wird, weitgehend gesättigt. Nur in Randbereichen des Absorptionsspektrums der Atmosphäre könnte zusätzliches CO2 überhaupt noch etwas ausrichten. Konkret heißt das: Fast alles, was durch die Menschen zusätzlich in die Luft geblasenes CO2 theoretisch in der Atmosphäre anrichten könnte, wurde schon von H2O getan, das dort (in schwankenden Konzentrationen) ohnehin vorhanden ist. Deshalb hat das „Compendium of Meteorology“ der US Meteorological Society schon 1951 festgestellt, die 1896 vom schwedischen Chemiker Swante Arrhenius (als Erklärung für die Eiszeiten!) formulierte Hypothese eines steuernden Einflusses von CO2 auf die Durchschnittstemperatur der Erde könne ad acta gelegt werden.

An diesem Wissensstand hat sich seither nicht viel geändert. Um die CO2-Treibhaus-Hypothese zu retten, brachte der US-Ozeanograf Roger Revelle, der später zum Mentor des Öko-Kreuzzüglers Al Gore wurde, die Hypothese einer Verstärkung der geringen Wirkung von CO2 durch den Wasserdampf in die Diskussion. Auf dieser „positiven Rückkoppelung“ beruhen heute alle numerischen Simulationsmodelle, mit deren Hilfe Großrechner die Entwicklung der Klimaentwicklung in den nächsten hundert Jahren simulieren sollen. Bei diesen Modellen handelt es sich also in Wirklichkeit um Wasserdampfmodelle, was dem Publikum der Massenmedien meist nicht bekannt ist. Da Wasserdampf aber auch im Gegenteil (vor allem über die Kondensation zu Wolken) eine negative Rückkoppelung bewirken kann, ist diese Einseitigkeit kaum nachvollziehbar. Sie beruht, wie leicht demonstriert werden kann, auf einer mehr oder weniger bewussten politisch-religiösen Vorentscheidung: Nur Modellierer, die dem Zeitgeist folgend, von vornherein davon überzeugt sind, dass die Menschen die Hauptschuld am Klimawandel tragen, werden nichts dabei finden, die mögliche kühlende Wirkung des Wasserdampfes zu vernachlässigen, wenn nicht zu unterschlagen.

Ein weiteres grundsätzliches Manko der „Klimamodelle“, die den IPCC-Berichten zugrunde liegen, ist die nahezu vollständige Verdrängung des realen Wettergeschehens durch die Betrachtung von Korrelationen zwischen Mittelwerten von Wetterdaten und anderen Konstrukten. Aber wie aussagekräftig sind Mittelwerte aus Messdaten, die in Wetterstationen aufgezeichnet werden, die z. T. einige Tausend Kilometer voneinander entfernt liegen? Die Antwort liegt auf der Hand. Tatsächlich verbergen sich hinter dem errechneten (nicht gemessenen!) durchschnittlichen Temperaturanstieg der vergangenen 100 Jahre gegenläufige Entwicklungen, die vermutlich nicht auf eine einzige Ursache, den CO2-Anstieg, zurück geführt werden können. So ist die globale Durchschnittstemperatur der Erde zwischen 1940 und 1975, trotz einer in dieser Zeit weiter gehenden CO2-Zunahme, wieder gesunken und erst in den letzten Jahrzehnten wieder angestiegen.

Dabei gab es auffällige regionale Unterschiede. Die Südhalbkugel ist daran überhaupt nicht beteiligt. Und auf der Nordhalbkugel gibt es vor allem in Polnähe extrem gegenläufige Tendenzen. Das wurde erst in den 90er Jahren bekannt, weil Amerikaner und Russen die Temperatur- und Niederschlags-Messwerte der Arktis während des Kalten Krieges aus militärischen Gründen geheim hielten. So wissen wir erst seit wenigen Jahren, dass die Luft in der Nachkriegszeit nördlich von Norwegen und Alaska in mittlerer Höhe über dem Meeresspiegel im Schnitt deutlich wärmer geworden ist. Damit hängt offenbar die z. T. spektakuläre Schrumpfung des Packeises in diesen Gebieten zusammen. Das Arctic Council (ACIA), eine Art Untergliederung des IPCC, hat daraus im Jahre 2004 geschlossen, bis zum Ende des Jahrhunderts werde die Arktis im Sommer vollkommen eisfrei sein. Doch diese primitive Hochrechnung ist unbegründet, weil größere Teile der Arktis (insbesondere über Ostsibirien sowie Ostkanada und Nord-Grönland) im gleichen Zeitraum in Bodennähe deutlich kälter geworden sind. Im Großen und Ganzen hat sich die Arktis seit 1950 stetig abgekühlt. Das mussten vor kurzem zwei tapfere Frauen (Ann Bancroft und Liv Arnesen) zur Kenntnis nehmen, die in der Absicht, die Welt vor der globalen Erwärmung zu warnen, mitten im Winter zu einer Nordpol-Expedition aufgebrochen waren. Sie mussten ihr Unterfangen aber abbrechen, weil bei Temperaturen von bis zu minus 100 Grad Fahrenheit (-73°C) die Batterien ihres Equipment den Geist aufgaben.

Von den über dem größten Teil der Arktis liegenden Kaltluft-Seen lösen sich, wie Aufnahmen von Wettersatelliten seit dem Ende der 70er Jahre zeigen, in den letzten Jahrzehnten immer häufiger flache Kaltluftlinsen mit hohem Druck. Diese ziehen auf charakteristischen Bahnen Richtung Süden, weil sie Gebirgszüge von über 1000 Metern Höhe nicht überqueren können. Das bekommen vor allem die Nordamerikaner zu spüren, die auch in diesem Winter bis ins Frühjahr hinein wieder von einer Kältewelle nach der anderen heimgesucht wurden. Zur gleichen Zeit konnten sich die Westeuropäer über deutlich sinkende Heizkosten freuen, mussten dafür aber größtenteils Schmuddelwetter in Kauf nehmen, das von häufigen feucht-milden Südwestwinden herangetragen wurde. Bei diesen Winden, die entlang der norwegischen Berge bis in die Arktis vorstoßen können, handelt es sich, wie Satelliten-Aufnahmen zeigen, eindeutig um Warmluft, die durch die auf der Ostseite des Atlantik gen Süden ziehenden Kältehochs verdrängt wurde. Das Gleiche spielt sich über dem Pazifik ab. Die dort von sibirischen und mongolischen Kältehochs verdrängte Warmluft strömt auf amerikanischer Seite entlang der Rockies nach Alaska.

Das alles kann man, wie angedeutet, auf den immer besser aufgelösten und präzise datierten Satellitenaufnahmen anhand charakteristischer Wolkenbilder beinahe lückenlos verfolgen. Leider sieht man diese schönen (und obendrein kostenlos verfügbaren) Bilder in unseren TV- und Printmedien immer seltener. Warum wohl? Die öffentlich-rechtlichen Fernsehkanäle zeigen ihrem Publikum stattdessen Isobaren-Karten, mit denen Laien kaum etwas anzufangen wissen. Die meisten Tageszeitungen sind nicht viel besser. Die FAZ zeigt immerhin noch in Tiefblau die wandernden Kaltluftmassen. Die einzige mir bekannte deutschsprachige Tageszeitung, die ihre Wetterseite bis vor kurzem jeden Tag mit einen aussagekräftigen Satellitenfoto aufmachte, ist die NZZ. Dort wurden diese aber meist mit eigenartigen Kommentaren versehen. Oft fand sich darin kein Hinweis auf durchaus nicht unauffällige Kältehochs, die von der Grönlandsee herunter ziehen. Stattdessen stehen Tiefdruckwirbel im Vordergrund, die sich mithilfe der Erdrotation bilden, wenn Warmluft der anrückenden Kaltluft durch Aufsteigen ausweicht. Die Wetterfrösche erwecken den Eindruck, nicht die von der Arktis Richtung Äquator ziehenden Hochs, sondern Tiefs seien die Motoren der atmosphärischen Zirkulation.

Nach Ansicht des inzwischen leider zu früh verstorbenen französischen Meteorologen und Klimatologen Marcel Leroux ist diese Fehlinterpretation die Folge des sturen Festhaltens der staatlichen Wetterdienste an Theorien der atmosphärischen Zirkulation aus der ersten Hälfte des vorigen Jahrhunderts. Danach befindet sich der Motor der globalen Wettermaschine im Tropengürtel der Erde, d.h. in einem Tiefdruckband, auch meteorologischer Äquator genannt, das sich infolge des Aufsteigens feucht-warmer Luftmassen bildet. Die aufgestiegene Luft regnet und kühlt sich in Tropengewittern ab und sinkt in den so genannten Rossbreiten, abgelenkt durch die Erdrotation, als trockener Fallwind (Passat) wieder zu Boden. Diese Dynamik soll auch das Wettergeschehen in der gemäßigten Westwindzone stark prägen.

Marcel Leroux konnte schon in seiner Habilitationsschrift („Thèse d’état“) zeigen, dass diese Vorstellung nicht haltbar ist. Als Sohn eines bretonischen Marineoffiziers in Nordafrika aufgewachsen, absolvierte er seinen gesamten wissenschaftlichen Werdegang im tropischen Afrika. Für seine „Thèse d’état“ reiste Leroux ein Jahrzehnt lang kreuz und quer durch den schwarzen Kontinent, um alle verfügbaren historischen Wetterdaten (meist von Kolonialverwaltungen) zusammenzutragen und auszuwerten. Das Ergebnis war ein zweibändiger Klima-Atlas des tropischen Afrika, der 1983 von der WMO in Genf publiziert wurde und, da 2001 auf Englisch neu aufgelegt und um eine CD ROM ergänzt, noch heute als alternativloses Standardwerk gilt. Bei der Datenauswertung fiel Leroux auf, dass der meteorologische Äquator keine stabile Lage hat. Vielmehr wird er relativ oft von starken, je nach Jahreszeit von der Arktis oder der Antarktis heranrückenden Hochdruckgebieten nach Süden oder Norden verschoben. Leroux deutet u. a. die Trockenheit der Sahel-Zone als Folge einer solchen Verschiebung. Der Tropengürtel spielt nach diesem Befund also eher eine passive als eine aktive Rolle in der globalen Luftzirkulation.

Als Professor an der Universität Jean Moulin in Lyon konnte Leroux später durch die Auswertung einer Vielzahl von Satellitenfotos zeigen, dass die Motoren der Wettermaschine tatsächlich an den Polen und nicht am Äquator zu finden sind. Er konnte anhand dieser Bilder und durch den Vergleich von Wetterdaten zeigen, dass sich die (diskontinuierliche) atmosphärische Zirkulation auf der Nordhalbkugel seit den 70er Jahren deutlich beschleunigt hat. Das Wetter wechselt häufiger als früher, weil sich ein Hoch nach dem andern, immer begleitet von Tiefdruckwirbeln, nach Süden bewegt. Mitunter kommt es aber doch zu sehr stabilen Wetterlagen, wenn sich etliche kleinere Hochs zu einem Riesenhoch zusammenballen. Auf diese Weise entsteht das bekannte „Azorenhoch“ über dem Atlantik. Es handelt sich dabei aber nicht um eine autonome Wesenheit, sondern um eine statistische Größe, die nur die hohe Wahrscheinlichkeit anzeigt, mit der sich von der Labradorsee oder vom Europäischen Nordmeer herunter ziehende Kältehochs (Leroux und seine Schüler nennen sie „Mobile Polar Highs“, MPH) in diesem Gebiet vereinigen. Das gleiche gilt für die Bezeichnung „Island-Tief“, die nur andeutet, dass die vom Vordringen der MPH erzeugten Tiefdruckwirbel oft dorthin ziehen.

In den letzten Jahrzehnten sind nach Leroux’ Statistik die MPH nicht nur häufiger geworden. Gleichzeitig stieg auch ihr durchschnittlicher Druck. Und sie drangen immer weiter nach Süden vor, während die sie begleitenden Tiefdruckwirbel immer weiter nach Norden gelangten. Über die Tiefdruckrinne am Vorderrand der Hochs kann so warme Luft nicht nur aus den Subtropen, sondern sogar aus den Tropen bis in die Arktis gelangen. Auf der Südhemisphäre ist übrigens Ähnliches zu beobachten. Dort wird Warmluft von der Andenkette direkt auf die antarktische Halbinsel gelenkt. Dort schmilzt das Eis, während sich der antarktische Kontinent, im Ganzen genommen, weiter abkühlt. An der (geringen) Veränderung der Durchschnittstemperatur lässt sich diese Dynamik überhaupt nicht ablesen.

Die gelegentlichen Hitzewellen, die in den letzten Jahren in Westeuropa auftraten, wurden übrigens immer von Kaltlufteinbrüchen verursacht. Mehrere MPH stauten sich an der Alpenbarriere und ihre Luftmassen heizten sich dann infolge der starken sommerlichen Sonneneinstrahlung an Ort und Stelle auf. Das kann man gut in diesem sonnigen Frühjahr beobachten: Immer sind es Kaltlufteinbrüche, die bei uns für schönes Wetter sorgen. Häufigere Kaltlufteinbrüche könnten auch erklären, warum die durchschnittliche Oberflächentemperatur der Ozeane in den letzten Jahren nicht gestiegen, sondern nach Lyman und Mitarbeitern wahrscheinlich sogar leicht gesunken ist. Die Bestätigung dieses Trends steht freilich noch aus.

Leroux ist deshalb der Meinung, hinter der in einem Teil der Welt registrierten Erwärmung verberge sich in Wirklichkeit ein Abkühlungsprozess. Die beschriebene Beschleunigung der atmosphärischen Zirkulation sei ein Vorzeichen des langsamen Heranrückens der nächsten Eiszeit. Denn Geologen wissen, dass die globale Wettermaschine in der jüngeren Erdgeschichte zwischen zwei Gangarten, einer schnellen und einer langsamen, hin und her gependelt ist. Dabei blieben die langsamen, mit einer Erwärmung verbundenen Phasen eher Ausnahmesituationen. Die mit einer Abkühlung verbundenen schnellen Phasen währten etwa zehnmal länger.

Es kann ausgeschlossen werden, dass der CO2-Gehalt der Luft für dieses Auf und Ab direkt oder indirekt verantwortlich ist. Analysen von Eisbohrkernen von der Antarktis zeigen eindeutig, dass der CO2-Anstieg Erwärmungsphasen immer mit einer Zeitverzögerung von 800 bis 1000 Jahren folgte, also keineswegs als Ursache der Erwärmung in Frage kommt. Dieses Nachhinken des CO2-Anstiegs gegenüber dem Temperaturanstieg ist auch in der neueren Zeit beobachtbar. So wissen wir seit kurzem durch die Auswertung alter, aber verlässlicher CO2-Messungen mithilfe klassischer chemischer Analysemethoden durch den Freiburger Biologen Ernst Georg Beck dass dem Hitzejahr 1940 zwei Jahre später eine CO2-Spitzenkonzentration von 420ppm folgte. Heute versucht das IPCC den Menschen einzureden, die aktuelle CO2-Konzentration von 380 ppm sei bereits bedenklich.

Aus alledem lässt sich nur schließen: Kohlendioxid aus natürlichen Quellen und von Menschen gesteuerten Verbrennungsprozessen kann nicht Ursache des Klimawandels sein. Das heißt nicht, die Menschen hätten überhaupt keinen Einfluss auf ihr (regionales) Klima. Tatsächlich haben sie dieses seit grauen Vorzeiten tief greifend verändert, und zwar vor allem durch die Rodung von Wäldern, die Schaffung von Acker- und Weideland sowie nicht zuletzt durch die Anlage von städtischen Siedlungen und Stauseen.

Viel besser lässt sich der Wechsel von Kalt- und Warmzeiten nach Ansicht namhafter Astronomen mit natürlichen Variationen der Sonneneinstrahlung und des Magnetfeldes erklären, wobei jedoch berücksichtigt werden muss, dass sich hier astronomische und terrestrische Zyklen sehr unterschiedlicher Länge und Größenordnung (wie die Exzentrizität des Erdumlaufs um die Sonne, die Neigung der Erdachse, kürzere und längere Schwankungen der Sonnenaktivität sowie kosmische Einflüsse) in komplizierter Weise überlagern. Unter Umständen können Zyklen gegenläufige Einflüsse ausüben. Deshalb ist gegenüber Prognosen, die nur einen bekannten Zyklus berücksichtigen, Vorsicht geboten.

So deutet zur Zeit Vieles darauf hin, dass wir die Häufung warmer Sommer seit den 90er Jahren zum beträchtlichen Teil einer außerordentlichen Verstärkung des Magnetfeldes der Sonne im Laufe des 20. Jahrhunderts verdanken. Nach einer inzwischen schon halbwegs bestätigten Hypothese der dänischen Atmosphärenphysiker Henrik Svensmark und Eigil Friis-Christensen wird dadurch die Erde vor kosmischen Partikeln geschützt, die beim Eindringen in die Atmosphäre als Kondensationskeime für die Wolkenbildung wirken könnten. Gibt es weniger Wolken, steigen die sommerlichen Temperaturen. Umgekehrt kann es aber auch in den langen Winternächten bitter kalt werden. Da der hyperaktive Sonnenzyklus nun vorüber ist, erwartet der bekannte russische Astronom und Mathematiker Habibullo Abdusamatow (St. Petersburg) eine schon im nächsten Jahrzehnt beginnende Abkühlungsphase, eine „Kleine Eiszeit“, die um die Mitte des Jahrhunderts ihren Tiefpunkt erreichen soll. Aber auch die nächste „Große Eiszeit“ rückt näher, denn die Geologen sind sich im Prinzip einig, dass der Höhepunkt der gegenwärtigen Warmzeit längst überschritten ist. Welche Ursachen aber im Einzelnen hinter der beobachtbaren Beschleunigung der Luftzirkulation stehen, weiß noch niemand. Deshalb würde ich zur Zeit noch nicht wetten, dass es auf der Erde schon in zehn Jahren spürbar kühler sein wird.

Literatur

Ernst Georg Beck: 180 Years of Accurate CO2-Gas-Analysis of Air by Chemical Methods (Short Version), in: Energy & Environment Volume 18 No. 2/2007

Heinz Hug: Die Angsttrompeter. Die Wahrheit über die Gefahren aus der Umwelt. Signum Verlag (F.A. Herbig), München 2006. ISBN 3-7766-8013-X. 360 Seiten.

Marcel Leroux: Global Warming. Myth or Reality? The Erring Ways of Climatology. Springer-Praxis, Berlin-Heidelberg-New York 2005. ISBN 3-540-23909-X. 509 Seiten.

Marcel Leroux: Les échanges méridiens commandent les changements climatiques. Vortrag in der Académie des Sciences, Paris, 5. März 2007

John M. Lyman/Josh K. Willis/Gregory C. Johnson: Recent Cooling of the Upper Ocean, in: Geophysical Research Letters, Vol. 33, L 18604, doi: 10.1029/2006GL027033, 2006

Henrik Svensmark/Jens Olaf Pepke Pedersen/Nigel Marsh/Martin Enghoff/Ulrik Uggerhoj: Experimental Evidence for the Role of Ions in Particle Nucleation under Atmospheric Conditions, in: Proceedings of the Royal Society A, 2006, October 3rd

*) veröffentlicht 2007 in „eigentümlich frei“ (Lichtschlag-Medien, Grevenbroich)

Energiepolitik ohne Konzept

Es gibt in Deutschland noch immer keine strategische Energiepolitik und folglich auch keine inhaltliche Koordinierung der Energieforschung. Sechs Chemiegesellschaften haben deshalb ein Positionspapier vorgelegt, um Forschern zu zeigen, wie sie zur Sicherung einer ökologisch sauberen und bezahlbaren Energieversorgung beitragen können. Sie können allerdings die von ihnen geforderte Abkehr vom Erdöl nicht begründen.

Windräder erzeugen unterm Strich mehr CO2 als sie vermeiden

Eine gerade erschienene Studie ehemaliger Shell-Mitarbeiter in den Niederladen mit dem Titel The hidden fuel costs of wind generated electricity rechnet vor: Deutsche Windräder benötigen mehr Energie und erzeugen mehr Kohlenstoffdioxid als sie vermeiden. (17. Dezember 2009)

==========================================================

Energie der Zukunft mit mehr Chemie

In Deutschland gibt es trotz pompöser „Energiegipfel“ keine Energiepolitik, die diesen Namen verdient. Darauf hat BASF-Chef Jürgen Hambrecht schon vor zweieinhalb Jahren hingewiesen. Ob die neue Bundesregierung unter Angela Merkel ein schlüssiges Gesamtkonzept wird erarbeiten können, ist jetzt noch nicht absehbar. Bislang wurde die Energieforschung nicht nur vom Bundesforschungsministerium, sondern auch vom Wirtschaftsministerium, vom Bundesumweltministerium und vom Landwirtschaftsministerium gefördert. Um diese Zersplitterung zu überwinden, hat die neue Bundesregierung für das kommende Jahr eine nationale Energieforschungsinitiative angekündigt. Sechs im Koordinierungskreis Chemische Energieforschung zusammengeschlossene Chemiegesellschaften (DBG-Deutsche Bunsengesellschaft für Physikalische Chemie, DECHEMA-Gesellschaft für Chemische Technik und Biotechnologie, DGMK-Deutsche wissenschaftliche Gesellschaft für Erdöl, Erdgas und Kohle, GDCh-Gesellschaft deutscher Chemiker, VCI-Verband der Chemischen Industrie und VDI-GVC-Gesellschaft Verfahrenstechnik und Chemieingenieurwesen) sahen deshalb den richtigen Zeitpunkt gekommen, um die Ergebnisse einer von ihnen erarbeiteten quantitativen Potentialanalyse verschiedener energietechnischer Innovationen in Form eines Positionspapiers zu veröffentlichen.

Die beteiligten Verbände hielten eine Quantifizierung ihrer Potentialabschätzungen für notwendig, um überblicken zu können, wo bei den Forschungsanstrengungen Prioritäten gesetzt werden müssen. Eine interaktive Excel-Tabelle im Internet (www.energie-und-Chemie.de) ermöglicht es, unterschiedliche Annahmen durchzurechnen und Interdependenzen zu berücksichtigen. Als Zeithorizont wurde das Jahr 2030 gewählt. Das Papier beginnt mit dem Reizthema Erdöl und der Feststellung: „Die konventionellen Kraftstoffe, das sind Ottokraftstoff (Benzin), Flugturbinenkraftstoff (Kerosin) und Dieselkraftstoff werden auf absehbare Zeit weiterhin die Grundlage der Mobilität unserer Gesellschaft bieten. (…) Auch Biokraftstoffe der zweiten Generation und aus den Rohstoffen Erdgas und Kohle werden bis 2030 voraussichtlich keine signifikante Rolle für die Erzeugung von Kraftstoffen spielen.“

Die Chemie könne unter anderem durch die Entwicklung neuer Katalysatoren für das Hydrotreating-Verfahren der Rohöl-Reinigung und neuer Hilfschemikalien für die Entölung der Lagerstätten wichtige Beiträge zur Verbesserung der Ausbeute von Rohölvorkommen leisten. Zurzeit liegt der durchschnittliche Entölungsgrad der Lagerstätten unter 40 Prozent. Die Autorinnen und Autoren des Positionspapiers gehen davon aus, dass der Anteil der tertiären Ölförderung mithilfe von geeigneten Chemikalien, der derzeit bei 4 Prozent liegt, mindestens verdoppelt werden kann.

Das Positionspapier geht leider nur kurz auf die Erschließung neuer Ölvorräte ein. Auch hier zeichnet sich erheblicher Forschungsbedarf ab. Denn in den vergangenen Jahren hat es sich gezeigt, dass man praktisch überall in der Welt Rohöl findet, wenn man nur tief genug bohrt. Förderungswürdig ist dieses Öl freilich nur, wenn der Ölpreis die damit verbundenen hohen Kosten rechtfertigt. Immerhin haben die Ergebnisse der Tiefenexploration (u. a. vor Brasilien und vor Sierra Leone im Atlantik oder im Golf von Mexiko) jenen Geologen Auftrieb gegeben, die seit längerem davon überzeugt sind, dass Erdöl nur zu einem Teil biotischen Ursprungs ist und zu einem Großteil im oberen Erdmantel beziehungsweise in der unteren Erdkruste aufgrund der dort herrschenden hohen Drücke und Temperaturen auf rein chemischem Wege ständig neu gebildet wird. Jedenfalls konnten Anton Kolesnikow, Vladimir G. Kutcherow und Alexander F. Goncharow von der Washingtoner Carnegie Institution, der Moskauer Lomonossow Universiät und des Königlich schwedischen Technologie Instituts in Stockholm in diesem Jahr experimentell bestätigen, dass Erdöl auch auf abiotischem Wege entstehen kann.

In welchem Verhältnis Neubildung und Verbrauch abiotischen Öls zueinander stehen, muss allerdings noch erforscht werden. Zurzeit scheint es jedenfalls keinen Grund zu geben, den Abschied vom Erdöl einzuleiten, denn es gibt keine Ölverknappung. „Fortschritte in der Chemie erleichtern den Abschied vom Öl“, lautet die Überschrift der Kurzfassung des Positionspapiers. Ebenso gut könnte man sagen, dass die Chemie hilft, das Erdöl noch möglichst lange als Energie- und Chemie-Rohstoff weiter nutzen zu können.

Anders als beim Erdöl gibt es bei Erdgas und Kohle nicht einmal scheinbare Verknappungssymptome. Beide Energieträger eignen sich auch für die Herstellung flüssiger Kraftstoffe. Das Positionspapier geht davon aus, dass das selbst in Deutschland wirtschaftlich interessant werden könnte. Vordringlich sei jedoch die Verbesserung der Technologie stationärer Kohle- und Gaskraftwerke. Die Internationale Energieagentur (IEA) schätzt, dass bis zum Jahre 2030 weltweit mindestens 75 Prozent aller neu gebauten Kraftwerke mit Kohle oder Gas befeuert werden. Für den Bau neuer Kraftwerkskapazitäten müssten bis dahin nicht weniger als 4 Billionen Euro zur Verfügung gestellt werden. Der Weltenergierat (WEC) erwartet eine breite Einführung von Technologien der CO2-Abscheidung aus Kohlekraftwerken (CCS) nicht vor 2020. Es erscheint als fraglich, ob CCS jemals weltweit zum Standard werden wird, da hierdurch die Investitionskosten für fossil befeuerte Kraftwerke, je nach der gewählten Kraftwerkstechnologie, noch einmal um 30 bis 100 Prozent ansteigen würden. Da kommen die durch Insider aus der Climate Research Unit (CRU) der University of East Anglia (Norwich) ins Internet gestellten Dateien mit kompromittierender Korrespondenz zwischen führenden Vertretern des Weltklimarates IPCC über Klimadaten-Manipulationen gerade recht, um erneut anzuzweifeln, ob CO2-Emissionen überhaupt verantwortlich für den Klimawandel sind.

Interessanter als die teure und obendrein nicht unbedingt sichere Endlagerung von CO2 könnte dessen photokatalytische Reduktion oder Hydrierung sein. Doch hier stehe die Forschung noch ganz am Anfang, sagt das Papier.

Aktuell ist die Chemie viel stärker bei der der Verbesserung des Wirkungsrades der Photovoltaik gefordert. Zu über 90 Prozent sind die bislang in Deutschland installierten Photovoltaik-Module aus kristallinen Siliziumwafern gefertigt. Dünnschicht-Solarzellen aus anderen Halbleitern gewinnen erst seit wenigen Jahren Marktanteile. Das Papier verschweigt nicht, dass es sich bei der Photovoltaik mit CO2-Vermeidungskosten von ungefähr 3.500 €/t CO2 um die mit Abstand teuerste Methode der CO2-Einsparung handelt. Das spezifische Investment je kW Durchschnittsleistung übersteigt bei Siliziumbasierten Solarmodulen in Deutschland (mit einer mittleren jährlichen Sonneneinstrahlung von nur 1.000 kWh/m2) über 40.000 Euro. (Zum Vergleich: Braunkohlekraftwerke erfordern 1.700 €/kW und erdgasbefeuerte GuD-Kraftwerke nur 700 €/kW.) Ohne die im deutschen Erneuerbare Energien Gesetz (EEG) für 20 Jahre garantierten hohen Netzeinspeisetarife für Solarstrom hätte die Photovoltaik noch heute kaum Chancen auf dem Markt. Für die Zukunft versprechen sich die Verfasser des Positionspapiers einiges von der organischen Photovoltaik (polymere Heterojunctions, Grätzel-Zellen und organisch-anorganische Hybridzellen).

Beim Thema Energiespeicherung warnen die Autoren des Papiers davor, einseitig auf Wasserstoff zu setzen. „Methan darf als Zukunftsoption nicht vernachlässigt werden. Es erscheint mir als beinahe idealer Energiespeicher, weil man damit die vorhandene Gasversorgungs-Infrastruktur nutzen kann. Aber die Methanchemie ist bei uns leider unterentwickelt“, unterstrich Prof. Ferdi Schüth, Direktor des MPI für Kohlenforschung in Mühlheim und Vorsitzender des Koordinierungskreises Chemische Energieforschung, bei der Vorstellung des Positionspapiers in Frankfurt am Main. Beim Einsatz von Methanol sieht das Positionspapier hingegen eher Nachteile. Elektrochemische Energiespeicher, zum Beispiel Lithium-Ionen- oder Natrium-Nickelchlorid-Batterien, eignen sich bislang nicht für den großtechnischen Einsatz. Auch bei deren Anwendung in Plug-in-Hybridfahrzeugen oder in Privathaushalten beziehungsweise als Ergänzung zu Pumpspeicher-Kraftwerken in „intelligenten“ Stromnetzen gebe es noch erheblichen Forschungsbedarf. Wahrscheinlich mache der Anteil des „fluktuierenden Stroms“ von Windrädern und Photovoltaikanlagen im Jahre 2030 schon über ein Viertel des gesamten deutschen Stromaufkommens aus. Um Netzzusammenbrüche zu vermeiden, muss dieser oft zur Unzeit anfallende Strom irgendwie abgepuffert werden. Elektro- beziehungsweise Hybridfahrzeuge böten sich als rollende Stromspeicher an.

Andreas Kreimeyer (BASF), der Vorsitzende des Ausschusses Forschung, Wissenschaft und Bildung im VCI, wies in Frankfurt auf Defizite in der elektrochemischen Forschung hin, die als wissenschaftliche Grundlage der Energiespeicherung benötigt wird. Der Fonds der Chemischen Industrie unterstützt deshalb gezielt elektrochemische Diplomarbeiten und Promotionsprojekte an den Hochschulen, um Professoren und Studenten anzuregen, sich mit diesem in jüngerer Zeit vernachlässigten Teil der Energieforschung zu beschäftigen. „Die Energieversorgung der Zukunft wird chemischer“, resümierte Kreimeyer.

Beim Thema effiziente Energienutzung beschäftigt sich das Positionspapier ausführlich mit der Brennstoffzellentechnik, insbesondere in Form virtueller Brennstoffzellen-Großkraftwerke durch die Vernetzung vieler dezentraler Brennstoffzellen-Blockheizkraftwerke mit Kraft-Wärme-Kopplung untereinander sowie mit anderen regenerativen Energiequellen. Das Papier schätzt deren Potential aber äußerst vorsichtig ein, da die Wirtschaftlichkeit dieser Technik stark von Annahmen über die Entwicklung des Preises für CO2-Zertifikate abhängt.

Unter dem Thema effiziente Energienutzung handelt das Positionspapier auch die Entwicklung von Leuchtdioden (LEDs und OLEDs) und neuer Leuchtstoffe ab. Tatsächlich gehören diese interessanten Neuentwicklungen wohl eher in die Rubriken Ästhetik oder Bequemlichkeit. Denn auf die Beleuchtung entfallen in Deutschland laut Energieflussbild nur 0,7 Prozent des gesamten Primärenergiebedarfs. Selbst wenn die Deutschen gänzlich auf Beleuchtung verzichteten, könnten sie dadurch ihren Energieerbrauch nicht spürbar verringern. Tatsächlich eröffnet die Anwendung der Nanotechnologie die Möglichkeit, maßgeschneiderte Materialien für die Herstellung von Leuchttapeten oder andere völlig neuartiger Leuchtmittel ohne lästige Wärmeerzeugung zu entwickeln. Dadurch könnte die Architektur revolutioniert werden.

Aufgaben für Chemiker warten auch bei Versuchen, Hochtemperatur-Supraleiter der zweiten Generation auf der Basis von Ytrium-Barium-Kupferoxid zu verbessern. Der Einsatz von Supraleitern ermöglicht zwar Verlustreduktionen von bis zu 60 Prozent bei Generatoren und bis zu 95 Prozent bei stationären Transformatoren und Induktionsheizungen. Kurz- und mittelfristig fällt die dadurch mögliche Reduktion des Primärenergieeinsatzes wegen der damit verbundenen hohen Kosten jedoch nicht ins Gewicht. Werden heute Supraleiter im Maschinenbau und in der Medizintechnik eingesetzt, ist nicht die erwartete höhere Energieeffizienz dafür ausschlaggebend, stellt das Papier nüchtern fest.

In der breiten Öffentlichkeit längst anerkannt ist hingegen der Beitrag der chemischen Industrie zur Entwicklung neuer Werkstoffe für die Wärmedämmung von Gebäuden. Ohne das im Einzelnen zu quantifizieren, gehen die Autorinnen und Autoren hier von negativen CO2-Vermeidungskosten aufgrund der durch die Dämmstoffe bewirkten Heizkostenersparnis aus. Dabei gibt es bei den Dämmstoffen selbst durchaus noch Entwicklungspotenzial: So zum Beispiel durch den Einsatz nanoporöser Schaumstoffe oder durch die Integration von Flammschutzfunktionen.

Nicht so leicht ist die Kosten-Nutzen-Abwägung bei der Entwicklung und dem Einsatz neuartiger Leichtbaustoffe im Maschinen-, Anlagen- und Fahrzeugbau. Bei einem für die Kfz-Flotte anvisierten Normalverbrauch von 4,5 Liter Treibstoff auf 100 Kilometer belaufen sich die CO2-Vermeidungskosten immerhin auf durchschnittlich etwa 450€/t CO2. Solange nicht experimentell demonstriert werden kann, dass CO2 wirklich umweltschädlich ist, wird nicht jeder freiwillig solche Kosten in Kauf nehmen.

Umso mehr kommt es darauf an, knappe Forschungsgelder und Investitionsmittel dort einzusetzen, wo sie Mensch und Umwelt den größten Nutzen bringen. Deshalb kann man Andreas Kreimeyer wohl nur zustimmen, wenn er fordert: „Die Bundesregierung sollte ihre geplante nationale Energieforschungsinitiative dazu nutzen, eine Energieforschungspolitik aus einem Guss zu gestalten.“

Edgar L. Gärtner

(erschienen in: Chemische Rundschau Nr. 12/2009 vom 8. Dezember 2009. VS-Medien, CH-Solothurn)

=============================================================================================

Einem Skandal auf der Spur von Edgar L. Gärtner

Mögliche Hintergründe der Aufregung um die Krümmel-Pannen

Die deutschen Betreiber von Kernkraftwerken bereiten sich auf einen möglichen „Ausstieg aus dem Ausstieg“ vor, denn sowohl die Union als auch die FDP haben versprochen, die unter der rot-grünen Bundesregierung ausgehandelte Laufzeitverkürzung für Kernkraftwerke wieder rückgängig zu machen, falls es in Berlin zu einer schwarz-gelben Regierung käme. Mit aufwändigen Zeitungsbeilagen wollten die betroffenen Stromkonzerne in diesem Sommer für eine Verlängerung der Laufzeiten für ihre längst abgeschriebenen und daher konkurrenzlos kostengünstigen Kernkraftwerke werben, zumal Meinungsumfragen darauf hindeuteten, dass sich immer mehr Deutsche, angesichts drohender weiterer Strompreissteigerungen, mit dieser Lösung anfreunden. Doch am 4. Juli, wenige Tage vor dem ursprünglich angesetzten Start der PR-Kampagne des Deutschen Atomforums, musste das vom schwedischen Staatskonzern Vattenfall betriebene norddeutsche Kernkraftwerk Krümmel, das nach einer zweijährigen Zwangspause wegen eines Transformatorbrandes gerade wieder ans Netz gegangen war, wegen eines erneuten Transformatorschadens schon wieder stillgelegt werden. Die Manager der deutschen Kernkraftbetreiber E.on, RWE und EnBW, sind nun sauer auf ihren nordischen Konkurrenten, der in Deutschland aus wettbewerbsrechtlichen Gründen die Kernkraftwerke des verblichenen Hamburgischen Stromkonzerns HEW übernommen hat.

In einem vom 28. Juli 2009 datierten Schreiben an Ernst Michael Züfle, den Chef der Nuklear-Sparte von Vattenfall in Deutschland, das vor kurzem auszugsweise im „Handelsblatt“ veröffentlicht wurde, schrieben Klaus-Dieter Maubach, der Chef von E.On Energie, Gerd Jäger, der für Kernenergie zuständige Vorstand von RWE Power, und Hans-Josef Zimmer, technischer Vorstand der EnBW: „Wir sehen Vattenfall (…) in der Pflicht, zu den Ereignissenn und Vorgängen in Krümmel öffentlich Stellung zu beziehen. Dies ist in den letzten Tagen nicht immer geschehen. Vielmehr mussten wir feststellen, dass sich der Vattenfall-Konzern in dieser Frage … der Diskussion entzieht.“ Hintergrund des wütenden Schreibens ist nicht nur ein erneuter Anlauf für eine Zeitungsbeilage des Atomforums, die nun – anders als ursprünglich geplant – in der heißen Phase des Wahlkampfes erschienen ist. Dort sollte nach Ansicht der deutschen Kernkraftwerk-Betreiber nicht nur Michael Züfle zu den Vorfällen in Krümmel Stellung beziehen – sondern am besten Vattenfall-Chef Lars Göran Josefsson persönlich. Denn Vattenfall habe mit seinem Verhalten bei den Vorfällen in Krümmel den Atomkraft-Gegnern eine „Steilvorlage“ geliefert. Ein nicht minder wichtiger Grund für die Wut der deutschen Strom-Manager sind aber Befürchtungen, die Politik werde Zugeständnisse in Sachen Kraftwerks-Laufzeiten mit hohen finanziellen Forderungen verbinden.

Was ich in meinem Buch „Öko-Nihilismus“ (auf Seite 19 unten) schon vor über zwei Jahren für wahrscheinlich gehalten habe, wird nun, wie das „Handelsblatt“ vom 28. August berichtete, von der Unions- und der FDP-Fraktion im Deutschen Bundestag ganz offen propagiert: Im Falle einer Laufzeitverlängerung für deutsche Kernkraftwerke nach einem schwarz-gelben Sieg bei den bevorstehenden Bundestagswahlen soll der Staat mindestens die Hälfte der beim Weiterbetrieb abgeschriebener Atomkraftwerke anfallenden Extragewinne abschöpfen und in die Entwicklung „besserer“, weil teurerer „erneuerbaren“ Energien investieren oder auch für die Entlastung der Stromkunden einsetzen. Es geht hier, nach Analysen der Landesbank Baden-Württemberg, schon bei einer Laufzeitverlängerung von nur zehn Jahren um Summen in zweistelliger Milliardenhöhe. Bei einer technisch durchaus möglichen Laufzeitverlängerung um 25 Jahre und einem angenommenen Strompreis von 80 Euro je Megawattstunde winkt E.on ein Extragewinn von fast 32 Milliarden Euro. RWE könnte mit 23 und EnBW mit fast 15 Milliarden Euro rechnen.

Doch was ist mit Vattenfall? In Schweden geht das Gerücht um, der Staatskonzern habe die eher harmlosen, weil im nichtnuklearen Teil des KKW Krümmel eingetretenen Pannen vielleicht mit Absicht provoziert, um seinen deutschen Konkurrenten einen Strich durch die Rechnung zu machen. Denn nach einem vom schwedischen Reichstag 1998 beschlossenen Gesetz muss der Staatskonzern in erster Linie als Instrument der schwedischen Politik agieren. Und diese kann kein Interesse an niedrigen Strompreisen in Deutschland haben. Nicht nur Schweden, sondern ganz Skandinavien sieht sich, im Unterschied zum Kontinent, mit wachsenden Stromüberschüssen und entsprechend sinkenden Strompreisen konfrontiert. Und dieser Strom wird fast zu 100 Prozent CO2-frei zu gleichen Teilen durch Wasser- und Kernkraftwerke erzeugt. Die skandinavischen Stromanbieter haben also vom CO2-Emissionshandel nichts zu befürchten. Sie bereiten sich darauf vor, ihre Stromüberschüsse, die sie zu äusserst günstigen Preisen generiert haben, kontinentalen Abnehmern zu teuren Marktpreisen anzubieten. Es könnte sogar so sein, dass Vattenfall sich aus dem gleichen Grund in Deutschland für die industriell unerprobte und teure Abscheidung und Endlagerung von Kohlenstoffdioxid aus den Abgasen von Stein- und Braunkohlenkraftwerken stark macht. Damit würden die Marginalkosten der Stromproduktion steigen. Im System des Börsenhandels von Elektrizität bestimmen die Marginalkosten die Strompreise. Je höher die Marginalkosten, desto höher auch der Marktpreis, zu welchem Vattenfall verkauft und kontinentale Anbieter einkaufen.

Dass Bundeskanzlerin Dr. Angela Merkel neben dem durchgeknallten Theoretischen Physiker Hans Joachim Schellnhuber vom Potsdam Institut für Klimafolgenforschung (PIK) ausgerechnet Vattenfall-Chef Josefsson zu ihrem Top-Berater in Sachen „Klimaschutz“ ernannt hat, zeigt meines Erachtens, was von der strategischen Kompetenz unserer politischen Klasse zu halten ist.

Literatur:

Edgar L. Gärtner: Öko-Nihilismus. Eine Kritik der Politischen Ökologie. Jena 2007

Internet:

Konkurrenten greifen Vattenfall an

Atomkonzerne sollen Milliarden zahlen

Interview mit Hans Joachim Schellnhuber

(7. September 2009)

Energiepolitik im Dienste ausländischer Interessen?

Von Edgar L. Gärtner

Einem Skandal auf der Spur (Fortsetzung)

Deutschland wird bald zum Stromimportland werden. Selbst nach Schätzungen der in diesem Zusammenhang unverdächtigen Deutschen Energieagentur (Dena) wird im Jahre 2020 eine Kraftwerksleistung von 12.000 Megawatt (MW) fehlen. Nach Hochrechnungen des Essener Stromkonzerns RWE wird Deutschland schon im Jahre 2015 netto mehr Strom importieren als exportieren. Sollte der Ausstieg aus der Kernkraftnutzung fortgesetzt und der Bau neuer Kohlekraftwerke nicht beschleunigt werden, droht uns nach dieser Rechnung bis 2020 eine Kapazitätslücke von 40.000 MW. Ein Bündnis aus insgesamt 140 Umweltschutzvereinen und kirchlichen Missions- und Hilfsrganisationen unter dem Namen „Klima-Allianz“ hat sich offenbar in den Kopf gesetzt, Deutschlands Stromversorgung noch rascher den politischen Zielen und Geschäftsinteressen ausländischer Staatskonzerne zu unterwerfen.

Anlässlich der von der „Klima-Allianz“ bejubelten Verfügung des Oberverwaltungsgerichts Münster, den bereits fortgeschrittenen Neubau des größten Kohlekraftwerks des E.on-Konzerns im westfälischen Datteln zu stoppen, konnte auch die deutsche Qualitätspresse nicht mehr umhin, auf die dubiose Finanzierung der „Klima-Allianz“ aufmerksam zu machen. So wies die WELT am 10. September auf Spenden von in der Schweiz und in den USA beheimateten Stiftungen hin. Etwas deutlicher wurde die Financial Times Deutschland, die am 18. September berichtete, der britischen Hedge-Fonds TCI habe den Kampf gegen Kohlekraftwerke im vergangenen Jahr mit nicht weniger als 500.000 € unterstützt. Das erinnert an die Machenschaften David Bondermans, des Chefs des Investment-Fonds Texas Pacific. Bonderman leitete vor zweieinhalb Jahren durch eine von ihm gesponserten NGO-Kampagne die Übernahme des texanischen Kohlekraftswerks-Betreibers TXU ein. Dadurch verhinderte er, dass TXU seine Pläne für den Bau neuer Kohlekraftwerke umsetzen konnte und erreichte, dass stattdessen die Interessen der Wind- und Gasindustrie Oberhand bekamen.

Inzwischen hat die in den USA erfolgreich erprobte Methode politischer Erpressung von Investoren, die der US-Professor Jarol B. Manheim in seinem 2004 erschienen Buch „Biz-War and the Out-of-Power Elite“ analysiert hat, auch in Europa Einzug gehalten. Neben den Interessen der russischen Gazprom geht es in Europa insbesondere um die Interessen der staatlichen Stromkonzerne Frankreichs und Schwedens. Der schwedische Internet-Fachinformationsdienst www.elbranschen.com teilt übrigens meine kürzlich an dieser Stelle geäußerten Vermutungen über eine geheime Agenda des schwedischen Staatskonzerne Vattenfall. Einiges spricht dafür, dass Vattenfall die „Störfälle“ im KKW Krümmel provoziert hat, um eine Verlängerung der Laufzeiten deutscher Atomkraftwerke nach der anstehenden Bundestagswahl zu verhindern. Denn dann bekäme Vattenfall die Chance, überschüssigen skandinavischen Strom aus Wasser- und Atomkraftwerken zu Höchstpreisen in Deutschland abzusetzen. Der schwedische Informationsdienst fragt bereits scherzhaft, ob Vattenfall (ähnlich wie Gazprom im Falle der Abwahl Gerhard Schröders) Angela Merkel für den Fall ihrer nicht gänzlich ausgeschlossenen Abwahl als Bundeskanzlerin einen Aufsichtsratsposten bereithält.

Internet:

Einem Skandal auf der Spur

30 Kohlekraftwerke bedroht

E.ons Kohlekrampfwerk

Vermutungen eines Schweden

(24. September 2009)

==============================================================================

„The Economist“ sieht in England die Lichter ausgehen

Das britische Wirtschaftsmagazin „The Economist“ vom 6. August analysiert schonungslos die energiepolitischen Illusionen der Labour Regierung unter Gordon Brown. Da Kohlekraftwerke als schmutzig abgelehnt werden, der Bau von Atomkraftwerken zu teuer und zu zeitaufwendig ist und die „erneuerbarer“ Wind- und Solarstrom nur sehr unregelmäßig und überdies ineffzient erzeugt werden kann, halten sich die Energieversorger an den Bau von Gas-Kraftwerken. Diese lassen sich zwar rasch und billig errichten, doch ihre Betriebskosten erscheinen als kaum kalkulierbar, da der wachsende Gasbedarf den Gaslieferanten Russland in eine mehr als komfortable Anbieter-Situation bringt. Freuen können sich darüber nur Wladimir Putin und seine Getreuen in der Kreml AG. (10. August 2009)

========================================================================

Wüstenstrom bedroht gesunden Menschenverstand

Kollegen der Tageszeitung „Die Welt“ haben am 14. Juli 2009 einen Fragen- und Antworten-Katalog zu dem am 13. Juli in München auf den Weg gebrachten Wüstenstrom-Projekt veröffentlicht, der den Anschein erweckt, er sei unhinterfragt einem PR-Folder der federführenden Münchner Rückversicherung entnommen worden. Denn bislang kannte ich von diesen Kollegen eher kritische oder skeptische Beiträge zum Problem der Energieversorgungssicherheit Deutschlands. Im Folgenden möchte ich auf jeden der 10 Punkte des Katalogs einzeln eingehen.

1. Ob die für die Erzeugung und den Transport von solarthermisch erzeugtem Strom in der Sahara bis zum Jahre 2050 vorgesehenen Investitionen von mindestens 400 Milliarden Euro angemessen sind, ist eine eher theoretische Frage. Tatsache ist, dass der gesamte Strombedarf Deutschlands selbst bei Berücksichtigung der hohen Stromsteuer und der EEG-Umlage für ungefähr 30 Milliarden Euro im Jahr gedeckt werden kann. Wird der begonnene „Atom-Ausstieg“ wie geplant fortgesetzt und entwickelt sich der CO2-Emissionshandel, dann werden sich unsere Stromkosten rasch verdoppeln. Ob das den „Wüstenstrom“ wettbewerbsfähig machen wird, ist völlig offen. Es ist lediglich absehbar, dass das Desertec-Projekt viel teurer werden wird als vorläufig angenommen. Da die Standorte der Parabolspiegel-Kraftwerke noch nicht gefunden sind, lässt sich nicht abschätzen, wie weit und in welcher Form der durch sie erzeugte Strom transportiert werden wird. Für die Münchner Rück sind aber letztlich die durch Destertec vermiedenen „Klimaschäden“ ausschlaggebend. Doch diese sind rein hypothetischer Natur. Viel spricht dafür, dass es bei einer fortgesetzten Erderwärmung mehr Gewinner als Verlierer gäbe, denn Historikern ist bekannt, dass im mittelalterlichen „Klimaoptimum“ der Wohlstand wuchs. Außerdem dürfte die Erderwärmung ab einem bestimmten Niveau zu einer fortschreitenden Ergrünung der Sahara führen. Es gäbe dann möglicherweise überhaupt keinen Platz mehr für „Wüstenkraftwerke.“

2. Klar ist, dass Solarstrom aus der Sahara heute nicht wettbewerbsfähig wäre. Das zumindest für die Durchleitung des Wüstenstroms benötigte EU-Land Frankreich setzt weiterhin auf preisgünstigen Atomstrom. Dieser würde auch in Zukunft deutlich günstiger sein als Solarstrom.

3. In der Tat sind die Argumente der Fotovoltaik-Lobby gegenüber Desertec schwach. Sie beruhen auf der Angst heutiger Subventionsempfänger, in naher Zukunft Konkurrenz von einer weiteren um Subventionen werbenden Lobby zu bekommen. Dennoch hat die Fotovoltaik-Lobby recht, wenn sie darauf hinweist, dass Solarstrom aus der Sahara in Deutschland nicht gebraucht wird. Denn es gibt hier neben sehr kostengünstig arbeitenden, weil abgeschriebenen Kernkraftwerken auch moderne Braunkohlekraftwerke, die Strom ähnlich kostengünstig liefern, solange dieser nicht durch den CO2-Emissionshandel und/oder Öko-Steuern künstlich verteuert wird. Somit bin ich bereits beim Punkt 4.

4. Was bringt die Kollegen bzw. die Münchner Rück dazu, zu behaupten, das Kohlezeitalter gehe unweigerlich zu Ende? Im Gegenteil spricht Vieles dafür, dass es gerade erst richtig beginnt. Nicht nur in China gehen Kohlekraftwerke im Wochenrhythmus in Betrieb. Und wer wollte behaupten, die Kohlevorräte der Erde gingen zur Neige? Es gibt allenfalls vorübergehende Nachschubprobleme, aber keine Verknappung von Kohle. Die bekannten Lagerstätten reichen noch für Jahrhunderte. Da nicht nachweisbar ist, dass das bei der Verbrennung von Kohle entstehende Kohlenstoffdioxid irgendeinen negativen Einfluss auf Wetter und Klima ausübt, besteht kein Grund, auf die Nutzung dieses Naturschatzes zu verzichten.

5. In der Tat würde uns Desertec abhängig machen von politisch höchst instabilen Ländern. Insbesondere in Algerien, das, rein technisch gesehen, die besten Standortbedingungen für solarthermische Kraftwerke böte, gibt die politische Entwicklung Anlass zu großer Sorge. Die politische Macht befindet sich dort in den Händen einer aus der nationalen Befreiungsbewegung FLN gegen die französische Kolonialmacht hervorgegangenen Filzokratie. Nicht von ungefähr hat der in Algerien aufgewachsene französische Literaturnobelpreisträger Albert Camus, trotz seines Engagements gegen den Kolonialismus, immer wieder davor gewarnt, die politische Macht in die Hände von „Banditen“ geraten zu lassen. Die in Algerien seit Jahrzehnten herrschende Cliquenwirtschaft hat verhindert, dass das mit Bodenschätzen aller Art gesegnete Land zu Wohlstand gelangt. Arbeitslosigkeit, Wohnungsnot und fortschreitende Armut bereiten den Boden für Terroristen des Al-Kaida-Netzwerkes, deren erklärtes Ziel die Wiederherstellung des Kalifats Al Andalus bis zu den Pyrenäen und darüber hinaus bis nach Südfrankreich ist.

6. Das Desertec-Project hat durchaus ein kolonialistisches Geschmäckle. Das wäre anders, wenn die Initiative von den nordafrikanischen Ländern ausgegangen wäre. Die wirtschaftliche Entwicklung in bislang armen Ländern beflügeln könnte das Projekt nur unter geeigneten politischen Rahmenbedingungen.

7. In der Tat sind die Transportverluste bei der ins Auge gefassten Hochspannungs-Gleichstromübertragung (HGÜ) im Prinzip deutlich geringer als bei Wechselspannung. Bisherige Erfahrungen beziehen sich aber ausschließlich auf die Punkt-zu-Punkt-Übertragung großer Strommengen vom Ort der Erzeugung zu einem Ort hohen Verbrauchs. Das Desertec-Projekt ist hingegen als Verbund einer Vielzahl von Solarthermie-Kraftwerken konzipiert. Da die Standorte dieser Kraftwerke noch nicht feststehen, ist die Länge der notwendigen Übertragungswege und somit auch die Höhe der Transportverluste überhaupt noch nicht abschätzbar. Es ist auch noch nicht geklärt, ob die erzeugte Elektrizität in Europa über ein noch nicht existierendes Gleichstromnetz oder über das vorhandene Wechselstromnetz verteilt werden wird.

8. Sandstürme scheinen ein eher geringes Problem zu sein, zumal sich die Parabolspiegel mithilfe ihrer ohnehin vorhandenen Nachführ-Motoren im Ernstfall aus dem Wind drehen lassen.

9. In der Tat würde Desertec zur Zementierung der Abhängigkeit der Stromverbraucher von zentralistischen Versorgungssystemen beitragen. Es gäbe durchaus sichere dezentrale Alternativen: etwa kleine Nuklear-Batterien beziehungsweise Hochtemperatur-Reaktoren oder auch Blockheizkraftwerke mit Stirling-Motoren, die man im Keller von Ein- oder Mehrfamilienhäusern aufstellen oder in deren Vorgärten oder Hinterhöfen vergraben könnte. Solche dezentralen, entsprechend individueller Bedürfnisse steuerbaren Energieversorgungstechniken würden durch Kontinente übergreifende Versorgungsstrukturen höchstwahrscheinlich gehemmt.

10. Das Desertec-Projekt lebt von dem vor allem in Deutschland verbreiteten gutmenschlichen Wunschdenken. Dessen Grundlage sind historisch bedingte Schuld-Komplexe und eine damit zusammenhängende Verlierer-Mentalität. Im Unterschied zu Idealen können Utopien, sobald sie zu totalitären Fiktionen geworden sind, durchaus Realität werden – allerdings nur als Farce.

Edgar L. Gärtner (16. Juli 2009)

==================================================================

Stromarmut in Deutschland von Edgar L. Gärtner

Der Solar-Boom beschert den Stromverbrauchern eine Kostenlawine und vernichtet Arbeitsplätze.

In Deutschland hängen bekanntlich etwa sieben Millionen Arbeitslose oder Inhaber von Mini-Jobs ganz oder teilweise am Arbeitslosengeld 2 (Hartz IV), davon etwa die Hälfte dauerhaft. Der monatliche Basissatz von ALG2 beträgt je Erwachsener neuerdings € 359,-. Hinzu kommen die Kosten für Wohnungsmiete, Heizung und Wasser, die in der Regel bis zu einem örtlich unterschiedlichen Deckelbetrag von der Kommune übernommen werden. In jeden Fall müssen die ALG2-Empfänger den Strom für Kochen, Beleuchtung, Kommunikation und Unterhaltung aus dem Regelsatz von € 359,- begleichen. In der Stadt Frankfurt werden für Haushalte ohne elektrische Warmwasseraufbereitung monatlich lediglich € 16,- für „Haushaltsenergie“ angesetzt. Da die Stromkosten für Privathaushalte in Deutschland im europäischen Vergleich mit fast 22 ct/kWh besonders hoch sind, müssen ALG2-Empfänger ihren Jahresverbrauch auf etwa 750 kWh begrenzen, wenn sie nicht ihre Ernährung einschränken wollen. Das entspricht weniger als der Hälfte des durchschnittlichen Stromverbrauchs deutscher Einpersonenhaushalte, der zurzeit bei etwa 1.700 kWh/a liegt. Wer von ALG2 abhängt, muss also, ohne Hunger in Kauf zu nehmen, selbst seine Internet-Nutzung stark einschränken.

Bundesumweltminister Sigmar Gabriel ist sich durchaus bewusst, dass sich hier sozialer Sprengstoff ansammelt. Sein Ministerium beteiligt sich deshalb an der Finanzierung einer Studie des Frankfurter Instituts für sozial-ökologische Forschungen (ISOE) und das Heidelberger ifeu Institut für Energie- und Umweltforschung. Im Auftrag der Caritas möchten diese erforschen, wie man ALG2-Empfängern am besten helfen könnte, an für sie unbezahlbare stromsparende Haushaltsgeräte der neuesten Generation zu kommen. Welche Scheinheiligkeit sich dahinter verbirgt, wird deutlich, wenn man erfährt, dass die hohen deutschen Strompreise zu 40 Prozent aus diversen Steuern und Zwangsabgaben bestehen. Darunter befindet sich auch die durch das Erneuerbare Energien Gesetz (EEG) im Jahre 2000 eingeführte Umlage für die Einspeisung nicht marktfähiger Strommengen aus Windkraftanlagen (WKA), Biogasanlagen und Photovoltaik-Modulen ins öffentliche Stromnetz.

Bis zur Jahrtausendwende zeichnete sich Deutschland durch eher moderate Strompreise aus. Diese wurden garantiert durch das große Gewicht älterer Braunkohle- und abgeschriebener Kernkraftwerke im deutschen Stromerzeugungs-Mix. Bei beiden Kraftwerkstypen lagen die Stromerzeugungskosten unter 2 ct/kWh. Steinkohlekraftwerke, die eine Mischung aus billig importierter Importkohle und hochsubventionierter heimischer Kohle nutzten, lagen mit knapp 5 ct/kWh auf einem mehr als doppelt so hohen Kostenniveau – und damit etwa gleichauf mit Wasserkraftwerken, deren Beitrag zum deutschen Strom-Mix seit vielen Jahren deutlich unter 5 Prozent bleibt, weil keine neuen, für die Anlage von Stauseen geeigneten Standorte verfügbar sind. Auch der Anteil von Erdgas an der Stromerzeugung blieb bis zum Ende des 20. Jahrhunderts bescheiden.

Als dann, entsprechend den EU-Vorgaben, der deutsche Strommarkt (im Prinzip) für den Wettbewerb geöffnet wurde, sank der Strompreis für Industriekunden zunächst auf etwa 6 ct/kWh und der mittlere Strompreis für Privataushalte auf 14 ct/kWh. Doch nach der Jahrtausendwende begannen die Strompreise wieder stetig zu steigen. Im vergangenen Jahr mussten Industriekunden schon wieder fast 13 ct/kWh und Endverbraucher fast 22 ct/kWh berappen. Der Hauptgrund für diese Entwicklung liegt im EEG mit seiner 20-jährigen Abnahme- und Preisgarantie für „grünen“ Strom.

Was nach den Erfahrungen mit Preis- und Abnahmegarantien auf den europäischen Agrarmärkten zu erwarten war, trat auch hier ein: Institutionelle und private Anleger investierten massiv in die Erschließung „erneuerbarer“ Energien, zunächst vor allem in Windparks. Insgesamt etwa 22.000 WKA steuern inzwischen schon 6,3 Prozent zur deutschen Bruttostromerzeugung von insgesamt 639 TWh (Milliarden Kilowattstunden) für einen garantierten Preis von 9 ct/kWh bei. Um die extrem unstetige Stromerzeugung der WKA ausgleichen zu können, müssen entweder Kohlekraftwerke im unwirtschaftlichen Stand-by-Betrieb weiterlaufen oder rasch an- und abschaltbare Gasturbinen bereitstehen. Deshalb ist der Gas-Anteil am deutschen Stromerzeugungs-Mix parallel zur Vervielfältigung der Zahl der WKA gestiegen: Während der Windstrom-Anteil zwischen 1990 und 2007 von Null auf 40 TWh zunahm, stieg der Gas-Anteil an der Stromerzeugung von 36 auf 75 TWh oder 13 Prozent (für durchschnittlich 7 ct/kWh). 83 Prozent des gesamten deutschen Erdgasbedarfs wurden im Jahre 2007 importiert, etwa die Hälfte davon aus Russland. Der Ausbau der Windkraft hat also die Importabhängigkeit der deutschen Energieversorgung verstärkt. Das gilt zwar nicht für den gleichzeitig geförderten Ausbau der Biomasse-Nutzung, die inzwischen mit 3,6 Prozent zur Stromerzeugung beisteuert. Doch trägt auch sie mit einem garantierten Stromabnahmepreis von 14 ct/kWh spürbar zur Verteuerung der Elektrizitätsversorgung bei.

So hat sich neun Jahre nach der Verabschiedung des EEG die Preisstruktur der deutschen Stromproduktion bereits deutlich verschoben. Die durchschnittlichen Stromerzeugungskosten stiegen von 3,5 ct/kWh im Jahre 2003 auf 5,61 ct/kWh im Jahre 2008. Ein weiterer Grund für diese Entwicklung ist das nahende Auslaufen der Kernenergie-Nutzung, die ebenfalls im Jahre 2000 beschlossen wurde, sowie der Start des europäischen CO2-Emissionshandels. Aus diesem Grund beginnen inzwischen sogar Braunkohlekraftwerke ihre Vorteile einzubüßen.

Wichtigster Kostentreiber dürfte in den nächsten Jahren aber wohl die Photovoltaik sein. Seit 2004 erhielten private Betreiber von Solarmodulen eine garantierte Stromeinspeisungsvergütung von bis zu 57,4 ct/kWh mit einer jährlichen Degression von 5 Prozent. Seit Beginn dieses Jahres wurde der Garantiepreis nach zähen Verhandlungen mit der Solarlobby auf 43 ct/kWh gesenkt und die Degression auf 8 bzw. 9 Prozent erhöht. Selbst nach der hinter dem EEG stehenden umstrittenen Begründung hätte der Garantiepreis nach einhelliger Einschätzung der Fachleute viel stärker, und zwar mindestens auf 21 ct/kWh gesenkt werden müssen, um Einsparungseffekten Rechnung zu tragen. Denn es gibt zurzeit weltweit eine enorme Überproduktion von Solarzellen, die zu einem Preiskrieg zwischen chinesischen, japanischen, amerikanischen und europäischen Herstellern geführt hat. Der Preis je Silizium-Modul ist seit dem letzten Herbst von € 3,50 je Watt Leistung auf € 2,30 je Watt gefallen. Der US-Marktführer First Solar bietet seine Dünnschicht-Module aus Cadmiumtellurid, die allerdings einen deutlich größeren Flächenbedarf haben, inzwischen schon für einen Dollar je Watt Leistung an.

Wegen dieses Preisverfalls wird es in den nächsten Jahren wohl zu einem Solar-Boom kommen, während Windkraft-Projekte wegen der Krise mit beträchtlichen Finanzierungsproblemen zu kämpfen haben. Schon für dieses Jahr erwarten Experten in Deutschland einen Kapazitätszuwachs von bis zu 2,5 Gigawatt. Werden die gesetzlich garantierten Abnahmepreise nicht deutlicher abgesenkt, droht den deutschen Stromkunden eine Kostenlawine ungeahnten Ausmaßes. Schon für die bis Ende 2008 installierten Photovoltaik-Module, die lediglich maximal 0,6 Prozent des deutschen Strombedarfs decken, müssen sie nach Berechnungen des Bonner Volkswirts Dieter Damian über 20 Jahre insgesamt 45 Milliarden Euro zahlen. Das bedeutet 563 Euro je Bürger, Kinder und Greise eingeschlossen! Schon im Jahre 2015 lägen die aufsummierten Kosten der Photovoltaik zwischen 133 und 169 Milliarden Euro. Und im Jahre 2020 könnten sie im schlimmsten Fall schon die Schallmauer von 300 Milliarden Euro durchbrechen. Das wären deutlich mehr als 3000 Euro zusätzliche Stromkosten je Bundesbürger!

Damians unveröffentlichte Berechnungen wurden im Prinzip bestätigt von Manuel Frondel und Mitarbeitern vom Rheinisch-Westfälischen Institut für Wirtschaftsforschung (RWI Essen). Auch diese Autoren errechneten bis 2015 reale Zusatzkosten der Photovoltaik von über 100 Milliarden Euro. Damian sieht in den wiederholten Hinweisen Gabriels und der Solarlobby auf bis zu 280.000 Arbeitsplätze, die angeblich mithilfe des EEG geschaffen worden seien, einen üblen Propaganda-Trick, weil die mit viel statistischer Kreativität hochgerechneten Beschäftigungseffekte immer nur mit den jährlichen durch das EEG verursachten Kosten verglichen würden und nicht mit den über 20 Jahre auflaufenden Kosten. Das RWI hat schon im Jahre 2004 vorgerechnet, durch das EEG würden schon ab 2010 deutlich mehr Arbeitsplätze vernichtet als neu geschaffen. Wenn überhaupt, fördere das EEG nur die Beschäftigung im Ausland.

Prof. Dr. Ing. Helmut Alt von der Fachhochschule Aachen hat durchgerechnet, was geschähe, wenn der deutsche Stromerzeugungs-Mix entsprechend den Vorstellungen von Andrea Ypsilanti (SPD) im hessischen Landtagswahlkampf umgebaut würde. Bei einem kompletten Verzicht auf die Kernenergie, einer Erhöhung des Windkraftanteils auf 20 und einer Verzehnfachung des Photovoltaik-Anteils auf 6 Prozent würden sich die Kosten der Stromerzeugung in Deutschland verdoppeln. Das könnte nicht ohne Einfluss auf die Beschäftigung bleiben. Doch zur „Stromarmut“ könnte es auf diesem Weg auch im wörtlichen Sinne kommen. Wird die genehmigte Laufzeit der noch arbeitenden 17 deutschen Kernkraftwerke nicht verlängert, würde Deutschland schon im Jahre 2015 zu einem Stromimportland, weil infolge der Finanzkrise und des Widerstandes „grüner“ Gruppierungen vor Ort inzwischen auch der Neubau von Kohlekraftwerken ins Stocken geraten ist.

Internet:

Im Zuge steigender Energiepreise wächst die „Energiearmut“

Billig-Solarzellen revolutionieren die Strombranche

Neue Hoffnung für Solarstrom

Solaranlagen-Herstellern droht überfällige Auslese

Literatur:

Manuel Frondel, Nolan Ritter und Christoph M. Schmidt: Photovoltaik: Wo viel Licht ist, ist auch viel Schatten, in: List Forum für Wirtschafts- und Finanzpolitik, Bd. 34, Heft 1/2008

====================================================================

Der Kampf gegen Windmühlen wird überflüssig

Ich bin stolz auf mich, denn ich konnte im letzten Sommer eine meiner Schwestern davon abhalten, ihre Ölheizung durch eine scheinbar modernere und nachhaltigere Gasheizung zu ersetzen. Von einem Freund in der Schweiz mit zuverlässigen Insider-Informationen versorgt, hatte ich etwa zur gleichen Zeit in Printmedien wie „Die Welt“, „Neue Zürcher Zeitung“ und „Wall Street Journal“ darauf aufmerksam gemacht, dass es Wirtschaftskreisen, die sich für den Bau riesiger Windparks an Land und auf hoher See stark machen, in Wirklichkeit darum geht, die Abhängigkeit Deutschlands und ganz Westeuropas von russischem Erdgas zu verstärken. Ich hatte auch auf Bestrebungen, ein internationales Gas-Kartell nach dem Vorbild der OPEC zusammenzubringen, aufmerksam gemacht und davor gewarnt, dass schon in diesem Winter von langer Hand vorbereitete Erpressungsversuche gestartet werden würden. Nun ist alles so gekommen, wie ich es vorausgesehen hatte. Gestern hat ein Wirtschaftsredakteur der „Welt“, der meinen Warnungen zunächst skeptisch gegenüber gestanden hatte, in der „Welt am Sonntag“ meine Sicht der Dinge voll und ganz bestätigt. Am 4. Februar hat der Kollege Daniel Wetzel nachgelegt, indem er eine Studie der Unternehmensberatung A.T. Keearney mit dem Titel „Von der Finanzkrise zur Energiekrise“ vorstellt. Diese Studie macht nicht nur deutlich, dass das amtliche Ziel, den Anteil „erneuerbarer“ Energien bis zum Jahre 2020 auf 20 Prozent zu steigern, völlig illusorisch ist, sondern zeigt auch, dass steigende Kapitalkosten auch den Bau klassischer Kohlekraftwerke erschweren. Deshalb gehe Deutschland auf eine Stromerzeugungslücke und auf eine drastische Verteuerung der Elektrizität zu.

Auf die Genugtuung, Recht behalten zu haben, hätte ich allerdings gerne verzichtet. Alle Warnungen sind aber für die Katz, wenn die ganze politische Klasse im festen Glauben, etwas Gutes zu tun, mit offenen Augen, aber dennoch blind, weil nicht sehen wollend, den wirtschaftlichen Selbstmord vorbereitet. Ehrlich gesagt, fühle ich mich zurzeit gegenüber der raschen Ausbreitung der postmodernen Geisteskrankheit Nihilismus ziemlich hilflos. Makabererweise wird die angebrochene tiefe Wirtschaftskrise, nach deren Ende von der Wirtschaftswelt, wie wir sie kennen, nicht mehr viel übrig bleiben dürfte, nun zum verlässlichsten Bündnispartner im Kampf gegen den um sich greifenden Realitätsverlust. Die Mandate-Pipelines der Investmentbanken, die sich mit der Finanzierung von Windparks und anderen „grünen“ Großprojekten befassen, leeren sich, wie man hört, wegen der sich verschärfenden Kreditklemme zusehends. Kein Wunder, dass die Lobbyisten der „Erneuerbaren“, deren Geschäftsmodelle ohnehin weitestgehend auf Fiktionen und Subventionen beruhen, nun nach zusätzlicher Staatsknete rufen.

Ohne eine Rückbesinnung auf die christlichen Wurzeln Europas werden demgegenüber wahrheitsbasierte Geschäftsmodelle aber kaum Chancen haben. Denn un- wenn nicht antichristlicher Liberalismus ist auch nur eine Form von Nihilismus. Nicht zufällig wurde die ökologistische Ersatzreligion, auf die sich heute die Nihilisten aller Parteien berufen, hauptsächlich über (links-)liberale Netzwerke verbreitet. Freilich wird es dem säkularen Europa nicht leicht fallen, zum christlichen Glauben zurückzufinden. Wer nicht glauben kann, der soll zumindest so tun, „als ob es Christus gebe“, rät deshalb der italienische Atheist und Popper-Schüler Marcello Mera in seinem neuen Buch „Warum wir uns Christen nennen sollten – Liberalismus, Europa und Ethik“ (Ed. Mondadori, 2008). Mit diesem Thema werde ich mich im angebrochenen Krisenjahr wohl hauptsächlich beschäftigen. (5. Februar 2009)

Internet:

Offshore kämpft mit der Finanzkrise

Die Finanzkrise entwickelt sich zur Energiekrise

Auch veröffentlicht unter dem Titel „Die Krise als Bündnispartnerin“ auf ef-magazin online.

===========================================================

Roland Tichy über den grünen Selbstbetrug

WiWo-Chefredakteur Roland Tichy schreibt im seinem Editorial vom 14. Februar 2009: „Ausblendet wird, dass Windräder die brutalste Landschaftszerstörung seit Erfindung des Betons sind und unterm Strich kein CO2 sparen.“

=====================================================================

Windräder bringen nichts für CO2-Ziel

Nun merken auch die GRÜNEN, dass die Verwandlung Deutschlands in einen Vogelscheuchenpark klimapolitisch völlig wirkungslos ist. Verantwortlich machen sie dafür aber nicht die lediglich ins Gigantische hochgezüchtete Uralt-Technik der Windräder, deren Wirkungsgrad mit wachsender Größe sinkt, sondern den europäischen Emissionshandel auf der Basis fester CO2-Quoten für jede nationale Volkswitrtschaft. Wird mehr Strom durch Windkraftanlagen erzeugt, werden CO2-Zertifikate frei. Die Stromkonzerne können die freigewordenen Zertifikate gewinnbringend an Länder wie Polen veräußern, deren Stromerzeugung größtenteils auf Kohlekraftwerken basiert. Unterm Strich wird dadurch selbstverständlich keine einzige Tonne CO2 eingespart. Obendrein ist der Preis der CO2-Zertifikate wegen der Wirtschaftskrise stark eingebrochen. Die Zukunft des europäischen Emissionshandelssystems ETS steht in den Sternen. Um es zu retten, müsste eiegentlich das deutsche das deutsche Gesetz zur Förderung Erneuerbarer Energien ersatzlos gestrichen werden. Doch da stellt sich eine Lobby quer, die vorgibt, nicht auf Profit, sondern auf die Rettung der Welt hinzuarbeiten. (10. Februar 2009)

===========================================================

Das Desaster der deutschen Energiepolitik im Internet:

CO2-Speicherung ist wirtschaftlich nicht machbar. Deshalb rufen die Energieriesen jetzt nach dem ohnehin schon bankrotten Staat

Durcheinander in der Ukraine

Konrad Schuller analysiert Moskaus Angriffe auf die Souveränität der Ukraine

Ungereimtheiten des Gasstreits mit der Ukraine

Deutschland zieht den Kürzeren im europäischen Emissionshandel

CCS noch lange nicht marktreif

Deutsche Energiepolitik: Vom Dilemma zum Desaster?

Die Neue Zürcher Zeitung vom 23. August 2008 kann es sich leisten, die Sackgasse, in die die deutsche Energieversorgung zu geraten droht, ohne politische Rücksichtnahme auf der ersten Seite zu analysieren. Ich empfehle dringend die Lektüre dieses Artikels, der ohne meine Mitwirkung entstanden ist.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Bedrohliche Gasabhängigkeit von Russland

Energiepreise: Die Ohnmachtpolitik des Westens

In der Neuen Zürcher Zeitung analysiert Peter Robejsek, Dozent in Wedel bei Hamburg, unvoreingenommen die kritische Lage des Westens im Kampf mit autoritären kapitalistischen Regimes, die über die entscheidenden Rohstoffvorkommen verfügen. Pflichtlektüre für alle, die sich auf unsere nicht ganz gemütliche Zukunft vorbereiten wollen!

Interview mit dena-Chef Stefan Kohler in der „Wirtschaftswoche“

Man kann nicht gleichzeitig aus Kohle und Kernkraft aussteigen. Diese nicht neue erkenntnis versucht Stefan Kohler seinen politischen Freunden nahe zu bringen. Würden keine neue Kohlekraftwerke gebaut, müsste die Laufzeit der KKW verlängert werden, denn Wind und Sonne seien nun mal von Natur aus unzuverlässige Energiequellen, die ein konventionelles backup benötigen. Schon ab 2015 können in Deutschland die Lichter ausgehen, weil dann auch im angrenzenden Ausland keine ausreichenden Kapazitäten für die Steigerung von durch Deutschland mehr vorhanden sein werden. Kohler verschweigt, dass die massive Förderung der Windkraft durch das binnenmarktswidrige deutsche EEG die Wurzel aller Schwierigkeiten im deutschen Energieversorhungssystem ist. Kein Wort auch darüber, dass ein gutes Backup der unsteten Stromlieferung der Wind- und Solarkraftwerke unter den gegebenen Bedingungen nur durch Gasturbinen geleistet werden kann. Er darf nicht durchblicken lassen, dass hinter dem deutschen Windkraft-Boom die Interessen der von seinem Parteifreund Gerhard Schröder vertretenen Gas- und Gasturbinen-Verkäufer stehen (3. August 2008).

„Heuschrecke“ Blackstone investiert in Nordsee-Windpark

Da deutsche Banken wegen der damit verbundenen hohen finanziellen und technischen Risiken bislang um die von der Bundsregierung gewünschten riesigen Offshore-Windparks einen großen Bogen machten, freut sich Bundesverkehrs- und Bauminister Tiefensee nun, dass die US Private Equity Firma Blackstone hier als Investor einsteigen will. Blackstone-Chef Schwarzmann, der in New York das größte Geburtstagsfest aller Zeiten feierte, wird wissen, warum er sich auf einmal für Windräder interessiert…

Das Wind-Gas-Kartell

von Edgar Gärtner

Der 80-jährige texanische Öl- und Gasmilliardär T. Boone Pickens möchte sich ein Denkmal setzen, indem er seine Landsleute mit Tausenden von Windrädern beglückt. Nun hat er die ersten 667 Windräder mit einer Gesamtkapazität von 1.000 Megawatt für zwei Milliarden Dollar beim „grünen“ US-Mischkonzern General Electric (GE) bestellt. Damit möchte der anscheinend vom Saulus zum Paulus gewandelte Geschäftsmann mithelfen, die hohe Abhängigkeit seines Landes von Ölimporten zu vermindern.

Was auf den ersten Blick wie der philanthropische Größenwahn eines Senilen anmutet, ist vermutlich Ausfluss einer höchst gerissenen Geschäftsstrategie. Waren frühere Windkraft-Investoren vielleicht noch wirklich davon überzeugt, mit ihrer guten Tat die Welt retten zu helfen, so geht es den heutigen in der Regel um etwas ganz anderes. Es hat sich herumgesprochen, dass jedes Kilowatt installierte Windleistung durch eine entsprechende Leistung einer Gasturbine ergänzt werden muss, um die Unstetigkeit des Windes auszugleichen. Wer sich heute für Windräder stark macht, dem geht es also höchstwahrscheinlich eher darum, Gasturbinen und/oder Gas zu verkaufen. In der Tat: Zu Pickens’ Firmengruppe gehört die außerordentlich erfolgreiche Gas-Explorationsfirma XTO-Energy.

Auch bei der „Ecomagination“-Kampagne von GE liegt das Gas-Interesse auf der Hand. GE bietet inzwischen seine Windmühlen besonders preisgünstig an, um Bestellungen von Gasturbinen zu pushen. Bei Gasturbinen ist GE unangefochten Weltmarktführer und verdient damit viel mehr als auf dem umkämpften Markt für Windräder. Darüber kann sich selbst Rex Tillerson, der Chef des Öl-Giganten Exxon freuen. Obwohl Tillerson gutmenschliche Wadenbeißer auf die Palme bringt, weil er nicht viel von Investitionen in „erneuerbare“ Energien hält und fortwährend wiederholt, dass Öl sein Kerngeschäft bleibt, hat auch er längst kapiert, dass mit Erdgas viel mehr zu verdienen ist. Dort investiert Exxon neuerdings kräftig.

Sein europäischer Wettbewerber Royal Dutch Shell hat sich, kaum bemerkt von der Öffentlichkeit, längst in einen Gas-Konzern verwandelt, der – je nach Standort – eng mit staatseigenen Lieferanten wie Gasprom (Russland) oder Sonatrach (Algerien) kooperiert. Inzwischen sieht sich die EU in der Energiepolitik einer geschlossenen Front von Gaslieferanten, einer Art Gas-OPEC, gegenüber, zu der neben den genannten Konzernen auch das Emirat Quatar und die Öl- bzw. Gas-Konzerne Chevron, BP und Totalfina gehören.

Kürzlich verlautete auf dem World Petroleum Congress (WPC) in Madrid, schätzungsweise 88 Prozent der in den kommenden 20 Jahren in der EU installierten Kraftwerkskapazitäten entfielen voraussichtlich auf kombinierte Gas- und Dampfturbinen (CCGT). In Spanien sind solche Turbinen mit 21 Gigawatt Gesamtkapazität bereits zur wichtigsten Stromquelle geworden. Das ist kein Zufall, denn Spanien ist nach Deutschland das EU-Land mit der höchsten Windkraft-Kapazität. Diese erreichte Ende 2006 11.000 Megawatt. Bei schätzungsweise 2.000 Volllaststunden im Jahr entspricht das einer Elektrizitäts-Produktion von 23 Terawattstunden. Um diese sehr unregelmäßig anfallende Strommenge im Netz abzupuffern, eignen sich nur rasch an- und abschaltbare Gasturbinen.

Einen zusätzlichen Auftrieb erhalten die Gasverkäufer durch den europäischen CO2-Emissionsrechte-Handel. Sobald die Emissionsrechte, wie vorgesehen, ab 2013 ersteigert werden müssen, macht der Emissionshandel Investitionen in die energetische Nutzung der reichlich verfügbaren Braun- und Steinkohlevorräte uninteressant. Der Vormarsch des Gases in der Stromproduktion der EU führt zur fatalen Konsequenz, dass es schon bald keine echte Wahlmöglichkeit zwischen leitungsgebundenen Energieträgern mehr geben wird. Die wichtigste Alternative zum Einsatz von Erdgas in Turbinen ist übrigens Kerosin, das zurzeit, bezogen auf die enthaltene Wärmeenergie, etwa doppelt so viel kostet wie Rohöl. Dadurch zeichnet sich der Korridor der zukünftigen Entwicklung des Gaspreises ab.

Statt in Europa wird die weltweit zu günstigen Preisen verfügbare Kohle nun ausgerechnet in den Öl- und Gasförderländern verstärkt genutzt. Russland baut Kohlekraftwerke, um das immer teurer werdende Gas für den Export zu reservieren. Auch das Emirat Dubai baut für die eigene Stromversorgung Kohlekraftwerke, weil dessen Wirtschaftsstrategen die eigenen Öl- und Gasvorräte dafür zu schade erscheinen. Für die Energiepolitik Deutschlands und der meisten EU-Länder gibt es nach alledem nur ein Urteil: Dümmer geht’s nimmer! (14. Juli 2008)

Am 24. Juli 2008 in etwas abgespeckter Form in DIE WELT erschienen.

**********************************************************************************************************************

Vorreiter = Verlierer?

Ist jemals in der deutschen Geschichte ein Vorreiter zum Sieger geworden? Die Geschichte des Vorreiters in der Schlacht von Tannenberg und andere historische Beispiele helfen Ihnen vielleicht, diese Frage zu beantworten. Auch die von Dr. Angela Merkel und ihren Vorgängern im Bundeskanzleramt gewählte Vorreiter-Rolle im „Klimaschutz“ dürfte die Reihe negativer historischer Erfahrungen fortsetzen. Das lässt eine Studie des Stromkonzerns RWE erahnen. (13. Juli 2008)

**********************************************************************

Die Deutschen entdecken wieder den Reiz der Kernkraft. Doch diese hilft nur kurzfristig

Winand von Petersdorff berichtet in der Frankfurter Allgemeinen Sonntagszeitung vom 6. Juli 2008 über die Ergebnisse einer im Auftrag der Atomlobby durchgeführten Blitzumfrage. Danach sprechen sich 60 Prozent der befragten Männer und immerhin 35 Prozent der (vermutlich mit weniger gesundem Menschenverstand ausgestatteten) Frauen für eine Verlängerung der unter Bundeskanzler Gerhard Schröder im „Atomkonsens“ mit der Energiewirtschaft vereinbarten Restlaufzeiten alter Kernkraftwerke aus. Dieser Wandel im Meinungsbild ist gut nachvollziehbar. Denn die längst abgeschriebenen Atommeiler liefern für etwa 2,5 Eurocent je Kilowattstunde konkurrenzlos billigen Strom.

Ob es dadurch wirklich zu einer „Renaissance“ der Kernenergie kommt, ist eine andere Frage. Deren Beantwortung hängt davon ab, ob sich private Investoren für den Neubau von Kernkraftwerken finden werden. Dafür gibt bislang keine Anzeichen. Als die britische Labour-Regierung vor wenigen Monaten die Kernenergie wieder offiziell für politisch korrekt erklärte, ließen die eingeladenen Investoren sofort verlauten, sie würden hier nur einsteigen, wenn sich auch der Staat massiv beteilige.

Immerhin könnte eine Verlängerung der Laufzeit bereits existierender KKW für zwei Jahrzehnte unsere Grundlastversorgung sichern. Um das auch längerfristig zu erreichen, käme es aber darauf an, mit dem CO2-Treibhaus-Dogma und der damit verbundenen Verteufelung des Kohlenstoffdioxids wie der Kohle als Brennstoff Schluss zu machen und in Deutschland zig moderne Braun- und Steinkohlekraftwerke zu errichten – und zwar ohne die von der Politik geforderte Abscheidung und Endlagerung des Verbrennungsabgases CO2 (bekannt unter dem Kürzel CCS), die wegen der damit verbundenen erheblichen Wirkungsgrad-Einbuße die zurzeit preisgünstige Kohleverfeuerung unnötig verteuern würde.

Fährt Deutschland jedoch fort, die Erschließung der unsteten Windenergie durch die geplante Anlage von 30 riesigen Windrad-Parks in Nord- und Ostsee voranzutreiben, dann müssten die Investitionen zur Sicherung der Grundlastversorgung durch ebenso massive Investitionen in rasch an- und abschaltbare Gasturbinen für windarme Zeiten ergänzt werden, was die Abhängigkkeit Deutschlands von russischem Erdgas enorm vergrößern würde. Alexej Miller, der Chef des mächtigen russischen Gasprom-Konzerns, freut sich bereits auf das infolge des Ausbaus der Windkraft in Deutschland winkende zusätzliche Geschäft. Das auf Preisvergleiche spezialisierte Verivox-Portal rechnet wegen der Bindung des Gaspreises an den Rohölpreis bereits für den kommenden Winter mit einer Verdoppelung der Heizkosten für Privathaushalte. Andere Experten rechnen sogar damit, dass der Gaspreis wegen des wachsenden Bedarfs an Regelenergie für die unregelmäßige Einspeisung von Windstrom ins deutsche Netz schon bald den Ölpreis weit hinter sich lassen wird. Da erscheint die Forderung von Bundesverkehrsminister Wolfgang Tiefensee, die Pläne für die Errichtung von Offshore-Windparks müssten schleunigst umgesetzt werden, um Deutschlands Abhängigkeit von Energieimporten zu vermindern, in einem anderen Licht. Als Investor für die Offshore-Windparks, um die deutsche Banken bislang wegen der damit verbundenen unwägbaren Havarie-Risiken einen großen Bogen gemacht haben. bietet sich neuerdings die „Heuschrecke“ Blackstone an. Vor diesem Hintergrund erscheint Tiefensees Vorstoß als blanker Hohn, wenn nicht als bewusste Irreführung der Deutschen im Dienste der Kreml-AG und des Finanzkapitals. Solange am CO2-Treibhaus-Dogma nicht gerüttelt wird, wird es für die wachsenden Probleme der Energieversorgung wohl keine vernünftigen Lösungen geben.

(Unter dem Titel „Her mit der Kohle“ in Kurzform auch in DIE WELT vom 11. Juli 2008 erschienen.)

**************************************************************

Der hohe Ölpreis hat nichts mit einer Verknappung zu tun

Unter der Überschrift „Theorien vom knappen Öl sind Märchen“ brachte die Online-Ausgabe der FAZ am 1. Juli 2007 eine interessante Übersicht über die weltweite Entwicklung der Rohölvorräte. Viele der schon lange bekannten Vorkommen wurden bislang nur unzureichend ausgebeutet, da es günstiger war, neue Vorkommen zu erschließen, als die alten optimal zu nutzen. Die jüngste Entwicklung der Rohölpreise ändert die Ausgangslage.(1. Juli 2008)

***************************************************************

„Klimaschutzpaket“ – Abkassieren ohne Gegenleistung

Vorsorgen oder gut leben?

Vorbeugen ist nicht immer besser als heilen

von Edgar L. Gärtner

Was der Flop der H1N1-Impfung über das Vorsorgeprinzip lehren könnte

Die französische Regierung unter dem allzeit unter Strom stehenden Staatspräsidenten Nicolas Sarkozy wurde zum Jahreswechsel gewahr, dass sie auf über 90 Millionen Dosen eines im letzten Jahr, angesichts einer gerüchteweise anrückenden Schweinegrippen-Pandemie, eilig bestellten Anti-H1N1-Impfstoffes sitzen zu bleiben drohte. Nur fünf von zurzeit etwa 60 Millionen Franzosen haben sich bis dato gegen die zur planetaren Gefahr aufgebauschte Sommergrippen-Variante impfen lassen. Nach Schätzungen von Medizinern haben sich gleichzeitig über 20 Millionen Franzosen völlig umsonst beziehungsweise lediglich um den Preis kaum spürbarer leichter Grippesymptome immunisiert. Mehr als eine Milliarde Euro, die der hochverschuldete französische Wohlfahrtsstaat für die Bekämpfung einer hypothetischen Pandemie-Gefahr locker gemacht hat, scheinen in den Sand gesetzt. In den deutschen Bundesländern sind die Verhältnisse ähnlich, aber nicht ganz so schlimm wie in Frankreich. Da die georderten Chargen zum Teil noch gar nicht produziert sind, versuchen Frankreich und Deutschland jetzt, zumindest einen Teil ihrer Aufträge noch zu stornieren. Speziell in Frankreich wirft das folgende Fragen auf: Wieso wurden fast 100 Millionen Impfstoff-Portionen bestellt – dreimal mehr, als für eine vernünftige Durchimpfungsrate der Bevölkerung erforderlich gewesen wäre? Warum legte die Regierung gleichzeitig einen riesigen Vorrat des umstrittenen Grippe-Medikaments Tamiflu (ein Drittel der weltweiten Gesamtvorräte!) an? Warum wurden teure Atemmasken angeschafft, die nur für Spitzenbeamte und Manager zur Verfügung standen?

Ich suche jetzt die Antwort bewusst nicht auf der von Verschwörungstheoretikern gelegten Fährte, wonach das Virus H1N1 selbst und die damit verbundene weltweite Aufregung auf Machenschaften der Pharma-Konzerne Glaxo Smith Kline (GSK), Sanofi-Aventis und Novartis zurückgehen soll. Ich halte mich vielmehr an die offizielle Begründung der Maßnahmen durch das „Vorsorgeprinzip“. Dieses ist Anfang der 70er Jahre in Deutschland erfunden und 1992 auf dem „Erd-Gipfel“ von Rio weltweit bekannt gemacht worden. “Drohen schwerwiegende oder bleibende Schäden, so darf ein Mangel an vollständiger wissenschaftlicher Gewissheit kein Grund dafür sein, kostenwirksame Maßnahmen zur Vermeidung von Umweltverschlechterungen aufzuschieben”, lautet der Grundsatz 15 der Rio-Deklaration. Inzwischen hat dieses Prinzip Eingang in den Maastricht-Vertrag, in den Lissaboner Verfassungsvertrag und in die französische Verfassung gefunden. Da Nicolas Sarkozy sich in den Kopf gesetzt hat, die Deutschen mit Vorsorge-Rhetorik zu überholen, gaben sich seine Beamten größte Mühe, das Prinzip konsequent umzusetzen. Doch gerade dadurch haben sie die Probleme geschaffen, vor denen sie jetzt stehen. Denn unbegrenzte Vorsorge ist absurd. Wer ständig nur vorsorgt, der verpasst das Leben. Wenn überhaupt, ist das Vorsorgeprinzip nur insoweit hilfreich, als es nicht allzu konsequent angewandt wird. Heilen ist viel wichtiger als Vorbeugen, auch wenn ein von der wohlfahrtsstaatlichen Werbung gedankenlos wiederholtes Sprichwort das Gegenteil behauptet.

Die oben zitierte Definition des Vorsorgeprinzips lässt nämlich die Frage offen, ob Vorsorgemaßnahmen auch Kosten-Nutzen-Kriterien unterliegen sollen beziehungsweise dürfen. Verbreitet ist die Meinung, Kostenabwägungen erübrigten sich, wenn es um Menschenleben gehe. Wäre dieses Argument stichhaltig, gäbe es weder Lebens- noch Unfallversicherungen. Dabei möchte ich nicht in Abrede stellen, dass der monetären Bewertung von Lebensaspekten enge Grenzen gesetzt sind. Aber auch bei einer nichtmonetären Bewertung erscheint der Nutzen von Maßnahmen zur Abwendung hypothetischer Gefährdungen allzu oft mehr als fraglich, zumal es sich nicht selten zeigt, dass Vorsorge nur um den Preis der Aufgabe von Freiheit und Wohlstand, wenn nicht gar des Seelenheils zu haben wäre. Ausnahmen bilden lediglich private Vorsorgeaufwendungen wie etwa die Anlage von Vorräten für den Winter, Rücklagen für das Alter oder für Reparaturen sowie äußere Gefahren beziehungsweise Schadereignisse wie etwa Erdbeben in Gebieten, in denen Platten der Erdkruste aufeinander stoßen, deren Eintrittswahrscheinlichkeit einigermaßen realistisch abschätzbar ist. Aber auch in diesen Fällen genügt es oft nicht, zwischen Vor- und Nachteilen wirtschaftlich vertretbarer Schutzmaßnahmen abzuwägen. Im wirklichen Leben geht es stattdessen nicht selten um Entscheidungen zwischen zwei Übeln. Welches davon ist das kleinere?

Solche Entscheidungen, sofern sie nicht spontan „aus dem Bauch heraus“ getroffen werden, kommen in der Regel nicht ohne mehr oder weniger bewusst religiöse Begründung aus. Denn es geht dabei um die Frage nach dem Sinn des Lebens – eine Frage, die von keiner Wissenschaft und keinem formalen Kosten-Nutzen-Vergleich beantwortet werden kann. Als religiöse Begründung dient anstelle des historisch bewährten christlichen Humanismus in Europa inzwischen aber mehr und mehr die letztlich selbstmörderische Öko-Ersatzreligion (Öko-Nihilismus). Kein Wunder, dass mit dem „Vorsorgeprinzip“ immer häufiger Maßnahmen und Investitionen gerechtfertigt werden, deren volkswirtschaftliche Rendite eindeutig negativ ist.

Internet:

Der enorme Schaden der Pandemie, die keine war

Schweinegrippe kostet Länder 400 Millionen Euro

Grippe A (H1N1): la France peine à écouler ses vaccins

La France s’inquiète pour son surplus de Tamiflu et de masques

H1N1: un coût de plus d’un milliard d’euros

Edgar L. Gärtner: Öko-Nihilismus. Eine Kritik der Politischen Ökologie (veröffentlicht am 2. Februar 2010 in der NZZ)

===========================================================================================

Der Nihilsmus der europäischen Chemikalienpolitik

In einem Vortrag, den ich im Jahre 2007 auf dem European Freedom Summit in Berlin gehalten habe, zeige ich, welche seltsamen Blüten das schlecht definierte „Vorsorgeprinzip“ in der Chemikalienpolitik der EU (REACh) treibt.

Literatur:

Edgar Gärtner: Vorsorge oder Willkür, Instituts Verlag, Köln 2006

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Keine Rechtssicherheit ohne Eingrenzung des Vorsorgeprinzips

Trotz Verbesserungen im Detail enthält die Chemikalienpolitik der EU weiterhin einen fundamentalen Webfehler: Das ihr zugrunde liegende Vorsichtsprinzip ist nirgends definiert.

Das Europaparlament hat am 17. November in Strassburg einen als „historisch“ gelobten Kompromiss über die Ausgestaltung der REACh-Verordnung gefunden: Die Registrierung der in Mengen bis zu 100 Tonnen hergestellten Stoffe soll aufgrund einer vorab getroffenen Absprache zwischen der konservativen, der sozialistischen und der liberalen Fraktion im EP (u. a. durch den Verzicht auf die Prüfung der Reproduktionstoxizität) erleichtert werden. Durch die Einführung einer „Opt-out-Option“ bei der Verpflichtung zum Austausch von Testdaten nach dem OSOR-Prinzip („One Substance – One Registration“) und durch die Bildung von Verwendungs- und Expositionskategorien bei der Erstellung der Sicherheitsberichte sollen die Kosten der Stoffprüfung und der Versuchstierbedarf gesenkt werden. Hier bleiben aber Probleme der Datensicherheit und des Schutzes geistigen Eigentums vor allem mittelständischer Unternehmen nach wie vor ungelöst (siehe CR 6/2005).

Gleichzeitig beschloss eine Koalition aus Sozialisten, Liberalen und Grünen, die Zulassung von Stoffen, entsprechend dem Votum des EP-Umweltausschusses, zu erschweren. Zulassungen für das Inverkehrbringen und die Verwendung „besonders besorgniserregender Stoffe“ sollen von der EU-Kommission grundsätzlich auf fünf Jahre befristet werden, „sofern keine geeigneten Alternativstoffe oder –technologien vorhanden sind, die Verwendung dieser Stoffe aus sozioökonomischen Gründen gerechtfertigt werden kann und sich die Risiken aus ihrer Verwendung angemessen beherrschen lassen.“ (Änderungsantrag 15)

Die Industrie hofft, dass dieser Teil des Straßburger Kompromisses vom EU-Ministerrat korrigiert wird. Umweltkommissar Stavros Dimas hat versichert, die Kommission wolle keine generelle Substitutionspflicht, wie sie Organisationen wie der WWF oder Greenpeace fordern. Die befristete Zulassung von Stoffverwendungen soll flexibel gehandhabt werden. Ob diese Korrekturen der Industrie aber mehr Rechtssicherheit bringen werden, ist sehr fraglich. „Garant der Rechtssicherheit für Unternehmen“ soll nach dem im EP durchgegangenen Änderungsantrag 17 die neue Europäische Agentur für chemische Stoffe (ECA) in Helsinki sein. Dieser soll „die Gesamtverantwortung für das Management der neuen Chemikalienpolitik“ übertragen werden. Unternehmen oder EU-Mitgliedsstaaten, die Stoffbewertungen der ECA anzweifeln, tragen die Beweislast.

Wie Joachim Kreysa von der EU-Kommission im Oktober auf einem Seminar der Fresenius-Akademie in Mainz ausführte, sollen in Helsinki bis zu 700 Toxikologen und andere Experten der Chemikaliensicherheit mit der Prüfung der von den Unternehmen vorgelegten Daten beschäftigt sein. David Owen von Shell fragte in Mainz, wo diese Experten kurz- und mittelfristig herkommen sollen, wenn schon heute Toxikologenmangel herrscht.

Selbst wenn dieses Problem gelöst wäre, bliebe ein großer Unsicherheitsfaktor: Die Interpretation des umstrittenen „Precautionary Principle“ (Vorsichts- oder Vorsorgesorgeprinzip) im Sinne einer Beweislastumkehr. Der Vorsorge-Grundsatz wurde Ende Juli 1992 im Vertrag von Maastricht (Artikel 130r, Abs. 2, heute: Artikel 174,2) erstmals in die europäische Gesetzgebung aufgenommen. Allerdings finden sich im Maastrichter Vertrag selbst weder eine Definition noch Ausführungsbestimmungen für die Anwendung des Prinzips. Aus dem Text geht nur hervor, dass das Vorsorgeprinzip bei drohenden Umweltschäden gelten soll. Gefahren für die menschliche Gesundheit wurden nicht explizit erwähnt.

Die Väter der EU interpretierten das Vorsorgeprinzip also zunächst ähnlich wie die wenige Wochen zuvor von der UN-Konferenz über Umwelt und Entwicklung einstimmig angenommene “Rio-Deklaration”. Dort steht der oft zitierte Satz: „Drohen schwerwiegende oder bleibende Schäden, so darf ein Mangel an vollständiger wissenschaftlicher Gewissheit kein Grund dafür sein, kostenwirksame Maßnahmen zur Vermeidung von Umweltverschlechterungen aufzuschieben.“

Dieser in vorläufiger Form bereits im deutschen Wasserhaushaltsgesetz von 1957 enthaltene und später im deutschen Bundesimmissionsschutzgesetz von 1974 ausformulierte Grundsatz scheint auf den ersten Blick vom gesunden Menschenverstand diktiert zu sein. Er erinnert an die Formel „Vorbeugen ist besser als heilen.“ In diesem Satz steckt aber auch viel Gedankenlosigkeit. Denn obwohl Vorsorge für Notfälle oder für das Alter ein Grundelement jeglicher vernünftigen Lebensführung und Wirtschaftstätigkeit darstellt, ist die Formel, wie leicht einsehbar ist, keineswegs für alle Situationen geeignet. Wer allen Risiken aus dem Wege gehen möchte, der verdammt sich selbst zur Untätigkeit. Deshalb ist es bedenklich, eine vernünftige individuelle Handlungsmaxime zu einem universellen Rechtsgrundsatz zu machen. Nicht von ungefähr hatten kurz vor der Rio-Konferenz zahlreiche Nobelpreisträger im „Heidelberger Appell“ vor einem neuen Irrationalismus gewarnt.

So einigten sich die in Rio de Janeiro versammelten Staatslenker und Interessenvertreter auf eine eher gemäßigte Formulierung des Vorsorge-Grundsatzes, in der anklingt, dass Vorsorgemaßnahmen sich auch rechnen müssen. In der ebenfalls in Rio verabschiedeten Klimarahmenkonvention wird deshalb der Begriff „cost-effective“ klar im Sinne wirtschaftlicher Verhältnismäßigkeit interpretiert. Es heißt dort: „In Fällen, in denen ernsthafte oder nicht wiedergutzumachende Schäden drohen, soll das Fehlen einer völligen wissenschaftlichen Gewissheit nicht als Grund für das Aufschieben solcher Maßnahmen dienen, wobei zu berücksichtigen ist, dass Politiken und Maßnahmen zur Bewältigung der Klimaveränderungen kostengünstig sein sollten, um weltweite Vorteile zu möglichst geringen Kosten zu gewährleisten.“ Der Grundsatz 12 der Rio-Deklaration fordert überdies: „Umweltbezogene handelspolitische Maßnahmen sollen weder ein Mittel willkürlicher oder ungerechtfertigter Diskriminierung noch eine verdeckte Beschränkung des internationalen Handels darstellen.“

Somit hat die Rio-Konferenz, genau besehen, den Geltungsbereich des Vorsorge- bzw. Vorsichtsprinzips bereits stark eingegrenzt, indem sie darauf bestand, Vorsorgemaßnahmen gleichzeitig den Grundsätzen der ökonomischen Verhältnismäßigkeit und der Nichtdiskriminierung beziehungsweise der Ablehnung von Protektionismus zu unterwerfen.

Diese Interpretation des Vorsorgeprinzips setzte sich aber in den folgenden Jahren kaum durch. Vor allem Umweltverbände sowie grüne und rote Parteien wollten die Anwendung des Prinzips nicht nur auf Fälle beschränkt wissen, in denen noch keine völlige wissenschaftliche Gewissheit über drohende Umweltschäden bestand, sondern interpretierten es im Sinne einer generellen Umkehr der Beweislast. Sie sahen im Vorsorge-Grundsatz eine juristische Revolution, die mit der Unschuldsvermutung („in dubio pro reo“) Schluss macht. Diese war nicht zufällig zu einem Grundpfeiler des Römischen Rechts und der darauf aufbauenden modernen Rechtsordnungen geworden. Nun aber sollte die Industrie vor der Markteinführung von Produkten beweisen müssen, dass diese absolut sicher sind.

Darauf läuft das Anfang 1998 von verschiedenen internationalen Umweltverbänden und ihnen verbundener Forscher verabschiedete „Wingspread Consensus Statement on the Precautionary Principle“ hinaus. Es heißt dort: „When an activity raises threats of harms to human health or the environment, precautionary measures should be taken even if some cause and effect relationships are not fully established scientifically.” Von wirtschaftlicher Verhältnismäßigkeit oder von Nichtdiskriminierung ist hier keine Rede. Schon der Verdacht soll im Prinzip als Begründung für kostspielige Vorsorgemaßnahmen oder Produktverbote genügen. Schokolade müsste danach zum Beispiel verboten werden, weil jeder Chemiker daraus gefährlichen Sprengstoff herstellen könnte.

Angesichts der Tatsache, dass extreme Interpretationen des Vorsorgeprinzips auch in Europa Schule machten und der Grundsatz selbst im Maastrichter Vertrag nicht definiert worden war, sah sich die EU-Kommission Anfang 2000 veranlasst, dem Vorsorgeprinzip eine spezielle „Communication“ zu widmen. Darin stellte die Kommission klar, dass dieses den Grundsatz der Verhältnismäßigkeit einschließt und keineswegs auf ein Null-Risiko abzielt. Das Vorsorgeprinzip solle nicht bei der Risikoabschätzung zur Geltung kommen, sondern lediglich Bestandteil des Entscheidungsprozesses im Risikomanagement sein und sich nicht auf vage Vermutungen oder willkürliche Unterstellungen mit protektionistischen Hintergedanken, sondern nur auf wissenschaftlich identifizierte und abgeschätzte Risiken beziehen, forderte das Papier.

Aber die Kommission konnte nicht klären, in welchen Fällen das Vorsorgeprinzip angewandt werden sollte und wann nicht. Im zitierten Papier heißt es dazu lediglich: „An assessment of the potential consequences of inaction and of the uncertainties of the scientific evaluation should be considered by decision-makers when determining whether to trigger action based on the precautionary principle.” Den politischen Entscheidungsträgern und dem Europäischen Gerichtshof (EuGH) soll es also überlassen bleiben, wie sie mit den Ungewissheiten umgehen, die bei der wissenschaftlichen Risikoabschätzung nicht ausgeräumt wurden. Das Dokument deutet nicht einmal an, wann eine Ungewissheit groß genug sein soll, um Vorsorgemaßnahmen zu rechtfertigen.

Kein Wunder, dass es auch in den folgenden Jahren bei EU-Entscheidungen, bei denen das Vorsorgeprinzip eine Rolle spielte, wie Kraut und Rüben zuging. Der Umweltjurist Gary E. Marchant und der Umweltmediziner Kenneth L. Mossman, beide Professoren an der Arizona State University, haben 60 Entscheidungen von Instanzen des EuGH, in denen das Vorsorgeprinzip eine Rolle spielte, unter die Lupe genommen und nachgewiesen, dass der Grundsatz sehr selektiv und widersprüchlich ausgelegt wurde (Gary E. Marchant/Kenneth L. Mossman: Arbitrary & Capricious. The Precautionary Principle in the European Union Courts, published by the International Policy Network, London 2005. In einem Teil der Urteile wurde das Vorsorgeprinzip auch auf „potentielle“ Risiken angewandt, während es sich nach anderen nur auf bereits klar identifizierte Gefahren beziehen soll. In einigen Fällen (so zum Beispiel im Streit um Antibiotika-Zusätze im Tierfutter) sprachen sich Politiker und Richter für das Verbot Jahrzehnte lang bewährter Produkte aus, obwohl die zuständigen wissenschaftlichen Beratergremien die Frage nach der Existenz ernsthafter Risiken klar verneint hatten. In anderen Fällen (insbesondere beim Kampf gegen die Rinderseuche BSE) setzten sich Politik und Justiz über den Rat der Fachleute hinweg, indem sie ernsthafte Infektionsrisiken für Menschen zunächst herunter spielten. Es liegt auf der Hand, dass die EU-Institutionen mit beiden extremen Auslegungen nur Wasser auf die Mühlen solcher letztlich von nihilistischen Motiven getriebenen Gruppierungen leiteten, die das Vorsorgeprinzip – explizit oder implizit – seit längerem mit der Forderung nach einem Null-Risiko und einer Umkehr der Beweislast verbinden.

Was Umwelt- und Verbraucherschutzverbände und mit ihnen immer mehr um Wählerstimmen buhlende Politiker in jüngster Zeit in der Auseinandersetzung um die Ausgestaltung der neuen EU-Chemikalienpolitik fordern, klingt zwar zunächst sehr sympathisch: Damit die Verbraucher nicht unfreiwillig zu Versuchskaninchen der Industrie werden, soll diese vorab beweisen, dass die von ihr angebotenen Produkte unschädlich sind. Dabei wird jedoch vergessen oder unterschlagen, dass es uns Menschen grundsätzlich nicht möglich ist, die Abwesenheit von Risiken zu erkennen. Stringent beweisen können wir immer nur deren Existenz. Abgesehen von Zufällen, findet man dabei in der Regel nur, wonach man sucht. Wird kein Risiko gefunden, heißt das noch lange nicht, dass es überhaupt keines gibt. Die Öffentlichkeit kann also vernünftigerweise von der Industrie nur fordern, dass sie vor der Vermarktung neuer Produkte allen plausiblen Risikovermutungen nachgeht, Vorkehrungen trifft, um nachgewiesene Risiken zu minimieren und sich verpflichtet, zusätzliche Sicherheitsmaßnahmen einzuleiten, sobald beim Gebrauch eines Produktes unvermutete Risiken auftreten. In diesem Sinne ist das Vorsorgeprinzip in modernen Industrieländern längst zum Standard geworden.

In verabsolutierter Form widerspricht der Grundsatz jedoch der uralten Einsicht, dass alle menschlichen Wahlhandlungen Risiken bergen und Kosten verursachen und deshalb einer Übelabwägung bedürfen. Entscheidet ein Einzelner, eine Firma oder der Staat, bestimmte Handlungen aus Gründen der Vorsicht zu unterlassen oder zu verbieten, heißt das keineswegs, dass sie damit auch ihre Risiken und Kosten insgesamt vermindern. Wer ein Risiko ausschließen will, nimmt damit vielmehr automatisch ein anderes in Kauf. Werden auf Verdacht Stoffverwendungen verboten, gehen mit der Einschränkung der wirtschaftlichen Freiheit unweigerlich Innovations- und Wachstumschancen verloren und das Risiko der Verarmung wächst. Wer überhaupt kein Risiko eingehen möchte, geht also in Wirklichkeit das allergrößte Risiko ein.

Um Eingriffe in den Markt aufgrund willkürlicher Verdächtigungen und Verunglimpfungen von Stoffen und Produkten auszuschließen, hat deshalb die Europäische Kommission in der zitierten „Communication“ vom Februar 2000 klargestellt, die Anwendung des Vorsorge-Prinzips bedürfe in jedem Fall einer wissenschaftlich fundierten Risiko-Abschätzung. Ohnehin fordert schon der Vertrag von Maastricht, alle EU-Verordnungen einer nachvollziehbaren Kosten-Nutzen-Abwägung (Gesetzesfolgenabschätzung) zu unterwerfen, um überprüfen zu können, ob sie dem Rechtsgrundsatz der Verhältnismäßigkeit genügen.

Deshalb musste die EU-Kommission ihrem Anfang 2001 in Form eines „Weißbuches“ veröffentlichten Entwurf einer neuen Chemiepolitik von vornherein eine Kosten-Nutzenabschätzung zur Seite stellen, um begründen zu können, ob ihr bislang beispielloses, weil Millionen von Stoffwendungen umfassendes Regulierungsprojekt REACh überhaupt gerechtfertigt scheint. Unter der damaligen Umweltkommissarin Margot Wallström ließ die EU-Kommission von der Londoner Unternehmensberatung Risk and Policy Analysts Ltd. (RPA) und der schwedischen Statistikbehörde ermitteln, dass die Stoffregistrierung nach REACh in den ersten 11 Jahren zwischen 1,7 und 7 Milliarden Euro kosten würde. Dem stünden wegen des zu erwartenden Rückgangs berufsbedingter Krebserkrankungen mögliche Kosteneinsparungen im Gesundheitswesen von bis zu 54 Milliarden Euro in den kommenden 30 Jahren gegenüber.

Doch diese Rechnung erscheint nach Ansicht von Angela Logomasini vom Washingtoner Competitive Enterprise Institute (CEI) völlig aus der Luft gegriffen, weil in der EU etwa 80 Prozent aller Fälle von Berufskrebs auf Asbest-Altlasten zurückgehen und höchstens 360 von insgesamt über 32.331 beruflich bedingten Krebsfällen im Jahr auf den Kontakt mit Chemikalien in irgendeiner Form zurückgeführt werden können. Nach den klassischen Arbeiten von Richard Doll und Richard Peto, die auch von der WHO gestützt werden, gehen ohnehin nur 2 Prozent aller Krebsfälle auf Umwelteinflüsse zurück. Nur durch die absehbare Vertreibung von Firmen und Arbeitsplätzen in außereuropäische Länder werde es die EU schaffen, die Zahl berufsbedingter Erkrankungen zu vermindern, vermutet Logomasini in einer unter dem Titel „REACh: Teuer für die Welt, selbstmörderisch für Europa“ auch auf deutsch erschienen Studie über die wahren Kosten von REACh.

In dem im September 2005 im Rahmen der britischen EU-Ratspräsidentschaft vorgelegten Kompromissvorschlag heißt es denn auch im Art. 1.3 etwas vorsichtiger als im REACh-Entwurf der Kommission von 2003: „This Regulation is based on the principle that it is up to manufacturers, importers and downstream users to ensure that they manufacture, place on the market or use such substances that do not adversely affect human health or the environment. Its provisions are underpinned by the precautionary principle.“ Hier verweist der Textvorschlag in einer Fußnote ausdrücklich auf die Klarstellung in der erwähnten „Communication“ der EU-Kommission aus dem Jahre 2000.

Doch gelang es damit nicht, die Mehrheit der EU-Parlamentarier auf den Boden der Tatsachen zurück zu bringen, zumal dort der Inhalt des Vorsorgeprinzips nicht näher bestimmt wurde. Im Artikel 52 der vom EP in erster Lesung angenommenen REACh-Fassung heißt es über Sinn und Zweck der Stoffzulassung: “The aim of this Title is to ensure that substances of very high concern are replaced by safer alternative substances or technologies, where available. Where no such alternatives are available, and where the benefits to society outweigh the risks connected with the use of such substances, the aim of this Title is to ensure that the use of substances of high concern is properly controlled and that alternatives are encouraged. Its provisions are underpinned by the precautionary principle.” Käme das durch, hätte die Politik einen Freibrief für willkürliche Eingriffe in die Wirtschaft in der Hand.

Schon in diesem Sommer setzte sich das EP offen über wissenschaftlichen Sachverstand hinweg, als es unter Berufung auf das Vorsorgeprinzip sechs PVC-Weichmacher in Kinderspielsachen verbot, obwohl kostspielige Risikoabschätzungen nach den Regeln der Kunst beim derzeit gebräuchlichsten PVC-Weichmacher DINP überhaupt keine und bei anderen Weichmachern nur geringe Risiken ausgemacht hatten. Aufgrund des so geschaffenen Präzedenzfalles hängt das Vorsorgeprinzip nun wie ein Damoklesschwert über allen Stoffzulassungsverfahren. Die Produktion und Dokumentation Tausender von Testdaten nützt den Unternehmen wenig, wenn die Politik am Ende dem Druck lautstarker Interessengruppen nachgibt. Da die Hersteller nie beweisen können, dass die von ihnen angebotenen Produkte 100 Prozent sicher sind, wird ihnen nahe gelegt, auf die sichere Seite zu gelangen, indem sie bewährte durch zweifelhafte, aber politisch korrekte Stoffe ersetzen. Im Falle der Spielsachen beispielsweise durch den Ersatz von PVC durch Gummi, obwohl dieser, bedingt durch die Vulkanisierung, immer krebserregende Nitrosamine enthält. Hauptsache: Politisch korrekt.

Edgar Gärtner (2005)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Literatur:

Edgar Gärtner: Vorsorge oder Willkür, köln 2006

Für ein menschliches Klima

Das von mir sehr geschätzte Frankfurter Magazin „NOVO Argumente“ stellt im Internet ein alternatives Kopenhagen-Manifest zur Diskussion. Die Menschen erscheinen darin nicht wie in der grünen Ideologie als Schädlinge, sondern als Mitschöpfer einer humanisierten Erde. Die Energiegewinnung aus Uran, Kohle, Rohöl und Erdgas sei kein Problem, sondern Teil der Lösung. Das gelte auch für das Bevölkerungs- und Wirtschaftswachstum.

Das alternative Kopenhagen Manifest

1. Der „ökologische Fußabdruck“ der Menschen wächst zu Recht!

Von der Schöpfungslehre bis hin zur Aufklärung sah sich die Menschheit als Herrscher über den Planeten. Wir Menschen „herrschen über die Fische im Meer und über die Vögel unter dem Himmel und über das Vieh und über alle Tiere des Feldes und über alles Gewürm, das auf Erden kriecht“, heißt es in der Bibel. „Lasst uns die Natur auf den Seziertisch legen und ihre Geheimnisse erforschen!“, sagten die großen Denker der Aufklärungszeit. Heute jedoch reden Menschen über sich selbst als bösartige Wesen oder „ernste planetarische Krankheit“, wie es ein führender Vertreter der Grünen formuliert hat. All unsere Errungenschaften – seien es Industrie, Städte, moderne Landwirtschaft oder Hochhäuser – werden als schädlicher „ökologischer Fußabdruck“ verunglimpft. Den will die Umweltschutzbewegung reduzieren, denn sie betrachtet die Menschen als destruktive Spezies. Die jahrhundertlange Arbeit am Fortschritt wird dargestellt als gigantische Dummheit, der heute schleunigst Einhalt zu gebieten sei. Hier muss Einspruch erhoben werden! Wir haben die Erde nicht vergiftet, wir haben sie humanisiert. Und unser „Fußabdruck“ ist ein fünftausendjähriges Projekt zur Beherrschung der Naturgewalten und Gestaltung unserer Umwelt, das weiter voranschreiten muss.

2. Kohlenstoff-Rechner gehören abgeschaltet!

Jede menschliche Aktivität wird heute daran bemessen, wie viel CO2 sie freisetzt. Fliegen, Arbeiten, Essen und selbst Kinderkriegen wird in Tonnen CO2 aufgerechnet. Ein Neugeborenes produziere jährlich zehn Tonnen CO2, bekommen wir zu hören. Neue Kühlschränke in China zerstörten das Klima, wird gesagt. Doch das menschliche Dasein lässt sich nicht auf die Anzahl der Schadstoffe reduzieren, die es angeblich produziert. CO2-Kalkulationen haben das Urteil Gottes ersetzt. Doch während die Anhänger Gottes wenigstens zwischen guten und bösen Taten unterscheiden, gilt der moralisierenden, schadstofffixierten Tyrannei der Kohlenstoffkirche jede menschliche Aktivität als potenziell gefährlich. Wir plädieren dafür, umgehend damit aufzuhören, unsere Leben in Tonnen CO2 zu berechnen. Menschliches Handeln ist nach menschlichen Maßstäben zu bewerten. Wir sollten es als gut, kreativ, erfindungsreich, fleißig oder einfach beglückend anerkennen.

3. Wirtschaftswachstum ist gut!

Überfluss zu erzeugen war und ist das überragende Ziel fast jeder menschlichen Gesellschaft: Überfluss an Nahrung, Wohnraum und Waren aller Art. Von der israelitischen Vorstellung eines Landes, „in dem Milch und Honig fließt“, bis hin zu Sozialisten, die davon träumten, mehr Güter zu produzieren, als alle Menschen verbrauchen können, herrschte Einigkeit, dass materieller Wohlstand unser Leben angenehmer und freier macht. Je weniger Zeit wir mit Arbeit verbringen, desto mehr bleibt für intellektuelle Vorlieben, Zwischenmenschliches oder einfach nur Lebensgenuss. Im Öko-Zeitalter jedoch wird Überfluss verteufelt und Genügsamkeit gefeiert. Doch wer entscheidet, was genügt? Wirtschaftswachstum wird als zerstörerisch denunziert und die Sehnsucht nach Wohlstand und Konsum zur Überflusskrankheit „Affluenza“ umdefiniert. Wir sollten darauf bestehen, dass Wirtschaftswachstum im Kern gut und überdies unverzichtbar ist. Es ist die Voraussetzung dafür, dass Menschen keine materielle Not leiden und genügend Freizeit und Freiheit haben, um ihre persönlichen Ziele zu verwirklichen.

4. Entwicklung gelingt nur ohne Nachhaltigkeitsdogma!

Akzeptabel erscheinen in diesen Tagen Wachstum und Entwicklung nur, wenn sie „nachhaltig“ sind. Das klingt nett. Wer möchte sich schon als Gegner der Nachhaltigkeit bekennen? Doch das Dogma der Nachhaltigkeit legt menschliches Handeln in Ketten. Es gestattet nur bescheidene Projekte, die sich sanft in die Umwelt schmiegen. Es lähmt Mut und Tatkraft. Dem Nachhaltigkeitskult folgend darf nur erdacht und gemacht werden, was weder Kräfte verschlingt noch entfesselt. Große Sprünge sind tabu. Innovationen im klassischen Sinn kann es aus dieser Perspektive nicht geben. Undenkbar erscheint es da, Altes zu überwinden, um wirklich Neues und Besseres zu schaffen. Die Forderung, sich immer und überall dem Diktat der Nachhaltigkeit zu unterwerfen, verhindert das Überdenken des Hergebrachten, unterbindet Kreativität und Fantasie und richtet sich gegen das Entwerfen und Erschaffen einer neuen Welt. Der Nachhaltigkeitsgedanke wirkt wie eine mentale Zwangsjacke. Von dieser sollten wir uns besser heute als morgen befreien.

5. Bevölkerungswachstum ist besser als Geburtenkontrolle!

Aus fortschrittlicher Perspektive sind Arbeitslosigkeit, Armut und Hunger soziale Probleme, die wir durch gemeinsame Anstrengungen überwinden können. Heute scheint stattdessen Konsens zu sein, dass es sich hier um natur- oder demografiebedingte Probleme handelt, die dadurch zu lösen seien, dass wir dem Menschen von Mutter Natur vorgegebene Grenzen respektieren. Dies wird nirgendwo so klar wie beim ökologistisch inspirierten Neo-Malthusianismus, der meint, unser Planet sei von zu vielen hungrigen Mäulern bevölkert. Dass wir die Welt noch nicht so eingerichtet haben, dass sie den Bedürfnissen der Menschen gerecht wird (also als Welt im Überfluss), wird umgedeutet als Versagen der Einzelnen, ihren Fortpflanzungstrieb, ihre Konsumwünsche und ihren Ressourcenverbrauch zu drosseln. Als mangelnder Fortschritt noch als Ursache sozialer Missstände galt, konnten kollektive politische, technische und wirtschaftliche Lösungen in Angriff genommen werden. Heute, wo Missstände als Folge der Überschreitung naturgegebener Grenzen definiert werden, erscheint als einzig vorstellbare Lösung die Beschränkung des menschlichen Aktionsradius. Bevölkerungswachstum ist kein Problem. Der Mangel an sozialer Vorstellungskraft ist das Problem.

6. Freier Austausch statt Dämonisierung der „Leugner“!

Eine ernsthafte Debatte über die Menschheit und ihre Zukunft wird permanent behindert. Wer heute die gängigen Thesen zum Klimawandel infrage stellt oder an anderer Stelle der grünen Weltsicht widerspricht, wird auf eine Stufe mit Kreationisten oder Hohlwelttheoretikern gestellt. Manche bezeichnen die „Leugnung des Klimawandels“ sogar als psychische Störung und behaupten, solche „bösen Worte“ würden buchstäblich zu Tod und Zerstörung führen. Zensurfreunde haben ihre Gegner schon immer als nicht nur fehlgeleitet, sondern auch moralisch verwerflich und Bedrohung für den sozialen Frieden dargestellt. Das Konzept der „Leugnung“ impliziert, dass es eine etablierte Wahrheit gibt, die man zu akzeptieren hat und die infrage zu stellen nur krankhaften Exzentrikern in den Sinn kommen könnte. Wir sollten das Recht auf Widerspruch verteidigen. Nicht, weil „Klimaskeptiker“ permanent Interessantes zu sagen hätten, sondern weil Durchbrüche in der Geschichte der Menschheit immer auf der Bereitschaft beruhten, unangenehme und provokante Fragen zu stellen – gerade in Bezug auf vermeintliche Wahrheiten.

7. Nord-Süd-Partnerschaften ohne Öko-Protektionismus!

Einst sangen selbst Marxisten Loblieder auf die kapitalistische Tendenz, Produktion und Handel zu internationalisieren. Die rasante Entwicklung von Produktion, Transport und Kommunikation auf dem Planeten hätte viele Gesellschaften in die Zivilisation geführt, schrieben Marx und Engels im Jahre 1848. Heute hingegen gilt es als vorbildlich, beispielsweise nur Lebensmittel zu kaufen, die im Umkreis von wenigen Kilometern produziert worden sind. Grüne Lobbygruppen verbreiten pseudowissenschaftliche Märchen über die besondere Qualität regionaler Kost, um den (oft auch nur vermeintlich) CO2-intensiveren Import ausländischer Nahrungsmittel zu verhindern. Ökologistische Schwarzmaler haben sogar den Begriff „Liebesmeilen“ erfunden, um die Einfuhr kenianischer Blumen zum Valentinstag einzudämmen. Dieser Protektionismus im grünen Gewand verweigert Menschen in Entwicklungsregionen Zugang zu Arbeit und Einkommen. Wir brauchen mehr sinnvolle und wirklich faire Verbindungen zwischen Nord und Süd.

8. Energie ist die Lösung, nicht das Problem!

Ob man Braukohle mit dem Schaufelradbagger abbaut oder Uran aus Pechblende extrahiert, immer erntet das heute auch Argwohn. Natürliche Ressourcen werden als endlich wahrgenommen und ihr Verbrauch als unabdingbar mit der Zerstörung das Planeten verbunden. Doch das Schreckgespenst der Ressourcenknappheit basiert nicht auf wissenschaftlichen Fakten. Es entspringt vielmehr der Überzeugung, dass wir natürliche Ressourcen ohnehin am besten gar nicht für menschliche Zwecke nutzen sollten. Selbst der Wasserverbrauch auf unserem blauen Planeten wird heute problematisiert. Grüne NGOs berechnen munter „Wasserfußabdrücke“ und fordern einen „wasserneutralen“ Lebensstil. Das zeugt von der neuen Sicht auf den Menschen als Zerstörer statt als Schöpfer. Die Erde wird zum Ressourcengroßmarkt umdefiniert, und die uns gebührende Rolle scheint darin zu bestehen, auf Zehenspitzen umherzuschleichen und wirklich nur zu nehmen, was wir unbedingt brauchen. Doch Energieerzeugung, nicht Rationierung ist die Lösung. Billige Energie ist ein großer Fortschrittsmotor. Jede Art der Energiegewinnung kann erforscht werden – auch Wind- und Wellenkraft –, solange wir die Prämisse akzeptieren, dass der Energieverbrauch zunehmen muss, um die Bedürfnisse der Menschheit befriedigen zu können.

9. Demokratiedefizite offen und ehrlich angehen!

Unsere Staatsoberhäupter reisten im Dezember nach Kopenhagen, um bei dieser „historischen Veranstaltung“ Handlungsfähigkeit und Entschlossenheit zu demonstrieren – Attribute, die man in der Tagespolitik schmerzlich vermisst. Mangels glaubwürdiger Visionen für ein besseres Leben übten Politiker sich angesichts des erwarteten Klimawandels als Prediger der Sparsamkeit und des Verzichts. Bürger wurden dafür kritisiert, es an Konsequenz beim Klimaschutz mangeln zu lassen. Große Teile der Gesellschaft betrachteten die Veranstaltung in Kopenhagen hingegen als reine Zeit- und Geldverschwendung. Viele brachten in unzähligen Umfragen ihre Meinung zum Ausdruck, dass der Klimawandel in ihren Augen nicht unser größtes Problem ist. Wenn Kopenhagen etwas brachte, dann die Gewissheit, dass sich Demokratiedefizite und eklatante Wahrnehmungsdifferenzen zwischen den politischen Führungen und den Bürgern nicht durch pseudo-historische „Events“ überwinden lassen. Wir brauchen dringend mehr Offenheit und Ehrlichkeit bei der Diskussion um unsere Zukunft – und mehr kontroverse Debatten, die unseren Horizont erweitern.

10. Menschen sind wichtiger als Tiere!

Früher gingen die Menschen davon aus, dass ein weißhaariger Gott vom Himmel herab über sie wache. Heute glauben viele, wir müssten uns an weißpelzigen Polarbären orientieren. Der Eisbär ist nicht erst seit Knut zur Metapher für menschliche Destruktivität geworden. Unser Handeln wird daran gemessen, ob es die Eisschollen durcheinander bringt, auf denen die Tiere leben. Rückwärtsgewandte Naturromantik und Abscheu gegenüber Eingriffen in die Umwelt führen zu immer stärkerer Kontrolle unserer Aktivität und zur Verengung unserer persönlichen und kollektiven Horizonte. Gebetsmühlenartig beschwört man das Bild von menschlicher Konsumgier und Ressourcennutzung bedrohter Arten und festigt so eine Kultur der Geringschätzung der Menschen. Wir brauchen stattdessen eine Moral und Werte, die den Menschen und seine freie Entfaltung in den Mittelpunkt stellen. Legen wir die Leitbilder der professionellen Miesmacher, die sich hinter Eisbären verstecken, auf Eis! (5. März 2010)

Bitte diskutieren Sie hier mit!

============================================================================================

Wer verstehen möchte, was in Kopenhagen auf dem Spiel stand, der sollte sich den Vortrag von Lord Monckton auf der unten angekündigten 2. Intermationalen Berliner Klima-Konferenz zu Gemüte führen. Dieser ist inzwischen auf CFACT.TV verfügbar. Wer danach noch glaubt, „Climategate“ beweise nicht, dass es sich bei der These von der menschlichen Schuld am Klimawandel um eine bewusst organisierte Lüge handelt, dem ist nicht mehr zu helfen.

———————————————————————————————————————-

Klima-Kreuzzug stößt auf Widerstand von Edgar L. Gärtner

China wird zum wichtigsten Bündnispartner im Kampf gegen eine selbstmörderische Politik

Etwa zwei Wochen nach seiner Aufdeckung ist „Klima-Gate“ nicht nur bei Wikipedia, sondern auch auf der Titelseite der „Frankfurter Allgemeine“ vom 4. Dezember angekommen. Wichtiger als die nachträgliche Bekanntmachung eines in der Blogosphäre und in der angelsächsischen Presse längst ausgemachten Wissenschaftsskandals durch ein etabliertes deutsches Printmedium ist aber ein Artikel, den das Blatt im Feuilleton der gleichen Ausgabe unter dem Titel „Der neue Weltmoralapostel“ bringt. Der Autor Mark Siemons berichtet dort vom Peking-Gipfel der Entwicklungsländer Ende November und zitiert einen wenige Tage zuvor im Konkurrenzblatt „Die Welt“ erschienen Beitrag von Fiona Kobusingye, Vorsitzende der ugandischen Gruppe für Menschenrechte und wirtschaftliche Entwicklung CORE. Darin geißelt die Autorin den Versuch, den schwarzen Kontinent mithilfe des internationalen CO2-Emissionshandels für den Verzicht auf Entwicklung zu belohnen, mit scharfen Worten. Die Energie-Diät, auf die Klimapolitiker wie Al Gore oder Yvo de Boer, der Chef des UN-Klimasekretariats, die Menschheit setzen wollen, sei in Afrika längst verwirklicht. Sie bedeute in der Praxis Hunger, Krankheit und Tod. Kobusingye schreibt: „Den Menschen in Afrika zu erzählen, sie können keinen Strom und keine wirtschaftliche Entwicklung haben – außer dem bisschen, was einige kleine Windturbinen oder Solarzellen produzieren – das ist unmoralisch. Es ist ein Verbrechen gegen die Menschlichkeit. Inzwischen bauen China und Indien jede Woche neue Kohle-Kraftwerke, und bringen damit ihre Leute aus der Armut heraus. Daher: selbst wenn Afrika verarmt bleibt – und wenn die USA und Europa die Atomkraft durch Windmühlen ersetzen – die globalen Kohlendioxid-Werte würden jahrzehntelang weiter steigen. (…) Wir brauchen den Handel, Produktion, Strom und Treibstoffe, um moderne Industriegesellschaften aufzubauen. Wir müssen tun, was China und Indien tun – uns entwickeln – und mehr Handel mit ihnen treiben.“

Wie FAZ-Redakteur Mark Siemons richtig bemerkt, kommt dem Bezug auf China strategische Bedeutung zu. Die Volksrepublik China dient trotz ihres nicht gerade sanften Vorgehens bei der Erschließung und Ausbeutung von Rohstofflagerstätten in Afrika gerade auch bei den ärmsten afrikanischen Ländern mehr und mehr als Vorbild für eine nachholende wirtschaftliche Entwicklung, die sich nicht am dekadenten und letztlich selbstmörderischen Leitbild der „Nachhaltigkeit“ orientiert, sondern die Befriedigung der Grundbedürfnisse der Armen in den Mittelpunkt stellt. Die „Klimapolitik“ erscheint immer mehr Afrikanern als Kreuzzug im Namen des Todes, während die chinesische Politik trotz aller Grobheiten die Hoffnung auf ein besseres Leben verkörpert. Die aktuelle Politik der chinesischen Führung unter Ministerpräsident Wen Jiabao erscheint ihnen umso attraktiver, als diese angesichts der noch längst nicht ausgestandenen internationalen Währungskrise diskret, aber nachdrücklich an der Entwicklung einer vom US-Dollar entkoppelten neuen Leitwährung auf der Basis eines Rohstoff-Index arbeitet. Kein Wunder, dass neben China auch Indien, Brasilien und Südafrika angekündigt haben, in Kopenhagen keinem Abkommen zuzustimmen, das auf eine Halbierung der weltweiten CO2-Emissionen bis zum Jahre 2050 abzielt. (4. Dezember 2009)

Internet:

FAZ: Klima-Gate

Mark Siemons: Der neue Weltmoralapostel

Fiona Kombusingye: Africa’s real Climate Crisis

Dieselbe: Was soll die Klimadebatte – Afrika verhungert

Das nahende Ende einer Parenthese der Geschichte?

============================================================================================

Vor dem Kopenhagener „Klima-Gipfel“:

Der Kampf gegen die Öko-Diktatur ist noch nicht gewonnen

Von Edgar L. Gärtner

Die Veröffentlichung des offiziellen „Climate Science Statement“ durch führende britische Wissenschaftsorganisationen und das Votum der 53 Commonwealth-Länder für einen bindenden Vertrag über den „Klimaschutz“ durch CO2-Reduktion (Kohlenstoff-Kommunismus) zeigt, dass die Aufdeckung der Manipulation wichtiger Klimadaten durch internationale Seilschaften bei den Mächtigen wenig Eindruck macht. Dass der Zug in Richtung auf eine lebensfeindliche, aber staatstragende Besteuerung des Heizens, Reisens und Atmens, die sich als CO2-Marktwirtschaft tarnt, stur weiterrollt, gilt bei EU-Ratspräsident José Manuel Barroso, beim britischen Außenminister David Milliband und bei Klima-Kanzlerin Angela Merkel bereits als beschlossene Sache. Die auch in Deutschland erhobene Forderung, die in den Climategate-Skandal verwickelten Forscher Michael Mann, Phil Jones und Stefan Rahmstorf sollten vom „Weltklimarat“ IPCC ausgeschlossen, wenn nicht gar vor Gericht gestellt werden, liefen bislang ins Leere.

Es gibt sogar den Verdacht, die kompromittierenden Dateien seien nicht von einem ethisch motivierten Wistleblower ins Web gestellt worden, sondern auf Geheiß der mächtigen „Klimaschutz“-Lobby, um die „Skeptiker“ zu beschäftigen und die Teilnehmer des Kopenhagen-Gipfel zur Eile anzutreiben, damit sie die letzte Chance für die Verabschiedung eines Post-Kyoto-Vertrages und damit für den Start eines internationalen CO2-Handelssystems nicht verstreichen lassen. Schon bei der Konstituierung des „Weltklimarates“ IPCC im Jahre 1988 ging es primär um die Einführung einer CO2-Steuer. Die Idee dafür kam ursprünglich vom sowjetischen „Dissidenten“ Andrej Sacharow. Sie wurde dann unter Premierminister Ingvar Carlsson noch vor der Gründung des IPCC in Schweden aufgegriffen. Es ging der schwedischen Regierung vor allem darum, die damals abschreckend hohen Einkommenssteuern durch eine breitere Finanzierung des Staatshaushaltes abzulösen. Carlssons Berater Bert Bolin wurde erster Vorsitzender des IPCC. Da es sich aber zeigte, dass die Einführung einer solchen Steuer auf buchstäblich alles überall auf Widerstand stieß, kamen Ökonomen auf die Idee, die Steuer als CO2-Emissionshandel zu verpacken.

Man fragt sich, warum selbst liberale Ökonomen vom Emissionshandel fasziniert sind. Denn dieser hat mit freier Marktwirtschaft überhaupt nichts zu tun. Er ist eine zentralistische Form der Luftbewirtschaftung (Rationierung) auf der Basis simulierter Eigentumsrechte (Zertifikate). Zu diesem Zweck muss das ehedem „freie“ Gut Luft auf der Basis scheinbar objektiv wissenschaftlicher Annahmen über Obergrenzen menschlicher CO2-Emissionen in die Atmosphäre künstlich verknappt werden. Von diesem Schein der Wissenschaftlichkeit bleibt nach „Climategate“ nichts mehr übrig. Der britische Journalist Christopher Booker spricht vom „schlimmsten Wissenschaftsskandal unserer Generation.“ Der bekannte Klimaforscher Eduardo Zorita, der bislang keineswegs zu den „Skeptikern“ zählte, hat gefordert, Michael Mann, Phil Jones und Stefan Rahmstorf aus dem IPCC-Prozess auszuschließen. Immerhin sah sich Chef-Klimaforscher Phil Jones dadurch veranlasst, sein Amt erst einmal ruhen zu lassen.

Doch das scheint die Verfechter des Emissionshandels nicht zu stören. Die „Frankfurter Allgemeine Sonntagszeitung“ hat am 1. Advent unter dem Titel „Zauberformel gegen den Dreck“ gerade wieder den Emissionshandel in den Himmel gelobt. Skeptische Untertöne und emotionale Distanz wird man in diesem eines seriösen Blattes unwürdigen PR-Text vergeblich suchen. So deutlich hat sich die Frankfurter Zeitung noch selten zum Sprachrohr der Großbanken gemacht. Diese rechnen fest mit einem Durchbruch Kopenhagen, denn sie haben in enger Zusammenarbeit mit nationalen und internationalen Bürokratien längst umfangreiche Vorkehrungen für das Riesengeschäft mit heißer Luft getroffen. Sie wollen sich ihr Geschäft nicht durch ein paar Naivlinge verderben lassen, die noch glauben, es gehe um die Wahrheit. (1. Dezember 2009)

Internet:

Climate Science Statement

Commonwealth-Länder fordern bindenden Klimavertrag

Politischer Klimawandel vor dem Klimagipfel

Eduardo Zorita fordert Ausschluss von Mann, Jones und Rahmstorf

Christopher Booker: Climate Change: this is the worst scientific scandal of our generation

Phil Jones lässt sein Amt ruhen

Zauberformel gegen den Dreck

===================================================================================

Ein sehr nützlicher Tipp für Ihre Vorbereitung auf die Kopenhagen-Konferenz

Schauen Sie sich das nun schon einige Jahre alte, aber noch immer aktuelle 45-minütige Video „Doomsday Called Off“ von Lars Oxfeldt Mortenssen im Internet an und ziehen Sie daraus Ihre politischen Schluissfolgerungen. (21. Oktober 2009)

============================================================================

„Vergesst Kopenhagen!“

Nach den Reden des US-amerikanischen und des chinesischen Präsidenten auf New Yorker Klimakonferenz der UN am 22. September 2009 sieht die „Financial Times Deutschland“ keine Chance mehr, im Dezember auf dem Klima-Gipfel in Kopenhagen zu zu einem internationalen Abkommen zu gelangen, das mehr enthält als leere Symbolik, und plädiert für eine Verschiebung der Konferenz. (23. September 2009)

=======================================================================

Hahn zu ist billiger

Jetzt fällt auch beim Kollegen Joachim Müller-Jung der Groschen. In der FAZ vom 2. September berichtet er höchst ironisch über zwei Arbeiten von Sir Nicholas Stern und Hans-Joachim Schellnhuber. Beide gehen davon aus, dass Deutschland die ihm laut Weltklimarat IPCC zustehende CO2-Quote schon ausgeschöpft haben. Es käme also wesentlich billiger, der Wirtschaft einfach Öl- und Gashähne zuzudrehen, als zu versuchen, das gleiche Ziel über den CO2-Emissionshandel und die Milliarden schwere Förderung „erneuerbarer“ Energien zu erreichen. Merke: Das Nichts (= Nullemission) kann man auch umsonst haben. (2. September 2009)

Bonner Klimakonferenz, wie erwartet, ohne Ergebnis

Außer Spesen nichts gewesen. Wäre dieser Satz nicht so abgedroschen, träfe er inhaltlich exakt auf die Konferenz von fast zweieinhalb Tausend „Experten“ der Signatarstaaten der UN-Klimarahmenkonvention (UNFCCC) zu, die bis zum 14. August im schicken Bonner Hotel „Maritim“ tagte, um den großen „Klima-Gipfel“ vorzubereiten, der Ende des Jahres in Kopenhagen stattfinden wird. Zwar versucht UNFCCC-Generalsekretär Ivo de Boer jetzt noch Druck zu machen, indem er für den Fall des absehbaren Scheiterns des Kopenhagener Gipfels ein globales Desaster an die Wand malt, doch in der Öffentlichkeit nimmt kaum noch jemand Notiz davon. Das heißt nicht, skeptische Beobachter der Klima-Hysterie könnten nun die Hände in den Schoß legen. Denn es wäre weltfremd zu erwarten, die „Klimapolitiker“ und die bereits arbeitende internationale Klima-Bürokratie würden nun offen zugeben, einen falschen Weg eingeschlagen zu haben. Sie werden nun wohl noch zielsicherer auf einen Kompromiss hinarbeiten, der es ihnen erlaubt, das Gesicht zu wahren und die begonnene Abzocke der arbeitenden Menschen im Namen des Schutzes eines nicht definierbaren Weltklimas fortzusetzen. (14. August 2009)

============================================================================

CCS-Eulenspiegelei gestoppt

Der Deutsche Bundestag hat sich vor dem Ende der Legislaturperiode nicht auf ein Gesetz über die Abscheidung und Endlagerung von CO2 aus Kohlekraftwerken (CCS) einigen können. Damit steigen die Chancen, der Eulenspieglei definitiv ein Ende zu bereiten. Denn CCS würde alle bei Kohlekraftwerken in den letzten Jahrzehnten mühsam erreichten Effizienzgewinne wieder zunichte machen und Kohlestrom unerträglich verteuern. Es zeichnet sich immer deutlicher ab, dass vernünftige Lösungen der Energieprobleme nur gefunden werden können, wenn man CO2 schlicht vergisst. (24. Juni 2009)

====================================================================

Bonner Klimakonferenz: Lebenskraft-Rationierer am Verzweifeln. Obamas Unterhändler wissen den Schein zu wahren

Die Bonner Konferenz der Teilnehmerstaaten des UN-Rahmenabkommens über den Klimaschutz (UNFCCC) ist ohne Ergebnis zu Ende gegangen. Die Chancen, auf dem großen UN-Klimagipfel in Kopenhagen noch eine bindende Vereinbarung über eine 25-prozentige Drosselung der Freisetzung des angeblich klimaschädlichen Spurengases Kohlenstoffdioxid in die Atmosphäre bis zum Jahre 2020 zu erreichen, gehen deshalb gegen Null. Ausgerechnet das besonders „klimabewusste“ Industrieland Japan bot eine Drosselung um lediglich acht Prozent an. Andere Länder zeigen sich noch zurückhaltender. Es ist allerdings nicht ausgeschlossen, dass die Unterhändler von US-Präsident Barack Obama doch noch einen Trick finden, um zumindest den Schein zu wahren. Andeutungen in dieser Richtung machte Obama-Berater John Podesta diese Woche auf der Konferenz „The Great Transformation – Climate Change as Cultural Change“ in Essen. Jonathan Pershing, Obamas stellvertretender Chefunterhändler, kündigte am Schluss der Bonner Konferenz den US-Entwurf eines Klimaabkommens an, der das Kyoto-Abkommen von 1997 nicht fortschreiben, sondern durch mehr oder weniger verbindliche Regionen- und Länderspezifische CO2-Reduktionsziele ersetzen würde. Ergebnis wäre eine Art Drei-Klassen-Klimapolitik. Völlig offen blieb in Bonn die Frage der Finanzierung von Treibhausgas-Reduktionsmaßnahmen in armen Ländern.(12. Juni 2009)

=======================================================================

Auch zweites „Major Economies Forum“ (MEF) über Klimaschutz ohne Ergebnis

„Leider sind die Europäische Union und Deutschland immer noch allein auf weiter Flur im internationalen Klimaschutz.“ Das ist das Resümee von Bundesumweltminister Sigmar Gabriel (SPD) nach Abschluss des zweitätigen internationalen Treffens zu Klimaschutz in Paris. Unter dem Namen „Major Economies Forum“ (MEF) hatte US-Präsident Barack Obama nach einem ersten Treffen Ende April zum zweiten Mal die 16 Industrie- und Schwellenländer mit den stärksten Volkswirtschaften und den höchsten „Treibhausgas“-Emissionen eingeladen.

„Das Treffen in Paris zeigt, dass es noch sehr großer Anstrengungen und hoher Verhandlungsbereitschaft auf allen Seiten bedarf, um beim Klimagipfel in Kopenhagen Ende des Jahres zu einer anspruchsvollen Anschlussvereinbarung zum Kyoto-Protokoll zu kommen“, sagte Gabriel. Die Wirtschaft kann sich jetzt also getrost darauf einstellen, dass in Kopenhagen nichts Greifbares beschlossen werden wird.

Internet: „EU und Deutschland im Klimaschutz weiter allein auf weiter Flur“ (26. Mai 2009)

Dazu passt die Meldung, die EU verabschiede sich bereits von strengen „Klimaschutz“-Vorgaben. (29. Mai 2009)

Der französische Staatspräsident Nicolas Sarkozy hatte übrigens vor, den ausgewiesenen Klimaskeptiker Claude Allègre nach den Europawahlen zum Forschungsmininister zu ernennen. Nach dem überraschend guten Abschneiden der französischen Grünen unter Daniel Cohn-Bendit bei den Europawahlen gilt das aber nun wieder als wenig wahrscheinlich. Das Elisée hat am 23. Juni abends vorzeitig eine unerwartet umfangreiche Regierungsumbildung vorgestellt. Wie erwartet, gehört der zeitweise hoch gehandelte Claude Allègre nicht zu den neuen Ministern. (24. Juni 2009)

========================================================================

Hans Mathias Kepplinger gegen einträgliche Panikmache

Lesenswert: Ein Interview mit dem Mainzer Medienforscher Hans Mathias Kepplinger in SPIEGELonline. Er sieht eine Tendenz genereller Übertreibung von Katastrophen-Gefahren in den audio-visuellen Massenmedien. Davon profitieren kostenträchtige öffentliche Einrichtungen und internationale Gremien wie die Weltgesundheitsorganisation WHO oder der Weltklimarat IPCC, die ihre Existenz rechtfertigen müssen. (11. Mai 2009)

===================================================================================

Washingtoner Klima-Gipfel ohne Ergebnis

„Wir haben so lange über CO2-Minderung geredet, dass fürs Thema Geld keine Zeit mehr blieb“, berichtete US-Chefunterhändler Todd Stern über den Verlauf des Treffens von 17 Staaten, die etwa drei Viertel des globalen CO2-Ausstoßes repräsentieren. Im Klartext: Es wurde nur heiße Luft produziert, schreibt Christian Schwägerl in SPIEGELonline. Es wird immer unwahrscheinlicher, dass der Kopenhagener Klima-Gipfel im Dezember dieses Jahres zu mehr als symbolischen Beschlüssen kommt (29. April 2009)

======================================================================

NASA: Die Sonne verhält sich zurzeit völlig unerwartet

Die US-Weltraumbehörde weist darauf hin, dass sich keines der bislang für die Prognose von Sonnenfleckenzyklen verwendeten theoretischen Modelle als nützlich erwiesen hat. Die Sonne macht, was sie will. (30. Mai 2009)

In diesem Jahr noch weniger Sonnenflecken als im Vorjahr

Alle Indikatoren der Sonnenaktivität weisen nach unten. Auf Erden müssen wir uns auf eine Jahrzehnte währende Abkühlung gefasst machen. Dazu die Analyse eines US-Meteorologen sowie ein interessantes Interview mit David Hathaway, einem führenden US-Solarforscher, der zwar an die Vorherrschaft des „Treibhauseffekts“ glaubt, sich aber dennoch Sorgen macht über die Entwicklung der Durchschnittstemperatur auf der Erde. (12. Mai 2009)

================================================================

Daily Telegraph: Kein Meeresspiegel-Anstieg seit 50 Jahren

„if there is one scientist who knows more about sea levels than anyone else in the world it is the Swedish geologist and physicist Nils-Axel Mörner, formerly chairman of the INQUA International Commission on Sea Level Change. And the uncompromising verdict of Dr Mörner, who for 35 years has been using every known scientific method to study sea levels all over the globe, is that all this talk about the sea rising is nothing but a colossal scare story.“ Christopher Booker in: „Daily Telegraph“ vom 29. März 2009)

=================================================================

Der Hamburger Meteorologe Hans von Storch bereitet die SPIEGEL-Leser sanft auf das nahende Ende des Klima-Hype vor

Nach Ansicht von Storchs „wird deutlich werden, dass es neben der Klimaproblematik weitere schwierige Entwicklungen geben wird, mit weitreichendem Einfluss auf das individuelle sowie das globale Wohlergehen des Lebens auf der Erde: Nachwirkungen der Wirtschaftskrise, Gesundheitsgefahren, Bevölkerungszuwachs, soziale Ungleichheit, Armut, Hunger, Ressourcenübernutzung, radikal verschiedene Weltsichten. Ich erwarte, dass Klima weiter als ein gewichtiges, handlungsnotwendiges Thema verstanden wird, aber eben nur als eines unter mehreren.“ Hans von Storch schließt mit folgender plausiblen Zukunftsprojektion: „Der bisherige Hype der Klima-Angst wird durch eine andere Angst ersetzt werden. Das Klimathema wird nicht mehr wirklich ernstgenommen werden, sondern vor allem zur Motivation für eine allgegenwärtige Regulierung fast aller Lebensbereiche instrumentalisiert werden. In diesem pessimistischen, aber vielleicht nicht unrealistischen Szenario, würde die Klimaforschung die gegenwärtige Aufmerksamkeit der Öffentlichkeit verlieren – trotz eines langen Feuerwerks immer wieder neu entdeckter Gefahren und in Aussicht gestellter Weltuntergänge. Am Ende stünde ein Rückzug auf die von den Wetterdiensten betriebenen Überwachungsaufgaben, spannende Nischenforschung im Elfenbeinturm und versprengte übriggebliebene Alarmisten.“

================================================================

SPIEGELonline berichtet von angeblichen bzw. angeberischen „Polarforschern“, die im Frühjahr gegen den Kältetod kämpfen. Eigentlich waren sie im Februar losgezogen, um nach Zeichen der globalen Erwärmung zu suchen. Mein Freund und Kollege Ulli Kulke hat die ganze Geschichte in der WELT als ebenso dreiste wie gedankenlose PR-Masche entlarvt. (20. März 2009)

=================================================================

In Kopenhagen trafen sich 2000 so genannte „führende Klimaforscher“, um der politischen Klasse und dem gemeinen Volk klar zu machen, dass es keine Ausrede vor der Unterwerfung unter die globale Kohlenstoff-Rationierung (sprich: Öko-Diktatur) gibt. Statt die Erkenntnis hervorzuheben, dass die globale Durchschnittstemeperatur mindestens um 6 Grad Celsius steigen müsste, um das Grönlandeis nachhaltig zum Schmelzen zu bringen (was dann übrigens mehr als tausend Jahre in Anspruch nähme), greift SPIEGELonline am 11. März 2009 mit der Überschrift „Meeresspiegelanstieg wird sich beschleunigen“ die Warnungen von der politischen Dressurelite gehätschelter Außenseiter wie Prof. Stefan Rahmstorf vom Potsdam Institut für „Klimafolgenfoschung“ (PIK) auf. Am 12. März legte das Online-Magazin nach, indem es die Warnung des esoterischen Chefs des PIK, Hans Joachim Schellnhuber, nicht mit der Erde Roulette zu spielen, zitiert. Folgte man Schellnhuber, müsste man die menschliche Zivilisation abschaffen. Die hinter der Kopenhagener Konferenz stehende Absicht ist klar: Weil die Fortschreibung des Kyoto-Protokolls auf der nächsten UN-Klimakonferenz Ende 2009 in Kopenhagen angesichts der Wirtschaftskrise und der starken Wiederausdehnung des Arktis-Eises auf der Kippe steht, mobilisieren die, deren Geschäftsmodell von der Klimakatastrophen-Angst abhängt, von Torschlusspanik ergriffen, ihr letztes Aufgebot.

Das Europäische Institut für Klima und Energie (EIKE), in Jena hat auf seiner Website unter dem Titel „Medienflops: Medien-Enten über Klima & Energie“ eine aktuelle Liste geplatzter Klima-Lügen in der deutschen Presse zusammengestellt. Es handelt sich um eine insgesamt 40-seitige fachmännische Bewertung irreführender Pressemeldungen über Klimafragen aus der Feder von Michael Limburg (Dipl.-Ing.), Prof. Dr. Horst-Joachim Lüdecke (Diplom-Physiker) und Klaus-Eckart Puls (Dipl.-Meteorologe). Ich empfehle den Besuchern meiner Website dringend den Download des pdf-Dokuments. (9. März 2009)

===================================================================

US-Geologe Don Easterbrook erwartet Jahrzehnte lange Abkühlung

Auf der diesjährigen kritischen Klima-Konferenz des Heartland Instituts in New York erklärte der emeritierte Geologieprofessor Don J. Easterbrook aufgrund einer Analyse zyklischer Entwicklungen in der Vergangenheit, warum die Erde am Beginn einer längeren Abkühlungsperiode steht. (11. März 2009)

=================================================================

US-Klimaforscher erwarten, dass die globale Erwärmung eine 30-jährige Pause einlegt

Vor allem in Nordamerika, zum Teil aber auch in Europa hat der Winter 2008/2009 den seit Beginn des neuen Jahrtausends beobachtbaren Trend zur Stagnation, wenn nicht zu einem leichten Absinken der Kurve der glpobalen Durchschnittstemperatur bestätigt. Eine Anfang März in Washington angesetzte große Demonstration „grüner“ NGOs gegen den Bau von Kohlekraftwerken und für eine Verstärkung des Kampfes gegen die „globale Erwärmung“ musste in Wirklichkeit gegen einen heftigen Schneesturm ankämpfen und bekam wenig Zulauf. Wie „Discovery News“ meldet, erwarten US-Wissenschaftler wie Kyle Swanson von der University of Wisconsin-Milwaukee, dass der Abkühlungstrend noch 30 Jahre anhalten wird. (3. März 2009)

===============================================================

Das britische Met Office fürchtet, nicht mehr erntgenommen zu werden

Wissenschaftler vom britischen Headley Center, die bislang maßgeblich daran beteiligt waren, die Hysterie über einen drohenden Hitzetod der Erde zu schüren, warnen neuerdings davor, Naturerscheinungen wie das zeitweise Schrumpfen des Arktis-Eises der angeblich von Menschen verursachten globalen Erwärmung zuzuschreiben. Denn es ist unübersehbar, dass sich die Eisbedeckung rund um den Nordpol in diesem Winter wieder über das Vorjahresniveau ausgedehnt hat und dass das Abschmelzen des Grönland-Eises zum Erliegen gekommen ist. So macht die britische Meteorologin Dr. Vicky Pope auf der Website des linken „Guardian“ ihre Kollegen darauf aufmerksam, dass das Schwanken der Eisbedeckung der Arktis höchstwahrsceinlich natürliche Ursachen hat und nicht auf menschliche Einflüsse zurückgeht. Sie fürchtet, eine Fehlinterpretation von Naturerscheinungen arbeite letztlich den „Skeptikern“ in die Hände. Das könne die an einem seidenen Faden hängende Fortschreibung des Kyoto-Protokolls zum Ende dieses Jahres auf der Klimakonferenz von Kopenhagen gefährden. (11. Februar 2009)

=============================================================

Joachim Müller Jung führt in der FAZ vor, wie die am Staatstropf hängende Zunft der Computer-Klimatologen lückenhafte und inexitente Messdaten aus der Antarktis so zurecht biegt, dass sie die verstiegene These einer vom Menschen gemachten Erderwärmung scheinbar stützen. Zum Glück zeigen etliche der auf dem FAZ-Blog eingegangenen Diskussionsbeiträge, dass die Wirklichkeit anders aussieht.

Versicherungsschäden 2008: Kein Einfluss des klimawandels feststellbar. Doch Münchner Rück und Kanzlerinberater Schellnhuber interpretieren die Rangfolge der Versicherungsschäden, wie es ihnen in den Kram passt.

============================================================

Michael Crichton zu früh verstorben

Der bekannte amerikanische Thriller-Autor Michael Crichton ist am 4. November 2008 in seinem Haus in Los Angeles im Alter von 66 Jahren einem Krebsleiden erlegen. Der Hüne Crichton war nicht nur ein hoch qualifizierter Mediziner, der durchaus auch als Universitätsprofessor hätte Karriere machen können, sondern hatte auch einen profunden Überblick über den Stand der naturwissenschaftlichen Forschung. Das kam ihm zugute bei seinem 2004/2005 veröffentlichten Thriller-Roman „Welt in Angst“, in dem er zeigt, dass die „Klimapolitik“ auf einer menschenfeindlichen politischen Religion fußt, die mindestens so gefährlich ist wie die Rassenlehre der Nazis. Mit diesem Roman hat sich Crichton die Feindschaft der Grünen aller Schattierung in Politik und Medien zugezogen. Sie verhinderten, dass der Roman in Hollywood verfilmt wurde. Eine detaillierte Besprechung von „Welt in Angst“ finden Sie im Untermenü „Für Sie gelesen…“.

==========================================================

Mein Freund Ernst Georg Beck hat auf der Jahreshauptversammlung des BLS Bundesverband für Landschaftsschutz am 25. Oktober 2008 in Köln die Indizien zusammengefasst, die für eine globale Abkühlung sprechen.

An anderer Stelle entlarvt Der Freiburger Biologe die jüngsten Warnungen vor einer dramatischen Aufheizung der Arktis als dreisten Wissenschaftsbetrug. Wohin die Entwicklung wirklich geht, zeigt das Wiederanwachsen von Gletschern in Alaska nach einem außerordentlich kühlen Sommer.

===========================================================

Der Leipziger FDP-Europa-Abgeordnete Holger Krahmer fordert eine Aussetzung des „Klimapaketes“ der EU

===========================================================

FAZ liefert ein aufschlussreiches Porträt des „Temperaturfühlers“ Hans-Joachim Schellnhuber

Ich bin der FAZ dankbar dafür, dass sie uns solche Einblicke in die Denkweise von Top-Beratern unserer Kanzlerin gewährt. Ich möchte keineswegs die Wunderkind-Eigenschaften von Herrn Schellnhuber, seine außerordentliche Begabung für einen bestimmten Zweig der theoretischen Physik in Zweifel ziehen. Doch die Füße auf der Erde hat er nicht. Seine Vorstellung, durch ein globales Management den Anstieg der Durchschnittstemperatur über den Landmassen der Erde auf 2 Grad Celsius begrenzen zu können, kann man nur als esoterisch bezeichnen. So funktioniert unsere Welt, kosmische Dimensionen eingeschlossen, einfach nicht! Es dürfte kein Zufall sein, dass es kaum Geologen gibt, die Schellnhubers Argumentation folgen. Sehr zu empfehlen in diesem Zusammenhang das Buch des niederländischen Geologen Salomon Kroonenberg (Darmstadt, 2008).

Die Ratschläge Schellnhubers dürften dafür mitverantwortlich sein, dass Frau Merkel den Klimawandel noch immer für bedrohlicher hält als die auf uns zukommende Energieverteuerung durch wachsende Abhängigkeit von der unberechenbaren Politik autoritärer Regimes. Inzwischen hat zumindest der britische Wirtschaftsminister John Hutton klar erkannt, dass die Frage der Energiesicherheit wichtiger ist als das Klima.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Heidelberger Kernphysiker rügt deutsche Medien wegen irreführender Darstellung der Klima-Problematik

Der in Heidelberg lebende und früher in Saarbrücken lehrende Kernphysiker und Buchautor Prof. Dr. Horst-Joachim Lüdecke sah sich nach der Lektüre vieler -der gängigen Irrlehre vom menschengemachten Klimawandel folgenden- Artikel im ehemals wirtschaftsliberalen Handelsblatt veranlaßt, einen richtigstellenden ausführlichen Leserbrief an den verantwortlichen Wissenschaftsautor Ferdinand Knauß zu schreiben. Weil die Vorgehensweise des Herrn Knauß beispielhaft für ganze Heerschaaren von Vertretern der Medienzunft steht, haben wir uns entschlossen den ganzen Brief zu veröffentlichen. Er steht online beim Europäischen Institut für Klima und Energie (EIKE), Jena.

Vorab nur eine kleine Auswahl der wichtigsten Aussagen:

* Sie geben als Motivation für Ihre oben genannten Artikel und Ihr Engagement in Sachen Klimaschutz Verantwortung für Umwelt und Nachkommen an. Weil ich diese Haltung teile, habe ich mir die Mühe gemacht, Ihre Artikel anzusehen. Als Folge drängen sich mir allerdings, ich bitte sehr um Ihre Nachsicht, folgende Fragen auf: ist es unzureichendes Recherchieren, journalistisches Reiten auf der Klima-Katastrophenwelle, der verlängerte Propaganda-Arm des PIK, doch ehrliches Engagement für unsere Umwelt oder die Vorgabe der Handelsblatt -Redaktion, was Ihre Beiträge steuert?

* Zunächst die Fakten, die Sie größtenteils auch in den wissenschaftlichen Berichten des IPCC nachlesen können und sollten (natürlich nicht in den Summaries for Policymakers): Bis vor etwa 12 000 Jahren war das europäische Klima von starken, kurzfristigen Änderungen geprägt, die mehrere Celsius-Grade in einem Menschenleben erreichen konnten. Danach wurde es gleichmäßiger. Es gab aber immer noch Warm- und Kaltzeiten, etwa das warme mittelalterliche Klimaoptimum (Erwärmung = Optimum, nicht Pessimum, erstaunlicherweise darf man dies noch schreiben) oder die kleine Eiszeit im 17. Jahrhundert. Im 20. Jahrhundert setzte wieder eine Erwärmungsphase ein, die seit einem knappen Jahrzehnt, in dem es sich erneut abkühlte(!), inzwischen beendet scheint.

* Da es anthropogenes CO2 praktisch erst seit 100 Jahren gibt, stellt sich die Frage, ob es für die jüngste Erwärmung verantwortlich war. Die Größenordnung der Erwärmung, insgesamt ca. 0,6 Grad in 100 Jahren, passt mit der etablierten Atmosphärenphysik bei viel gutem Willen und Augenzudrücken grob zusammen. Das IPCC gibt sogar eine logarithmische Formel an (www.ipcc.ch, report 2001, the scientific basis, TAR-06.pdf, S. 358, Tab. 6.2), die die globale Temperaturerhöhung mit der gemessenen CO2- Konzentrationszunahme der Luft verknüpft. Diese Formel liefert im Übrigen noch nicht einmal dann katastrophale Temperaturen, wenn wir alle verfügbaren fossile Brennstoffe der Erde verfeuern würden.

* Mit der Infrarotabsorption des CO2 ist es in einem extrem vereinfachten Bild wie mit einem schwarzen Tuch zum Zweck der Verdunkelung. Hängen Sie noch ein weiteres schwarzes Tuch davor (=Verdoppelung der CO2-Konzentration), wird es nicht noch dunkler. Schlussendlich bemerkenswert: Der Verlauf der nordhemisphärischen Temperaturen mit ihren Zu- und Abnahmen im 20., einschließlich dem begonnenen 21. Jahrhundert, passt mit dem stetig zunehmenden CO2 überhaupt nicht zusammen. Auf der Südhalbkugel gibt es ferner große Zonen, die sich abgekühlt haben, während sich die Nordhalbkugel erwärmte. Niemand kann dies schlüssig erklären, zu steigenden CO2-Konzentrationen passt dieses Phänomen ebenfalls nicht.

*Wir bewegen uns bis heute in Klimaverhältnissen, die absolut im natürlichen Bereich liegen. Ungewöhnliche Zunahmen von Meerespiegelhöhen oder von Extremwettern gibt es bis heute ebenfalls nicht. In einem schon länger zurückliegenden, kontroversen E-Mail-Austausch mit Kollegen Rahmstorf (nur Prof.-Kollege, ich bin von Haus aus Kernphysiker und kein Klimaspezialist), in dem ich ihn aufforderte, die Fakten über die gegenwärtig nicht vorhandenen Meeresspiegelanstiege der Öffentlichkeit doch bitteschön einmal unmissverständlich mitzuteilen, schrieb er mir „wir erwarten diese Anstiege“. Respekt! Erwarten kann man viel, dazu weiter unten mehr. Um übrigens keine Missverständnisse aufkommen zu lassen: Man beobachtet seit 150 Jahren, also seit es ordentliche Messungen gibt, natürliche Meeresspiegelanstiege von grob 2 mm pro Jahr, die mit anthropogenem CO2 nichts zu tun haben. Auch die neuesten Satellitenmessungen zeigen hiervon keine maßgebenden Abweichungen.

* Die von Rahmstorf gerne zitierten Fingerprints, die die Schuld des Menschen beweisen sollen, sind im Übrigen netter statistischer Unfug. Ich garantiere Ihnen, sehr geehrter Herr Knauß, fast jedes Phänomen, von steigenden Scheidungsraten bis hin zu steigenden Flugkilometern, mit anthropogenem CO2 und der Klimaerwärmung in Fingerprint-Zusammenhang bringen zu können. Da Anfang des vorigen Jahrhunderts die Geburtenraten zu- und die Storchpopulationen abgenommen haben, werden wohl auch die Babys vom Storch gebracht. Propagandisten wie Rahmstorf verschweigen, dass zu einer gesicherten Statistik immer zwei Dinge gehören, ein nachgewiesener Mechanismus (der hier fehlt) und eine saubere mathematische Korrelation.

* Die „Klimaprojektionen“ in den IPCC Summaries for Policymakers, die bis zum Jahre 2100 im Höchstfall von mehreren Graden Temperatursteigerungen künden, sind reine Zukunftsvisionen. Sie haben keine Messungen sondern fiktive Klima-Computer-Modellrechnungen zur Grundlage, die ihre Zuverlässigkeit noch nicht einmal für die Klimavergangenheit unter Beweis stellen konnten. Die viel einfacheren Wettermodelle sind höchstens über wenige Wochen hinaus zuverlässig. Aber „Klima- Computer-Projektionen“ über Zeiträume bis 100 Jahren soll man ernst nehmen? Klima-Computer-Modelle beruhen auf den Vorstellungen der Programmierer und nur zum Teil auf ordentlicher, nachprüfbarer Physik. Rückkoppelungsmechanismen, Tipping-Points und weitere, durch keinerlei Messungen belegte Fiktionen werden in diesen Modellen bemüht, um irgend etwas Katastrophales zusammenzukratzen. Die IPCC- Politik wünscht es so.(siehe auch hier)

* Ich bin mit vielen Physik-Professoren-Kollegen von Universitäten und FH’s befreundet bzw. näher bekannt. Keiner von ihnen, das darf ich Ihnen versichern, nimmt die zur Zeit herrschende CO2- Hysterie ernst; überwiegend amüsiert man sich königlich über den Unsinn. Die maßgebenden Politiker nehmen die Sache wohl auch kaum ernst und Frau Merkel als promovierte Dipl.-Physikerin ihr lautstark verkündetes Zulassen von höchstens weiteren 2 Grad globaler Erwärmung schon gar nicht. Für die Politik ist die Geschichte natürlich zu wichtig geworden.

* Ihr Argument, auch bei zugegebener Unsicherheit sei die Sache zu wichtig und koste doch nur einen vernachlässigbaren volkswirtschaftlichen Anteil, können Sie bei Beachtung der Grundrechenarten und dem täglichen Blick in die Zeitungen doch wohl nicht ernst meinen. Der deutsche Windrad- und Photovoltaik-Wahnsinn ist erst ein Anfang, hat den Steuerzahler bereits Milliarden gekostet, wird unsere Volkswirtschaft zunehmend schädigen, unsere in der Vergangenheit zuverlässige Energieversorgung zunehmend gefährden und Mittel von wirklich notwendigen Umweltschutzmaßnahmen abziehen.

*Das PIK als politische Proposal-Institution wird von keinem Fachmann unter vier Augen mehr ernst genommen. Es hat seinen wissenschaftlichen Ruf durch seine politische Klima-Propaganda gründlich ruiniert. Da PIK-Professor Schellnhuber „persönlicher Klimaberater“ unserer Kanzlerin ist, können Sie sich in Klimafragen besser gleich bei der CDU-Fraktion informieren. Schellnhuber und Rahmstorf majorisieren ferner das WBGU (wiss. Beirat der Bundesregierung für globale Umweltveränderungen). Besonders vielsagend ist die Wende dieses Beirats nach 1997. Im WBGU-Bericht von 1997 können Sie noch wörtlich nachlesen, ein Einfluss des anthropogenen CO2 auf Klimawerte sei nicht nachweisbar.

* Und nun zu dem immer wieder beschworenen „Konsens“ der Fachwelt: Ich verweise hierzu auf die aktuelle Diskussion in der US-Amerikanischen physikalischen Gesellschaft, die zeigt, dass Zehntausende von Physikern, deren Zahl um mindestens den Faktor 10 höher ist, als die Anzahl der am IPCC-Prozess beteiligten Forscher, mit der Klimaschädlichkeit des anthropogenen CO2 keineswegs einverstanden sind. Zu nennen sind weiter die ICSC (International Climate Science Coalition) und schlussendlich die vielen wissenschaftlichen Manifeste gegen die IPCC-Hypothese, wie der Heidelberger Aufruf, das Leipziger Manifest, die Kanadische Petition und die Oregon Petition – es haben auch Nobelpreisträger mitunterschrieben, sie ebenfalls auf der Internetpräsentation des EIKE finden.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

International Climate Science Coalition (ICSC)

Hunderte unterzeichnen realistische Klima-Erklärung – „Die globale Erwärmung“ ist keine weltweite Krise

22.04.2008 | 22:29 Uhr

Ottawa, Kanada (ots/PRNewswire) – – Die „International Climate Science Coalition“ veröffentlicht Unterzeichner der „Manhattan-Erklärung zum Klimawandel“

Die „International Climate Science Coalition“ (ICSC) gab heute die Namen von mehr als 500 Unterstützern der „Manhattan-Erklärung zum Klimawandel“ („Manhattan Declaration on Climate Change“) bekannt, die weltweite Führungspersönlichkeiten dazu aufruft, „die Auffassungen des zwischenstaatlichen Ausschusses für Klimaänderungen der Vereinten Nationen („United Nations Intergovernmental Panel on Climate Change“ – IPCC) sowie populäre, aber irreführende Arbeiten wie „Eine unbequeme Wahrheit“ („An Inconvenient Truth“) zurückzuweisen.“ Alle Steuern, Gesetze und andere Eingriffe mit dem Ziel der Reduktion von Kohlendioxid-Emissionen (CO2) sollten „unverzüglich abgeschafft“ werden, lassen die Unterzeichner verlauten.

Die Liste der Unterstützer umfasst weltweit führende Klimaforscher, Wirtschaftsexperten, Entscheidungsträger, Ingenieure, Führungspersönlichkeiten aus der Wirtschaft, Mediziner sowie andere Experten und besorgte Bürger aus zwei Dutzend Ländern. Hier der vollständige Text der Erklärung, die Unterstützerlisten und internationalen Medienkontakte für Expertenkommentare

Die vielleicht wichtigsten Aussagen der Erklärung sind:

– „Es besteht kein überzeugender Beweis dafür, dass die CO2-Emissionen der modernen, industriellen Aktivität in der Vergangenheit, in der Gegenwart, oder in der Zukunft einen katastrophalen Klimawandel verursachen.“

– „Versuche von Regierungen, teure Vorschriften über Industrie und den einzelnen Bürger zu verhängen, um die CO2-Reduktion zu fördern, werden die Entwicklung verlangsamen, ohne einen sinnvollen Einfluss auf den künftigen Verlauf des weltweiten Klimawandels zu haben. Solche Strategien werden die künftige Prosperität spürbar verringern und damit die Fähigkeit der Gesellschaften einschränken, sich an die unabänderliche Klimaänderung anzupassen und dadurch das menschliche Leid vergrössern, nicht verringern.“

„So wie das Manhattan-Projekt eine Schlüsselrolle für das Ende des Zweiten Weltkriegs war, so wird die „Manhattan-Erklärung zum Klimawandel“ eines Tages als ein essentieller Katalysator betrachtet werden, der dazu beigetragen hat, die heutige Klima-Hysterie zu beenden“, sagte das Mitglied des Wissenschaftsbeirats der ICSC, Professor Bob Carter von der James Cook University in Australien. „Der Schutz der Umwelt ist äusserst wichtig und daher muss die Umweltpolitik auf unserem besten Verständnis von Wissenschaft und Technologie basieren, verbunden mit einer realistischen Einschätzung der relevanten Optionen für Wirtschaft und Politik. Dies findet in der Klimadebatte nicht statt.“

Der Vorsitzende der ICSC, Professor Tim Patterson von der Carleton University in Ottawa (Kanada) erklärt: „Anstatt Milliarden durch die Restriktion von CO2-Emissionen zu verschwenden, einem lebenswichtigen Gas, von dem alles Leben abhängt, müssen sich die Regierungen darauf konzentrieren, bekannte Umweltprobleme zu lösen, auf die wir einen Einfluss haben – Luft-, Land- und Wasserverschmutzung sind bekannte Beispiele dafür.“

Die ICSC ist eine Vereinigung von Wissenschaftlern, Ökonomen und Experten für Energie und Politik, die sich für ein besseres Verständnis der Öffentlichkeit hinsichtlich des Klimawandels einsetzen. Die ICSC liefert eine Analyse von Klimaforschungs- und politischen Themen, die unabhängig von Lobbys und etablierten politischen Interessen eine Alternative zu den Empfehlungen des IPCC darstellt. Die ICSC unterstützt daher eine rationale, wissenschaftlich begründete, offene Diskussion aller Themen rund um das Klima.

Für weitere Informationen über die „Manhattan-Erklärung“ oder die ICSC besuchen Sie climatescienceinternational.org oder kontaktieren Sie: Tom Harris, B. Eng., M. Eng., Executive Director, International Climate Science Coalition, P.O. Box 23013, Ottawa, Kanada, K1A 4E2, +1-613-728-9200, E-Mail: tom.harris@climatescienceinternational.net; oder Professor Robert M. Carter, Ph.D., Marine Geophysical Laboratory, James Cook University, Townsville, Qld., 4811, AUSTRALIEN, Telefon: +61-7-4781-4397, Priv.: +61-7-4775-1268, Mobil: +61(0)419-701-139, E-Mail: bob.carter@jcu.edu.au; Web: members.iinet

Pressekontakt:

Für weitere Informationen über die „Manhattan-Erklärung“ oder die ICSC besuchen Sie climatescienceinternational.org oder kontaktieren Sie: Tom Harris, B. Eng., M. Eng., Executive Director, International Climate Science Coalition, P.O. Box 23013, Ottawa, Kanada, K1A 4E2, +1-613-728-9200, E-Mail:

tom.harris@climatescienceinternational.net; oder Professor Robert M. Carter, Ph.D., Marine Geophysical Laboratory, James Cook University, Townsville, Qld., 4811, AUSTRALIEN, Telefon: +61-7-4781-4397, Privat:

+61-7-4775-1268, Mobil: +61(0)419-701-139, E-Mail: bob.carter@jcu.edu.au

Und hier der NIPCC-Bericht Nature, not Human Activity, Rules the Climate. Eine deutsche Übersetzung ist unter dem Titel „Die Natur, nicht menschliche Aktivität bestimmt das Klima“ beim TvR Medienverlag, Jena 2008 erschienen.

Meinen Bericht über die Konferenz finden Sie unter dem Titel Klimaskeptiker auf verlorenem Posten? weiter unten.

Dazu mein Kommentar:

Krieg der Meme

Die letzte Woche am New Yorker Broadway über die Bühne gegangene Klima-Konferenz der „Skeptiker“ mit über 100 Fachvorträgen renommierter Atmosphären-, Meeres- und Polarforscher zeigte meines Erachtens, dass die Beweislage gegen eine nennenswerte Beteiligung des allenthalben verteufelten Kohlenstoffdioxids (CO2) an der Erderwärmung immer erdrückender wird. Denn es wird auf der Erde seit einigen Jahren wieder kühler. Schade, dass in der deutschen Presse darüber kaum berichtet wurde. Von dem in den Massenmedien so oft bemühten „Konsens“ über die Rolle des CO2 im Wettergeschehen kann jedenfalls nicht die Rede sein, wenn sich so viele Spitzenforscher offen von der offiziellen Lehrmeinung des UN-Klimarates IPCC distanzieren.

Das Wort „Konsens“ hat in der Wissenschaft ohnehin nichts zu suchen. Hier geht es nach Karl R. Popper nicht um die konsensuale Absegnung endgültiger Wahrheiten, sondern um die „Refutation“ von Hypothesen mithilfe intelligenter Experimente und kritischer Dispute. Basis eines wirklichen Konsenses im Alltag wie in der großen Politik kann nach Hannah Arendt nur der gesunde Menschenverstand sein. Und Grundlage eines halbwegs dauerhaften Friedens zwischen Menschen unterschiedlicher Weltanschauung können nur produktive Missverständnisse sein. Ich meine: Es handelt sich bei der Auseinandersetzung zwischen „Klimaskeptikern“ und den Verfechtern der IPCC-Position nicht um einen wissenschaftlichen Disput, sondern um einen neuen Kalten Krieg zwischen Freiheit und Kollektivismus mit den Waffen der politischen Memetik. Dabei geht es darum, mithilfe von Tricks möglichst viele eigene Meme (Glaubenssätze, Symbole, Info-Viren) in die Hirne der Gegenseite zu schleusen, um sie von innen aufzuweichen. Die Urväter von Greenpeace nennen diese Meme treffend Mind Bombs.

Wenn die freiheitsliebenden „Klimaskeptiker“ im politischen Prozess vorankommen wollen, dürfen sie m. E. nicht die von der Gegenseite erfundenen Begriffe und Schlagwörter wie „ökologisches Gleichgewicht“, „Treibhauseffekt“ und „Kohlenstoff-Gerechtigkeit“ oder auch „soziale Gerechtigkeit“ verwenden. Denn diese Begriffe setzen voraus, dass wir in einer geschlossenen Welt leben. Die reale Welt ist aber offen: sowohl im Hinblick auf die Sonne und das Weltall als auch auf die Zukunft. Ein Liberaler, der sich darauf einlässt, mit einem Sozialisten über „soziale Gerechtigkeit“ zu diskutieren, hat also schon verloren. Erkannt hat das der gerade wiedergewählte tschechische Staatspräsident Václav Klaus, der in seiner mit stehenden Ovationen begleiteten Rede auf der New Yorker Konferenz darauf hinwies, es gehe im Streit mit dem IPCC gar nicht in erster Linie um das Klima, sondern um die Freiheit. (31. März 2008)

============================================================

Treibhauseffekt nicht nachgewiesen

Es gibt keine einzige wissenschaftliche Arbeit, die klipp und klar zeigt, ob und wie das Spurengas Kohlenstoffdioxid (CO2) atmosphärische Vorgänge beeinflusst. Es wurden für den Nachweis des „Treibhauseffekts“ auf beiden Seiten des Atlantik lukrative Geldpreise ausgesetzt. Doch niemand hat sich bislang dafür beworben.

Das zeigt: Der „Treibhaus

Öko-Nihilismus-Debatte

Über zwei Jahre sind nun seit dem Erscheinen meines grundlegenden Buches „Öko-Nihilismus. Eine Kritik der Politischen Ökologie“ vergangen. Von den politisch korrekten Massenmedien weitgehend totgeschwiegen, hat es in Fachmedien und im Internet lebhafte Debatten provoziert. Die Aussagen dieses Buches, von manchen als zu radikal oder als zu pessimistisch eingestuft, sind durch aktuelle Entwicklungen voll bestätigt worden.

Edgar Gärtner: Öko-Nihilismus. Eine Kritik der Politischen Ökologie. CFACT Europe, Thuss & van Riesen Medienverlag, Jena 2007. ISBN 978-3-00-020598-9. Preis Euro 24,50

Erhältlich bei Amazon.de

factum-magazin: Gegen die Vergötzung der Natur

Das in der Schweiz erscheinende christliche Familienmagazin factum bringt in seiner Ausgabe 5/08 unter dem Titel „Die überhitzte Prognose“ eine kritische Auseinandersetzung des Journalisten Thomas Lachenmaier mit dem nihilistischen Menschenbild der „Klimapolitik“ und stellt eine Reihe bekannter „Skeptiker“ vor. So den Mainzer Medienforscher Prof. Mathias Kepplinger, den tschechischen Staatspräsidenten Václav Klaus und meine Wenigkeit.

Hier das Interview, das ich Thomas Lachenmaier gab:

factum: In ihrem Buch kritisieren sie die politische Ökologie als eine

nihilistische Weltanschauung, die das Gute postuliert und am Ende doch

nur Verhängnis bringt. Wie lautet ihr Vorwurf?

Gärtner: So genannte Gutmenschen vergessen, dass alles im Leben seinen Preis hat.

Etwas Gutes muss oft mit üblen Nebenwirkungen erkauft werden. Die Menschen müssen sich dann nicht nur zwischen einer guten Tat und einer Sünde entscheiden, sondern zwischen zwei Übeln. Solche Entscheidungen in Form einer bewussten rationalen Abwägung treffen zu wollen, bringt die Menschen schnell ins Schwitzen. Zum Glück für unser seelisches Wohlbefinden erfolgen solche Entscheidungen meist unbewusst. Dabei spielen Glaubensinhalte und tief verwurzelte Überzeugungen eine wichtige Rolle. Die Abkehr von den christlichen Wurzeln des Humanismus und das dadurch entstandene Defizit unhinterfragter Glaubensinhalte macht meines Erachtens viele Europäer unfähig, in verschiedenen Entscheidungssituationen das kleinere Übel auszumachen.

factum: Haben Sie dafür ein Beispiel?

Gärtner: Das beste Beispiel dafür ist zurzeit die so genannte Klimapolitik. Damit die Durchschnittstemperatur der Erde nicht um mehr als zwei Grad Celsius von einem als normal erklärten globalen Mittelwert abweicht, setzt sie über die gewollte Verteuerung von Energieträgern und Nahrungsmitteln nicht nur unsere Freiheit und unseren wirtschaftlichen Wohlstand aufs Spiel, sondern ist letzten Endes sogar bereit, dem Ziel des Temperaturmittelwertschutzes (ich sage bewusst nicht Klimaschutz) größere Teile der Menschheit zu opfern. Bekanntlich haben Vordenker der Ökologiebewegung wie Paul Ehrlich in den USA oder Herbert Gruhl in Deutschland in den 70er Jahren offen die Schrumpfung der Weltbevölkerung auf anderthalb Milliarden Menschen gepredigt. Das zeigt, dass sie den christlichen Gott, der keine Menschenopfer fordert, weil Jesus Christus das mit seinem Opfergang ein für allemal aus der Welt geschafft hat, durch einen Götzen ersetzt haben.

factum: Die meisten Wissenschaftler gehen davon aus, dass der

CO2-Ausstoss die Ursache für die Klimaerwärmung ist. Aber es gibt auch

renommierte Wissenschafter, die anderer Meinung sind und Studien, die

andere Rückschüsse zulassen. Sie verfolgen als Wissenschaftsjournalist

die Debatte intensiv. Was ist ihr Eindruck von der wissenschaftlichen

Auseinandersetzung?

Gärtner: Eine wissenschaftliche Auseinandersetzung, die diesen Namen verdient, gibt es über die Frage nach den Ursachen des Klimawandels schon seit Jahren nicht mehr. Ein internationales Netzwerk von Top-Bürokraten und Versicherungsmanagern hat es mithilfe sogenannter Nichtregierungsorganisationen geschafft, den „Weltklimarat“ IPCC mit dem klaren Auftrag zu versehen, den Menschen, genauer: ihren industriellen Errungenschaften die Schuld am Klimawandel zuzuschieben. Sie können das nachlesen in dem vor einigen Jahren erschienenen Buch „The Carbon War“, in dem der Ex-Greenpeace-Mann Jeremy Leggett erstaunlich offen schildert, wie es dazu kam, dass der industrielle Ausstoß von Kohlenstoffdioxid (CO2) zur einzig relevanten Ursache des Klimawandels erklärt wurde. Die wissenschaftliche Debatte, die eigentlich nie stattgefunden hat, gilt damit als abgeschlossen. Der Mainzer Medienforscher Mattias Kepplinger hat zusammen mit seiner Mitarbeiterin Senja Post durch die direkte Befragung aller in Deutschland mit Klimaforschung befassten Wissenschaftler herausgefunden, dass in Wirklichkeit nur eine Minderheit von ihnen von der offiziellen Erklärung überzeugt ist. Die andern müssen schweigen, um ihre Karriere nicht zu gefährden.

factum: Wie beurteilen Sie die Folgen des weltweiten Handelns gegen den

Klimawandel?

Gärtner: Zunächst einmal grundsätzlich: Wir Menschen können meines Erachtens gegen den Klimawandel nichts unternehmen. Denn hier sind Kräfte am Werk, die unsere Einflussmöglichkeiten weit übersteigen. Als Humanist wehre ich mich einerseits dagegen, die Menschen klein zu machen, zu erniedrigen. Andererseits sollten wir es aber auch vermeiden, in Größenwahn zu verfallen. Das Christentum schützte uns bislang in gewissem Maße gegen diese Versuchung. Die Säkularisierung hat solche Hemmschwellen zum Teil wieder beseitigt.

Dass die Menschen das Klima lediglich lokal und regional beeinflussen können, und zwar vor allem durch die Umwandlung von Wald in Acker- oder Weideland und durch den Bau großer Städte, aber keinen nennenswerten Einfluss auf die globale Entwicklung ausüben, zeigt meines Erachtens die Entwicklung der bodennahen Durchschnittstemperatur in den vergangenen zehn Jahren: Obwohl der CO2-Ausstoß – vor allem infolge des Wirtschaftsbooms in Asien – kräftig anstieg, ist die Mitteltemperatur der Erde konstant geblieben, wenn nicht sogar gesunken.

Aber es wurde für den vorgeblichen Klimaschutz schon sehr viel Geld ausgegeben, das natürlich an anderer Stelle fehlt. Es gäbe auf der Welt, wie der dänische Statistikprofessor Björn Lomborg zu wiederholen nicht müde wird, sicher viel dringendere Probleme wie zum Beispiel die Versorgung der Armen mit sauberem Trinkwasser und sanitären Einrichtungen. Diese wäre für einen Bruchteil der Summen zu haben, die der „Klimaschutz“ heute schon kostet. Ich sehe hier nicht nur ein wirtschaftliches, sondern auch ein moralisches Problem und wundere mich, wie leicht es den angeblichen Klimaschützern gelingen konnte, in unseren Massenmedien die moralische Oberhoheit zu erlangen.

factum: An den Empfehlungen des Weltklimarates (IPCC) orientieren sich

Regierungen in der ganzen Welt. Es gibt weltweit wohl kein zweites

beratendes Gremium, dessen Aussagen so weitreichende poltische Folgen

hat. Wie beurteilen Sie den Einfluss dieses Gremiums?

Gärtner: Das Gremium besteht nur zu einem kleinen Teil aus Forschern, sondern überwiegend aus Funktionären, die von ihren jeweiligen Regierungen entsandt werden und ist insofern Ausdruck der Tatsache, dass die Politik selbst in die Hände von Bürokraten gelangt ist, dass es wirkliche Politiker vom Schlage eines Winston Churchill heute gar nicht mehr gibt. Es ist immer problematisch, wenn sich die Politik auf Wissenschaft beruft. Wohin das führt, kann man am Beispiel der Eugenik studieren. Diese wurde ja nicht nur von den Nazis, sondern von Linksparteien in allen Teilen der Welt vertreten und praktisch umgesetzt. Grundlage der großen Politik sollten der gesunde Menschenverstand und eine klare Feindbildbestimmung sein. Ich habe den Eindruck, das Feindbild der Bürokraten, die sich heute Politiker nennen, ist das Leben selbst.

factum: Wie konnte es dazu kommen, dass sich die Politik nicht mehr vom „gesunden Menschenverstand“ leiten lässt?

Gärtner: Die jüdische Philosophin Hannah Arendt hat in ihrer 1000 Seiten starken Untersuchung über Elemente und Ursprünge totaler Herrschaft nachgezeichnet, dass die Politik der großen europäischen Mächte in dem Maße den Bezug zum gesunden Menschenverstand der kleinen Leute verloren hat, wie sie imperialistisch wurde. Die ausgebeuteten und geknechteten Menschen in den Kolonien hatten, im Unterschied zum Proletariat in den „Mutterländern“, keine Möglichkeit, sich über Wahlen oder außerparlamentarische Protestaktionen Gehör in den Parlamenten zu verschaffen. Infolgedessen koppelte sich die politische Klasse in den Metropolen immer mehr vom Denken und Fühlen normaler Menschen ab.

factum: Untersuchungen zeigen, dass viele Menschen bereit sind, aus

Gründen des Klimaschutzes persönliche Opfer auf sich zu nehmen. Wie

beurteilen sie das?

Gärtner: Gute Marktstudien zeigen vor allem, dass es mit der Opferbereitschaft der kleinen Leute bislang, Gott sei Dank, nicht weit her ist. Eine Mehrheit findet Öko-Steuern und Klimaschutz-Zuschläge zwar sympathisch, aber kaum jemand möchte sie gerne bezahlen. Ich möchte da auf eine Studie verweisen, die im letzten Herbst im Auftrag der ARAG-Rechtschutzversicherung durchgeführt wurde.

factum: Sie sind in einem christlichen Elternhaus aufgewachsen. Wie

beurteilen Sie vor diesem Hintergrund die Produktion von Treibstoff aus

Getreide?

Gärtner: Ich habe in der Tat gelernt, das tägliche Brot nicht als selbstverständliche „Commodity“ zu betrachten, sondern darum zu beten, dafür zu danken und es nicht zu verschwenden. Getreide nur anzubauen, um es zu verfeuern, halte ich für einen Frevel. Ich weiß nicht, was in den Köpfen derer vor sicht geht, sie so etwas anordnen. Bei uns in Deutschland ist es leider gelungen, die katholische Bischofskonferenz wie den Rat der Evangelischen Kirchen EKD und mit ihnen viele Gläubige für solcher Art „Klimaschutz“ zu mobilisieren. Als Begründung musste die biblische Forderung, die Schöpfung zu bewahren, herhalten. Aber gehören das CO2, ohne das kein pflanzliches Leben auf der Erde möglich ist, und die Menschen, die es umso mehr emittieren, je intensiver sie leben, etwa nicht zur Schöpfung?

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Interview von Regina Károlyi (Media-Mania.de)

Media-Mania.de: Gleich zu Beginn eine Frage zum Titel Ihres Buchs: Sind Menschen, die sich für Umwelt- und Klimaschutz einsetzen, in Ihren Augen Nihilisten? Diese Menschen haben doch ein konkretes Ziel vor Augen.

Edgar L. Gärtner: Der Begriff „Nihilismus“ war früher bekannter. Heute gibt es viele Leute, die sich darunter nichts vorstellen können. Ich werde stets danach gefragt. Wenn ich irgendwo auftrete, fange ich immer damit an, zu erklären, was Nihilismus überhaupt ist.

Bei Wikipedia findet man eine Definition des Nihilismus, die nahelegt, Nihilisten würden an gar nichts glauben. Das ist natürlich nicht der Fall. Die Nihilisten glauben durchaus an etwas, und zwar an etwas Gutes, an das absolut Gute. Dabei vergessen sie aber, abzuwägen. Im normalen Leben, das weiß jeder, muss man täglich „Nebenwirkungen“ in Kauf nehmen. Wenn man morgens aus dem Haus und zur Arbeit geht, muss man bereits abwägen, denn man könnte ja unterwegs umkommen. Das ganze Leben ist eine Abwägung. Diese Sichtweise ist den Nihilisten relativ fremd, sie sehen nicht, dass alles einen Preis hat. Im Extremfall geht das so weit, dass Klimaschützer den größten Teil der Menschheit opfern würden, um die globale Durchschnittstemperatur konstant zu halten. Es gibt Aktivisten, die sagen, wir müssen auf null CO2-Ausstoß kommen. Aber solange es Menschen gibt, werden diese immer CO2 produzieren. Wenn man null Emissionen haben will, muss man also auf Milliarden von Menschen verzichten. Zitate belegen, dass manche Leute bereit sind, so weit zu gehen. Das ist zwar nicht die Mehrheit, aber diese Einstellung existiert.

Media-Mania.de: Wie kamen Sie als ausgebildeter Ökologe dazu, sich dem Öko-„Mainstream“ zu widersetzen?

Edgar L. Gärtner: Man macht einen Lernprozess durch. Ich bin zur Ökologie gekommen, als diese noch etwas Ungewöhnliches war. In der ersten Phase meines Studiums habe ich sehr viel Biochemie gemacht, das war damals „in“. Die Biochemiker haben die Struktur der Enzyme enträtselt. Heute erledigen das Computer. Aber damals musste man es mühsam Schritt für Schritt herausbekommen. Und dann gewann an unseren Universitäten ganz langsam die Ökologie an Bedeutung.

Als ich studierte, wurde an der Frankfurter Universität die erste Professur für Ökologie eingerichtet. Jemand, der sich für Ökologie interessierte, war also damals, zu Beginn der 70er, alles andere als „Mainstream“. Man war Pionier, man musste sich durchsetzen und hatte dabei nicht das Gefühl, dass man daraus eine Religion machte. Man ging ziemlich pragmatisch ‚ran. Ich war ja damals in Frankfurt, und zu dieser Zeit war der Main tot – na gut, nicht tot, tot ist ein Gewässer nie. Ich habe den Main selbst analysiert, es gab darin jede Menge Pilze und Bakterien, aber kein höheres Leben. Niemand wäre damals auf die Idee gekommen, da hineinzuspringen, das war eine ganz eklige Brühe.

Damals haben wir uns engagiert, wir hatten auch Bürgerinitiativen, wir kämpften für Kläranlagen. Ich weiß noch, nach einigem Hin und Her hat dann Hoechst angefangen, Kläranlagen zu bauen. Die existierten noch gar nicht, als ich mit dem Studium anfing. Insofern war das schon eine andere Situation als heute. Ab den 70ern wurden nach und nach Investitionen getätigt, und irgendwann gab es im Main wieder Fische. Seit etwa fünfzehn oder zwanzig Jahren gibt es am Main sogar wieder Berufsfischer, was viele Leute gar nicht wissen. Der Main ist also wiederhergestellt und möglicherweise sogar in besserem Zustand, als er vorher war.

Die Menschen haben aber immer noch den Eindruck, dass die Umwelt extrem gefährdet sei, und schimpfen auf die Industrie. Sie sehen darin nicht Hersteller von Produkten, die unser Leben angenehmer machen; sie sehen in der Industrie etwas Böses, das die Umwelt kaputt macht. Und dieser Eindruck hat überhaupt nichts mehr mit der Realität zu tun. Die Realität ist, dass der Main heute wieder weitgehend sauber ist. Eigenartigerweise nimmt das kaum jemand wahr.

Media-Mania.de: Sie kritisieren sowohl die Nachhaltigkeitspolitik als auch das Vorsorgeprinzip. Müssen wir denn nicht, auch im Sinne unserer Kinder, nachhaltig mit den natürlichen Ressourcen umgehen? Und, was die Vorsorge angeht: sicherlich haben Sie auch eine Haftpflicht-, Berufsunfähigkeits- oder ähnliche Versicherung? Wenn der Einzelne sich schon gegen Unwägbarkeiten absichert, sollten das dann nicht erst recht Regierungen tun, die für sehr viele Menschen verantwortlich sind?

Edgar L. Gärtner: Das Versicherungsprinzip und der Gedanke der Vorsorge sind ja etwas Wichtiges. Ich treibe persönlich selbstverständlich auch Vorsorge, als Freiberufler Altersvorsorge, natürlich auch eine Lebensversicherung, Unfallversicherung, Berufsunfähigkeitsversicherung, Haftpflicht und Berufshaftpflicht.

Das kostet einen natürlich Geld. Nun sind wir schon beim Thema Geld: Es gibt durchaus einen Punkt, wo die Prämien so teuer werden, dass einem nichts mehr zum Leben bleibt. Und das ist das Problem beim Vorsorgeprinzip, das man von der Vorsorge abgrenzen sollte. Das Vorsorgeprinzip wurde 1992 auf der Rio-Konferenz definiert. Diese Definition ist unscharf und interpretationsbedürftig. Der Begriff „Kosten“ taucht zwar darin auf, es wird aber nicht explizit gesagt, dass man das Prinzip der Verhältnismäßigkeit respektieren muss. Das heißt, die Kosten müssen in einem vernünftigen Verhältnis zum Nutzen stehen. Ich habe eine ganze Zitatesammlung, die zeigt, dass manche nur noch an Vorsorge gedacht haben und nicht mehr an die Kosten. So zum Beispiel der damals in der EU federführende österreichische Umweltminister Josef Pröll, der das Vorsorgeprinzip im Jahre 2006 wie folgt auslegte: „Wenn Du Dir nicht sicher bist, welche Auswirkungen etwas hat, lasse die Finger davon.“ Hätten sich die Menschen immer danach gerichtet, hätten sie weder das Feuer gezähmt noch das Rad erfunden!

Sobald die Kosten den Nutzen überschreiten, wird es völlig irrational. Niemand würde eine Versicherung bezahlen, die ihn so viel kostet, dass ihm nichts mehr zum Leben bleibt.

In Amerika ist es schon so weit, dass sich viele Leute bewusst gegen eine Versicherung entscheiden. Die Deutschen sind ja nach Auskunft der Versicherungsfachleute meistens eher überversichert. Das ist unsere Mentalität. Es gibt andere Länder, wo man das etwas anders sieht. Man wägt immer ab: Erst kommt das Leben, dann die Vorsorge, und kein vernünftiger Mensch würde am Leben sparen um der Vorsorge willen.

Die aktuelle Wellnessbewegung ist in dieser Hinsicht auch interessant. Da machen viele Menschen ständig Diät, Gymnastik und so weiter, um ihre Gesundheit zu erhalten, aber leben überhaupt nicht mehr richtig, freuen sich nicht mehr, trinken nicht mal mehr einen und heben sich ihre Gesundheit sozusagen fürs Alter auf. Neulich hat ein bekannter Psychiater gesagt: „Auch wer gesund stirbt, ist definitiv tot.“ Das ist das Problem.

Media-Mania.de: Umwelt- und Klimaschützer möchten Einfluss auf die Politik nehmen. Die „Klimaskeptiker“, auch Sie, werfen diesen um das Wohl des Planeten besorgten, engagierten Menschen vor, eine Art neuer Religion gegründet zu haben. Wie ist das zu verstehen?

Edgar L. Gärtner: Ich habe ja selbst diese Entwicklung mitgemacht; ich habe einige Jahre für den WWF gearbeitet, der sich für den Artenschutz engagiert hat. Dann kam diese, nennen wir’s mal Mode, mit dem Klimaschutz. Nach harten verbandsinternen Diskussionen hat der Verband dann umgeschaltet, und es haben sich die Leute durchgesetzt, die sagten: „Wenn wir keinen Klimaschutz machen, wird uns Greenpeace beim Spendenaufkommen endgültig abhängen.“ Opportunismus also.

Es gab eine Zeit zu Anfang der 70er-Jahre, ich habe das ja von Anfang an mitverfolgt, da war das Klima eine ganz vage Geschichte. Damals waren die meisten davon überzeugt, dass wir uns auf die nächste Eiszeit vorbereiten sollten. Dann, in der zweiten Hälfte der 70er, hat sich Schritt für Schritt die Überzeugung durchgesetzt, dass die Erwärmung die größere Gefahr sei. Aber damals wurde immer noch diskutiert, da hat man auch mal Daten verglichen – so viele gab es noch nicht, die Satellitenbeobachtung begann ja erst in den späten 60ern. Es war also alles noch offen. Irgendwann gab es einen eindeutig feststellbaren Umschlag, wo Fakten eigentlich nicht mehr zählten.

Die Datenlage ist, objektiv betrachtet, so unsicher, dass man eigentlich nichts ausschließen kann. Es kann in den nächsten zwanzig Jahren kühler werden, es kann aber auch weiter wärmer werden, kein Mensch weiß das so genau. Irgendwann hat sich diese Diskussion verselbstständigt: Auf einmal hat die Politik offiziell nur noch auf Erwärmung gesetzt, und hier nun wird es religiös, wird es zur Staatsreligion. Man nimmt also Einwände nicht mehr zur Kenntnis, etwa die Tatsache, dass es seit fast zehn Jahren nicht mehr wärmer wird. Das ist eindeutig, das haben Satelliten gemessen, auch die Bodenmessungen haben das festgestellt.

Media-Mania.de: Wobei Stefan Rahmstorf [vom Potsdam-Institut für Klimafolgenforschung, Anm. Media-Mania.de] ja sagt, die Satellitenmessungen seien unzuverlässig …

Edgar L. Gärtner: Das stimmt nun gerade nicht, unzuverlässig sind die Bodenstationen. Das ist mittlerweile bekannt, weil sie oft in Gegenden stehen, wo in der Nachkriegszeit Veränderungen vorgenommen wurden. So gibt es Stationen, die einmal auf dem freien Feld standen, und mittlerweile befinden sie sich in dicht bebauten Gebieten. Die Temperatur auf einem Parkplatz mit Asphalt kann nicht die gleiche sein wie über einem freien Feld. Die Bedingungen für die Bodenstationen haben sich also über die Jahre geändert. Man kann die Daten, die dort gemessen wurden, gar nicht mehr vergleichen.

Die Satelliten sind Hightech. Sie haben sensible, sehr präzise Messinstrumente, die nur richtig geeicht werden müssen, das ist richtig. Dahingehend muss man investieren. Diesbezüglich hat man auch Korrekturen vorgenommen. Beispielsweise hat man zunächst nicht zur Kenntnis genommen, dass die Satelliten nicht stationär auf derselben Umlaufbahn bleiben, während sie um die Erde kreisen, sondern die ärgerliche Tendenz haben, etwas abzusinken. Also hat man inzwischen die nötigen Korrekturfaktoren eingeführt. Trotzdem zeigen die Messungen in den letzten zehn Jahren keinen Anstieg.

Ich beobachte, dass es Leute gibt, die davon keine Notiz nehmen, weil sie offenbar ein fest gefügtes Weltbild haben. Das ist aber die Charakteristik von Ideologie im Vergleich zur Wissenschaft. Wissenschaft ist ja immer etwas Vorläufiges. Wir Menschen haben zwar Vernunft, ich sage aber immer: Das Licht der Vernunft ist eigentlich nur eine Funzel. Man darf die Vernunft nicht überschätzen, wir sind nicht wirklich in der Lage, mit unserem Gehirn die Welt zu durchschauen. Sie ist so kompliziert, dass wir immer nur einen kleinen Ausschnitt erkennen können.

Wenn Sie z. B. als Chemiker/-in etwas im Labor machen, dann bekommen Sie das ganz gut in den Griff, weil Sie ja alle Randbedingungen konstant halten können. Und wenn es keine Einflüsse gibt, die Sie übersehen haben, können Sie mit Ihrem Experiment wirklich eine Aussage machen. In der freien Natur ist das so nicht möglich, sie ist einfach zu komplex, und man muss sich immer bewusst machen, dass wir nur beschränkte Möglichkeiten haben, diese komplexe Welt wirklich zu erkennen.

Wichtig ist, was man messen kann, und sobald Menschen Computermodellen mehr glauben als Messungen, bin ich alarmiert, weil ich weiß, dass ein Computermodell, selbst wenn es mit größtmöglicher Sorgfalt gemacht ist, nur den jeweils aktuellen Erkenntnisstand abbilden kann: einen winzigen Ausschnitt aus der unendlichen Komplexität. Nicht nur die Luft-, sondern auch die Meerestemperatur ist übrigens in den letzten zehn Jahren nicht gestiegen, sondern eher leicht gesunken.

Media-Mania.de: Von meiner subjektiven Wahrnehmung her waren die Sommer ab 2003 allerdings extrem warm.

Edgar L. Gärtner: Es ist da schon was dran. Ich kann mich erinnern, dass es in den 60ern und 70ern Sommer gab, in denen man froh war, wenn man mal zwei Tage ins Schwimmbad konnte; manche Sommer waren absolut verregnet. Und ich habe bemerkt, dass es in den 90ern, gerade in der zweiten Hälfte der 90er, eine Reihe von sehr schönen Sommern gab. Ich mache mir darüber gar keine Sorgen, sondern freue mich darüber, wenn es wärmer ist, und ich wäre auch froh, wenn es so bliebe. Der letzte Sommer war allerdings daneben.

Media-Mania.de: Sie wohnen ja nicht auf einem Atoll …

Edgar L. Gärtner: Sie meinen den Meeresspiegelanstieg. Man beobachtet einen seit hundert Jahren ziemlich konstanten Meeresspiegelanstieg. Das ist auch bekannt, es gibt in den Häfen offizielle Pegel, die man per Anruf abfragen kann, und in letzter Zeit wird dort sogar eine Verlangsamung des Anstiegs beobachtet. Für den von Al Gore in seinem Film postulierten Anstieg des Meeres um sechs Meter gibt es heute keinerlei Anhaltspunkte.

Media-Mania.de: Durch den Ökologismus – die ins Pseudoreligiöse abgleitende Spielart der Wissenschaft Ökologie – und die daraus resultierende Politik sehen Sie die Freiheit in Gefahr. Bedeuten Einschränkungen beim Konsum, vielleicht auch bezüglich der Mobilität denn wirklich Freiheitsverlust? Müsste man, gerade wenn es um den Weg hin zu erneuerbaren Energien geht, nicht das Wohl der Menschheit in ihrer Gesamtheit über solch luxuriöse kleine Freiheiten stellen?

Edgar L. Gärtner: Ich würde erst einmal gar nicht von Freiheiten reden, sondern von der Freiheit, denn für mich gibt es Freiheit nur im Singular. Wenn man von „Freiheiten“ spricht, könnte man ja auch von „Gleichheiten“ reden. Da würde jeder sofort merken, dass das Unsinn ist. In der französischen Revolution ging es ja nicht umsonst um Freiheit und Gleichheit. Außer um Freiheit, Gleichheit und Brüderlichkeit ging es übrigens auch um Eigentum, was heute manche vergessen – und alles steht in der Einzahl.

Freiheit kann man nur negativ formulieren. Frei sein heißt, kein Sklave sein, nicht abhängig sein von den Launen eines anderen, der über einem steht. Gehorchen soll man nur dem Gesetz und auf dessen Grundlage selbst entscheiden können, was man tut.

Wir wissen, wie gesagt, nicht, wie das Wetter in zehn, zwanzig Jahren sein wird. Insofern finde ich es sehr wichtig, dass jeder selbst entscheiden kann, was er tun möchte. Wer heute ein Haus baut, muss eigentlich alle Möglichkeiten in Betracht ziehen. Wer solide baut, macht keinen Fehler. Da kommt die Kosten-Nutzen-Abwägung ins Spiel. Mancher baut „für die Kinder“, aber wer weiß, ob diese nicht einen ganz anderen Geschmack haben? Schon da fängt es an, da muss man abwägen: Soll man ein Haus für die Ewigkeit bauen oder so, wie man es sich leisten kann, dass es eben über die eigene Lebensspanne hält – und mit wieder verwendbaren Materialien? Das wäre ein durchaus interessanter Aspekt.

Ich sehe das so, dass man nach dem gesunden Menschenverstand selbst entscheiden sollte. Derzeit schreibt man den Leuten bestimmte Maßnahmen vor, beim Hausbau zum Beispiel diese Isolierungen, deren Wirkung zum Teil gar nicht wissenschaftlich erforscht ist, wie mir Ingenieure und Bauwissenschaftler aus dem Bekanntenkreis bestätigt haben. Diese sagen, vieles, was in den Normen steht, sei schlicht und einfach Unsinn.

Zum Beispiel ist der K-Wert für den Wärmedurchgang durch eine Wand ein rein theoretischer Wert. Entscheidend ist die Höhe des effektiven Energieverbrauchs in einem Gebäude. Da erlebt man Überraschungen. Ich kenne einen Architekten in der Schweiz, der herausgefunden hat, dass in mehrstöckigen Gebäuden aus der Vorkriegszeit am wenigsten Energie verbraucht wird. Sehr schlecht sind Betonbauten aus der Nachkriegszeit, sehr gut hingegen Backsteinbauten. Der Staat schreibt den Leuten nun vor, sie müssen einige Dezimeter Schaumstoff auf die Außenwand auftragen; das nützt gar nichts.

Sinnvoll sind Fenster mit Doppel- oder Dreifachverglasung. Mit der Isolierung der Außenwand wäre ich sehr vorsichtig. Man weiß, dass eine nach Süden ausgerichtete Backsteinmauer, gerade wenn sie unverputzt ist, im Winter sehr viel Sonnenwärme von außen aufnehmen und nach innen abgeben kann und auch eine sehr gute Feuchtigkeitsregulierung bewirkt. Jetzt kommt der Staat, schreibt den Leuten einige Dezimeter Kunststoff außen vor, sie machen alles dicht – und 50% der Besitzer von Häusern mit Wärmedämmung haben Probleme mit Schimmelbildung. Es gibt zwar auch 50 %, die keine Probleme haben, aber es ist doch ein großes Risiko.

Media-Mania.de: Die Erdöl- und Gaspreise steigen massiv, abgesehen davon, dass die Ressourcen angesichts des zunehmenden Verbrauchs über kurz oder lang, wenn auch deutlich später als vom „Club of Rome“ vorausgesagt, erschöpft sein werden. Sollte eine Rückbesinnung auf die Kernenergie stattfinden, so wird sich auch das Uran irgendwann verknappen und maßlos verteuern. Wenn wir also mittelfristig doch auf erneuerbare Energien angewiesen sind, warum sollten wir nicht möglichst rasch reagieren und von den auf dem Markt umkämpften Rohstoffen unabhängig werden?

Edgar L. Gärtner: Von einer absoluten Verknappung von Erdöl und auch Kohle kann aktuell nicht die Rede sein. Es gibt jede Menge Erdöl, allerdings ist eine Zeit lang nicht viel in die Exploration neuer Vorkommen investiert worden. Das Kartell der Förderländer wird nie offen eine Angabe zur Höhe der Vorräte machen, denn das wirkt sich auf den Preis aus, der natürlich hoch bleiben soll. Ein bisschen passen sie freilich auf, denn sie wollen die Verbraucherländer nicht erdrosseln, wodurch ja der Verbrauch sinken würde. Also versucht man, nicht über die Schmerzgrenze hinauszugehen, aber der heutige Preis ist eindeutig manipuliert – und zwar in mehrfacher Hinsicht. Viele Menschen wissen gar nicht, dass sogar der größte Erdölkonzern, Exxon, kaum über eigene Quellen verfügt und daher sehr wenig Einfluss hat. Der Ölmarkt ist nun einmal kein freier Markt. Viel besser sind die Verhältnisse bei der Kohle, von der zurzeit kaum jemand behauptet, dass sie knapp wird. Niemand weiß genau, wie viel Erdöl es gibt. Manche Geologen sagen, es sei viel mehr da, als offiziell angegeben wird. Man muss auch erwähnen, dass Erdöl selbst eine erneuerbare Energie ist.

Media-Mania.de: Ich habe darüber in Ihrem Buch gelesen, aber das sollten Sie erläutern, denn ich habe davon vorher noch nie gehört.

Edgar L. Gärtner: Mit der Analytik befasste Chemiker müssen öfters bestimmen, ob Fette oder Öle aus Erdöl oder von Pflanzen oder Tieren stammen. Die üblichen Analysenmethoden gehen davon aus, dass Erdöl abiotisch, nicht biologisch, entstanden ist. Offiziell gilt es aber immer noch als biologischen Ursprungs, das stimmt aber höchstwahrscheinlich nicht. Es entsteht in der Erdkruste spontan unter bestimmten Bedingungen, die man in Versuchen nachstellen kann. Alle Zutaten zur Entstehung komplexer Kohlenwasserstoffe sind ja in der Erdkruste vorhanden, Kohlenstoff sowieso reichlich; es muss nur ein ausreichender Druck vorhanden sein, und es bildet sich spontan Erdöl. Das ist natürlich nicht immer erreichbar für uns, sondern oft viel zu tief, und häufig braucht es Erdkrustenbewegungen, um in unsere Reichweite zu gelangen. Ich würde aber davon ausgehen, dass Erdöl im Prinzip eine erneuerbare Ressource ist.

Media-Mania.de: Es kommt dann natürlich auf das Verhältnis Neubildung zu Verbrauch an, gerade, weil China und Indien nun dazukommen …

Edgar L. Gärtner: Da gibt es noch viel zu erforschen. Es gibt auch bekannte Vorkommen wie die Teersande, deren Erschließung einen großen Aufwand erfordert. Länder wie Kanada mit großen Vorkommen an Ölsanden freuen sich natürlich, wenn der Ölpreis über 100 Dollar bleibt, weil sich dann die Nutzbarmachung lohnt. Der Aufwand, ans Öl zu kommen, wird natürlich immer größer werden, aber das heißt nicht, dass kein Öl mehr da ist. Es wird dadurch selbstverständlich auch teurer, weil man immer tiefer bohren und auf Öle zurückgreifen muss, die nicht die optimale Zusammensetzung haben, zum Beispiel Ölsande oder schwere Öle, die ziemlich großen Raffinerie-Aufwand erfordern. Meiner Meinung nach gibt es aber keinen wirklichen Engpass, und man sollte in diesem Bereich die Probleme ein Stück weit auf sich zukommen lassen. Nun kommt wieder die Vorsorge ins Spiel und die Grenze, ab der sie irrational wird und die Kosten den Nutzen überwiegen. Man sorgt sich um ungelegte Eier und investiert in Technik, die man vielleicht überhaupt nicht braucht. Erdöl wird sicher nie ganz knapp werden, aber wohl irgendwann so teuer, dass man es sich nicht mehr leisten kann; bis dahin wird man sicher Alternativen haben. Vor Jahren sagte der damalige saudi-arabische Ölminister, Scheich Yamani, das Ölzeitalter werde nicht wegen einer echten Ölknappheit zu Ende gehen, ebenso, wie die Steinzeit nicht aufgrund einer Knappheit an Steinen endete.

Media-Mania.de: Im Folgenden nenne ich mehrere Einwände, die den „Klimaskeptikern“ häufig entgegengebracht werden. Bitte nehmen Sie dazu Stellung.

Erstens: Die „Klimaskeptiker“ werden von Lobbys aus der Erdöl-, Braunkohle- und Atomindustrie gesponsert und sind deshalb alles andere als unparteiisch.

Edgar L. Gärtner: Das ist sehr leicht zu beantworten. Heute hat man es bei der offiziellen Klimatheorie längst mit einer Art Staatsreligion zu tun, es gibt zurzeit weltweit keinen einzigen Konzern, der bereit wäre, auch nur einen Euro locker zu machen für die Position der Klimaskeptiker. Vor einem Monat war ich in New York auf einer großen Konferenz von „Skeptikern“, die von einem reichen Privatmann finanziert wurde, der zwar sicher sein Geld irgendwo in der Wirtschaft gemacht hat, aber es steckte keine Firma, kein Konzern dahinter. Es war eine Ausnahme, fast ein Zufall, dass sich jemand fand, der das finanziert hat. Keine Firma macht das heute mehr, nicht mal Exxon, die immer im Verdacht standen, so was zu machen. Aber das ist nun schon länger her.

Media-Mania.de: Und die Atomindustrie auch nicht?

Edgar L. Gärtner: Bei der Atomindustrie ist es etwas komplizierter. In der Vergangenheit hat sicher mancher von ihr profitiert. In der deutschen Atomindustrie gab es Leute, die fleißig mitgeholfen haben, die Klimahysterie zu schüren, weil sie dachten, auf diesem Umweg die Atomenergie praktisch wieder geschäftsfähig zu machen. Dieses Kalkül ist bislang nicht aufgegangen, aber da ist sicher einiges gelaufen.

Media-Mania.de: In letzter Zeit hat die Anzahl „klimaskeptischer“ Veröffentlichungen etwas zugenommen, sodass der Eindruck entstehen könnte, es fände tatsächlich eine Auseinandersetzung über das Thema „Klimaschutz und –wandel“ statt. In Wirklichkeit legen aber nur ein paar vereinzelte Personen ihre provokativen Thesen dar, denen Tausende renommierter Wissenschaftler gegenüberstehen.

Edgar L. Gärtner: Klar, auf dem deutschen Buchmarkt gibt es zurzeit mehr „skeptische“ Bücher, glaube ich, als „fromme“, möglicherweise sogar bezüglich der Verkaufszahlen, aber die aktuellen Zahlen kenne ich nicht. Die Diskussion ist nicht abgeschlossen. Gerade wird im Europaparlament eine Resolution diskutiert, in der gleich zu Anfang steht, dass die Klimafrage wissenschaftlich abgeschlossen sei. Also besteht kein weiterer Forschungsbedarf mehr, alles ist klar, das ist die offizielle Version. Die findet man natürlich nicht so häufig in Büchern, denn ein Wissenschaftsjournalist, der seine Aufgabe ernst nimmt, kann so etwas gar nicht schreiben: Eine Wissenschaft ist nie abgeschlossen. Wissenschaften und ihre Aussagen sind immer vorläufig, es kommt immer jemand, der etwas besser weiß, und selbst bewährte Theorien werden irgendwann relativiert, wie zum Beispiel Newton durch Einstein. Natürlich wirft man Newton nicht zum alten Eisen, weil Einstein gekommen ist, aber er wurde eben relativiert. Und so ist es immer in der Wissenschaft – jemanden, der behauptet, es bestünde kein Forschungsbedarf, den kann man nicht ernst nehmen.

Es gibt auch immer mehr Forschungsergebnisse, die nicht in das bisherige Bild passen. Um ein Beispiel zu nennen: Die Klimamodelle gehen ja davon aus, dass der Erwärmungseffekt nicht allein vom CO2 ausgeht – 0, 038 % Anteil in der Atmosphäre können das nicht bewirken -, sondern dass es ein positives Feedback gibt zwischen CO2 und Wasserdampf, denn es ist viel mehr Wasserdampf da, und er ist viel wichtiger für die Temperaturentwicklung in der Atmosphäre.

Nun gibt es Satellitenmessungen – keine Modelle, Messungen! -, die nach Ansicht von Roy Spencer von der University of Alabama zeigen, dass Wasserdampf hauptsächlich ein negatives Feedback erzeugt, das heißt, wenn die Luft wärmer wird, wird sie auch feuchter; das tritt vor allem in den Tropen auf. Dort kann man die Satelliten auch sehr einfach auf einer stationären Umlaufbahn halten. Wenn es wärmer wird, gibt es mehr Wasserdampf in der Atmosphäre, mehr Wolken und mehr Niederschläge. Es existiert ein enger Zusammenhang zwischen Temperatur und Niederschlägen, und man kann sagen, dass diese Gase mehr wie ein Thermostat als wie ein Treibhaus wirken, das sich immer mehr aufheizt. Ich nenne sie gar nicht mehr Treibhausgase, sondern bezeichne das als messbaren „Thermostateffekt“.

Man kennt die Klimahistorie inzwischen ganz gut und weiß, dass Afrika immer von wärmeren Phasen der Klimageschichte profitiert hat. Nach der letzten Eiszeit gab es ja eine Warmzeit, ein so genanntes Klimaoptimum, da war die Sahara extrem zusammengeschrumpft und regelrecht grün geworden. Die Ausdehnung des Tschadsees ist aufgrund von Ablagerungen bekannt – dazu braucht man keine Computer, das kann man mit bloßem Auge sehen. Der Tschadsee hatte seine größte Ausdehnung, wenn es auf der Erde wärmer war, und ist geschrumpft, wenn es kühler wurde. Insofern ist die Erwärmung für Afrika eine gute Nachricht, und wenn sich die Erde in den kommenden Jahrzehnten wieder abkühlen sollte, wie manche befürchten, würde sich das auf ganz Afrika negativ auswirken. Eine Erwärmung wäre also durchaus wünschenswert, und man müsste und sollte keine Milliarden investieren, um sie zu bekämpfen. Heute [04.04.08, Anm. Media-Mania.de] konnte man in der FAZ nachlesen, dass in der Zeitschrift „Nature“ führende Leute des IPCC wie Tom Wigley und Roger Pielke jr. darauf hingewiesen haben, dass alles, was man jetzt für den Klimaschutz tut, nichts nützen wird. Die ziehen allerdings daraus den Schluss, Nullemission zu fordern. Ich hingegen würde daraus schließen: Wenn das, was man jetzt tun will, nichts nützt, verzichtet man darauf und lässt den Dingen ihren Lauf. Wir würden ja auch gerne Erdbeben verhindern, können es aber einfach nicht.

Media-Mania.de: Die „Klimaskeptiker“ werfen den Mitgliedern des IPCC oft eine unwissenschaftliche Vorgehensweise vor. Doch bei diesen handelt es sich um qualifizierte Wissenschaftler. Sonst wären sie sicher auch gar nicht in dieses Gremium gelangt.

Edgar L. Gärtner: Das IPCC ist ein Gremium aus zweieinhalbtausend Leuten, und von diesen zweieinhalbtausend sind, glaube ich, nur etwas über hundert wirklich aktive Forscher. Die meisten Mitglieder würde ich als Klimafunktionäre bezeichnen; sie werden von ihren jeweiligen Regierungen entsandt. Die meisten der knapp zweihundert UNO-Mitgliedsstaaten haben Funktionäre in dieses Gremium entsandt, aber viele dieser Staaten, darunter kleine Inselstaaten, betreiben keine eigene Klimaforschung, die haben kein einziges Institut.

Die aktiven Forscher sind also in der Minderheit, und auch sie werden entsandt und kommen nicht über ein Qualifizierungsverfahren in das Gremium. Zudem weiß man, dass einige sehr gute Forscher nicht im IPCC sind, und es gibt auch einige, die das Gremium auf eigenen Wunsch in den letzten Jahren wieder verlassen haben, weil das Verfahren ihnen zu undurchsichtig erschien, und sie falsch zitiert wurden.

Man muss auch erwähnen, dass die IPCC-Reports von zwei Handvoll Leuten geschrieben werden. Wie gesagt, es handelt sich um Klimafunktionäre oder Klimadiplomaten, aus Deutschland etwa werden Leute aus den zuständigen Ministerien entsandt. Obwohl sie ein Studium und eine Qualifikation vorweisen können, sind sie keine Forscher, sondern Diplomaten. Und die diskutieren dann das Summary for Policy Makers, den einzigen Teil der Reports, der eventuell noch gelesen wird. Da wird jedes Wort von dem ganzen Gremium diskutiert, man einigt sich auf den kleinsten gemeinsamen Nenner und kommt dann oft zu nichts sagenden Aussagen, weil eben im Endeffekt alle zustimmen müssen. Ich will damit nichts gegen die UNO sagen, das ist ein anderes Problem.

Auch Leute wie Tom Wigley, die wirklich unmittelbar involviert sind, haben offen gesagt: „Wir waren nicht ehrlich.“ So wie jetzt in „Nature“, wo er meint, die Aussagen über die Gegenmaßnahmen seien nicht gedeckt vom Forschungsstand, und die Gegenmaßnahmen nützten nichts. Wenn das stimmt, wenn die Modelle, auf die sich das IPCC stützt und die ja übrigens eine große Spannbreite haben (interessanterweise sagt keines dieser Modelle eine Abkühlung voraus, was ja statistisch zu erwarten wäre), dann ist die neueste Erkenntnis die, dass die Erwärmung unvermeidlich ist, und dann hat es auch keinen Sinn, Milliarden für ihre Bekämpfung auszugeben.

Ich persönlich halte mich meistens den ganzen Sommer über am Mittelmeer auf und könnte mit einer mäßigen Erwärmung gut leben; es gibt auch Studien, die besagen, dass eine solche Erwärmung den Menschen zuträglich wäre: Man hätte weniger Erkältungskrankheiten – es gibt einen eindeutigen Zusammenhang zwischen kalten Wintern und Erkältungshäufigkeit, in kalten Wintern sterben auch viel mehr Leute. Nicht zufällig ist die Lebenserwartung in Südfrankreich um einige Jahre höher als in Nordfrankreich. Der Wirtschaft ginge es insgesamt besser, der Landwirtschaft sowieso. Das wäre günstig für die Ernährungssituation, denn man könnte die Landwirtschaft bis ins nördlichere Sibirien ausdehnen. Wie schon erwähnt, wäre für Afrika die Erwärmung ein Segen, weil es dort in wärmeren Zeiten mehr regnet. Daraus ergäbe sich also wohl kein Problem.

Es gibt eine enge Korrelation zwischen Temperatur und Sonnenaktivität. Ich bin zwar kein Spezialist dafür, aber die Korrelation ist eindeutig …

Media-Mania.de: So viel ich weiß, stimmt sie für die letzten Jahre aber nicht mehr.

Edgar L. Gärtner: Doch, in der Diskussion waren einige Leute wie Prof. Rahmstorf vom Potsdam Institut für Klimafolgenforschung (PIK) etwas voreilig, denn der Sonnenzyklus hat sich zwar schon eine Weile abgeschwächt, richtig, das läuft auseinander, aber man muss annehmen, dass es da eine Zeitverzögerung gibt. Das ist auch einsichtig, denn die Erde absorbiert den größten Teil der Sonnenenergie über die Meere, also über warmes Wasser. Der Löwenanteil der Sonnenstrahlen besteht ja aus Infrarotstrahlen, es sind also schon Wärmestrahlen, die ankommen. Und diese heizen die riesigen Ozeane auf. Wasser hat eine große thermische Trägheit, von der wir auch profitieren. Sonst würde es im Winter ja viel kälter. Manche Leute rechnen daher mit einer Verzögerung von zehn Jahren. Und dann wäre das stimmig, denn, wie schon erwähnt, haben sich die Ozeane in den letzten Jahren nicht mehr erwärmt.

Media-Mania.de: Ich komme kurz auf die Forscher zurück. Sie sagen, es gebe im IPCC sehr wenige Forscher – muss man denn dort nicht vor allem Leute haben, die weniger an vorderster Front forschen, sondern eher Forschungsergebnisse kompetent zusammenführen und interpretieren?

Edgar L. Gärtner: Als Wissenschaftsjournalist habe ich mich natürlich mit der Aggregierung von Wissen befasst, denn die meisten Forscher sind ja, wie man abwertend sagt, Fachidioten, weil man Hochleistungsforschung natürlich nur auf einem sehr engen Gebiet machen kann. Ein Generalist kann keine wirkliche Forschung betreiben. Wer an vorderster Front forscht, ist also stark spezialisiert und hat nicht mehr die Übersicht. Man muss irgendwelche Mechanismen finden, die diese Aggregierung leisten, das ist richtig, und das gilt auch nicht nur für die Wissenschaft. Es gibt ein Buch von James Surowiecki, „Die Weisheit der Vielen“, und das bezieht sich zum Beispiel auch auf die Wirtschaft. Der Autor leitet darin viele sauber aufgelistete Erkenntnisse ab, und er sagt sinngemäß: „Wenn man erreichen will, dass ein Kollektiv schlauer ist als ein Einzelner, muss gewährleistet sein, dass die Einzelnen, die ihre Meinungen kundtun, voneinander unabhängig sind.“ Das ist ja auch der Grund, weshalb man in Wahlkabinen und nicht öffentlich wählen lässt.

Eine andere Bedingung ist, dass es in der Aggregierung eine Art Marktmechanismus gibt, eine Art Wissensmarkt, ein Wechselspiel von Angebot und Nachfrage mit einer gewissen Auslese. Wenn man das IPCC sieht, beobachtet man, dass diese Voraussetzungen nicht gegeben sind, denn die Mitglieder des IPCC sind nicht voneinander unabhängig. Deren Karriere hängt extrem davon ab, was andere über sie denken, weshalb sie sich oft gar nicht leisten können, ihre Gedanken offen auszusprechen. Was eben auch dazu führt, dass eine Reihe von bekannten „Skeptikern“ alte Leute sind, denn die konnten ihren Mund erst aufmachen, als sie pensioniert wurden. Ein aktuelles Beispiel ist ein führender französischer Physiker, der vor kurzem pensioniert wurde und nun unter dem Pseudonym Jean Martin den Blog „Pensée unique“ betreibt. Er möchte seine Identität nicht preisgeben, um die Mitarbeiter des Instituts, das er geleitet hat, nicht in Schwierigkeiten zu bringen.

Die Gegenseite sagt: „Das sind alte Knacker, die haben nicht mehr die Kurve gekriegt, sind verkalkt“ und so weiter. Ich sehe das eher positiv, weil diese Menschen unabhängig sind, keine Karriereperspektiven mehr haben und deshalb sagen können, was sie wirklich denken und aufgrund ihrer reichen Erfahrungen einiges besser einschätzen können als junge Leute, die neu in der Materie sind.

Man muss ja auch erwähnen, dass Klimaforscher nicht unbedingt Spezialisten sind, viele von ihnen kennen sich besser mit Computern aus als mit dem realen Wetter. In meinem Studium habe ich selbst Bioklimatologie betrieben: Wir haben anhand von Zeigerpflanzen Klimazonen festgelegt; anhand des Jahresgangs der Temperatur und der Niederschläge kann man eigentlich alles einteilen, und dann nimmt man Pflanzen, vorzugsweise Bäume, und kann damit Klimazonen auf den Kilometer, teils Meter, festlegen. Da habe ich also aktiv mitgearbeitet. Viele von den Leuten, die Modelle bauen, kennen das gar nicht. Die haben Mathematik oder Physik studiert und waren wahrscheinlich auch ganz gute Studenten, wissen aber zu wenig über das Klima.

Media-Mania.de: Es müssten also zum Beispiel mehr Meteorologen im IPCC sein.

Edgar L. Gärtner: Ja, es sind erstaunlich wenige Meteorologen dabei. Als Beispiel: Stefan Rahmstorf ist theoretischer Physiker und hatte ein Thema, das in Richtung Einstein ging. Damit hat er sich wohl nur geringe Karrierechancen ausgerechnet und sich noch im Rahmen seines Studiums umorientiert. Aber er hat nicht Meteorologie oder Klimatologie studiert.

Media-Mania.de: Haben Sie ein weiteres Buch in Planung oder in Arbeit, und wenn ja, worum wird es darin gehen?

Edgar L. Gärtner: Ich beschäftige mich sehr stark mit dem Problem des gesunden Menschenverstandes, was schon mit der Frage beginnt, ob es so etwas überhaupt gibt, denn manche streiten das ab. Ich habe im Moment nicht vor, darüber ein Buch zu schreiben, aber später vielleicht schon. Das ist auch ein sehr politisches Thema. Natürlich wird es auch ein paar Aspekte aus der Hirnforschung geben, weil sich da zurzeit viel tut, aber das wäre nicht die Hauptsache. Ich bin da sehr stark beeinflusst von der Philosophin Hannah Arendt. Es gibt nicht viele Philosophen, die über den gesunden Menschenverstand geschrieben haben. Dieses Projekt ist jedoch noch nicht so konkret.

Ich möchte aber gerne vorher ein Büchlein schreiben zum Thema „Achtung! Das funktioniert!“, ausgehend von der Beobachtung, dass heute etwas, das funktioniert, schon fast verdächtig wirkt. Die Leute sehnen sich ständig nach Dingen, die nicht funktionieren können. Ich möchte eine Art Lexikon machen – alphabetisch, nicht so verschachtelt, etwas leichter. Über mein Buch [„Öko-Nihilismus“, Anm. Media-Mania.de] haben viele Leute gesagt, es sei gut, aber nicht so leicht zu lesen, man brauche viel Zeit. Es ist in der Tat etwas dicht geschrieben, aber der Umfang war vom Verlag vorgegeben. Und da möchte ich nun etwas leichtere Kost bieten, ein Lexikon also, sozusagen Kraut und Rüben, Technik, aber auch Politik und Aspekte aus dem normalen Leben bis hin zur Religion, denn dort gibt es ja auch Dinge, die funktionieren.

Media-Mania.de: Ich bedanke mich für das Interview und wünsche Ihnen weiterhin viel Erfolg bei Ihrer Arbeit.

Edgar L. Gärtner: Danke.

(Dieses Interview wurde von Regina Károlyi am 04.04.2008 2008 in Frankfurt/Main geführt.)

=============================================================================================

Besprechungen

Media-Mania, 15. Februar 2008

Wenn ein ausgebildeter und versierter Ökologe die gängige Politik im Namen der Ökologie scharf angreift, so mag das auf den ersten Blick verwundern. Traut man sich, ein Buch zu lesen, das sich massiv gegen den “Mainstream“ der Publikationen zum Thema Klima- und Umweltschutz wendet, dann wundert man sich anschließend eher darüber, dass sich nicht mehr Fachkundige wie Edgar L. Gärtner kritisch bezüglich der aktuellen Politik und Stimmungsmache äußern.

Denn, so vermag der Autor schlüssig und unkompliziert nachzuweisen, die Klimadebatte und die damit verbundenen Restriktionen für den Einzelnen beruhen größtenteils nicht auf Daten, die mittels naturwissenschaftlicher, eindeutiger Methoden gewonnen wurden, sondern auf Computersimulationen, die auch heute noch extrem fehlerbehaftet sind und sich an Größen orientieren, die nach dem aktuellen Wissensstand so nicht stimmen und im Grunde jedes gewünschte Ergebnis liefern können.

Schritt für Schritt analysiert Edgar L. Gärtner die Umweltschutzpolitik der letzten Jahrzehnte. Er zeigt, dass Nachhaltigkeit, von der Idee her durchaus klug, in der von Politikern propagierten Form nur zu Verarmung eines Großteils der Bevölkerung und zu einem wirtschaftlichen Rückschritt führen kann. Vor allem geht es ihm darum, deutlich zu machen, dass die von oben verordnete und logisch nicht nachvollziehbare Klimaschutzpolitik auf einen massiven Verlust des Einzelnen an Freiheit, einem demokratischen Grundrecht, abzielt. Dazu gehören nicht einmal so sehr die Versuche, die Mobilität des Bürgers durch unmäßiges Verteuern und Verleiden des Autofahrens einzuschränken, sondern sondern durch regelrechte Planwirtschaft (beispielsweise Reduktion eines erheblichen Teils der Kohlendioxidemissionen in kürzester Zeit, obwohl mittlerweile vieles gegen das Kohlendioxid als wesentlicher Faktor im Klimageschehen spricht). Politiker versuchen, ein neues, die Bevölkerung in ihrer Angst einigendes Feindbild zu kreieren, das Kohlendioxid, nachdem der alte Feind “Kommunismus“ mit dem Ende des Kalten Kriegs abhanden gekommen ist.

Die Ökologie hat sich dem Autor und seinen Argumenten zufolge zum Ökologismus gewandelt, einer Religion oder einem Religionsersatz zur Erzeugung eines schlechten Gewissens und eines Heilsgedankens; diese Religion hält sich allerdings für die allein verbindliche und stellt somit unser Recht auf Religionsfreiheit infrage.

Gärtner spürt vielen Aspekten des Ökologismus seit seinen Anfängen nach, die etwa bei Rousseau anzusiedeln sind: dem Nachhaltigkeitsgedanken, dem “Vorsorgeprinzip“, das vor lauter Sorge um die Zukunft die Gegenwart brachliegen lässt, und dem eigenartigen Demokratieverständnis der Anhänger des Ökologismus.

Wer sich ausschließlich an den Massenmedien orientiert, ohne den gesunden Menschenverstand einzusetzen, wird diesem Buch wenig abgewinnen können, denn es fordert den berühmt-berüchtigten “Common Sense“ ein und dazu den Willen, sich auf naturwissenschaftliche Zusammenhänge einzulassen und anzuerkennen, dass es keineswegs die viel propagierte Übereinstimmung unter den so genannten Klimaforschern gibt, sondern vor allem eine Jagd nach ziemlich willkürlich verteilten Fördergeldern. Warum sonst würden Klimaforscher, lange Zeit dem “Mainstream“ angehörig, nach ihrer Pensionierung plötzlich gegen diesen angehen?

Der Autor als Naturwissenschaftler kritisiert nicht zu Unrecht, dass in den zum Klimaschutz berufenen Gremien hauptsächlich Computerspezialisten sitzen, nicht jedoch, wie anzunehmen, Naturwissenschaftler, vor allem auch Geologen und Astronomen. Angesichts dieser Tatsachen fällt es Gärtner leicht, Aussagen nicht nur des “Club of Rome“ in den 70er-Jahren des letzten Jahrhunderts, sondern auch aus populärwissenschaftlichen oder Fachartikeln zum Thema ad absurdum zu führen.

Gärtner untersucht die Ursachen des aktuellen Verlustes an Freiheit (Meinungsfreiheit eingeschlossen, denn wer sich kritisch-fundiert zur politisch motivierten Ökologie äußert, muss, wie auch die Rezensentin weiß, ein starkes Rückgrat haben), der von einem nicht geringen Teil der Bevölkerung schweigend mitgetragen wird, und damit einhergehende Phänomene auf ihre Relevanz für die künftige Wirtschaft.

Dass sich im Sinne der Unterbindung der Freiheit abseits der öffentlich zugänglichen Räume einiges tut, ist unbestritten, und der liberale Autor zeigt zudem auf, wie die zunehmende Freiheitsbeschneidung sich gerade auf die abhängig Beschäftigten auswirkt. Denn jeder einzelne Mitarbeiter sollte, meint Gärtner, seinen Grundrechten entsprechend, seine Zukunft und die seiner Kinder und Enkel weitestgehend selbst gestalten dürfen, was schon allein aufgrund der exorbitanten Einkommensbesteuerung zunehmend schlechter möglich ist.

Kaum ein Aspekt zum Thema, den Gärtner sich nicht vornimmt, und die Parteienlandschaft kommt durch die Bank schlecht weg. Ob sich der Leser nun über den wirklich notwendigen Umweltschutz oder den Sinn und Nutzen einer Gelben Tonne informiert, der Autor argumentiert immer logisch. Allerdings setzt er gelegentlich mehr angelesenes oder an der Hochschule erworbenes Sachwissen voraus, als der Leser unter Umständen mitbringt, und sein Stil wirkt streckenweise zu gedrängt. Er zeigt jedoch schonungslos auf, woran etliche Menschen heute auf Kosten der Mehrheit verdienen, und gibt allen anderen die Chance, dies zu unterbinden. Man muss nicht unbedingt in jedem Detail mit Gärtner übereinstimmen, sollte aber im Sinne einer differenzierten Meinungsbildung Bücher wie dieses gelesen haben.

Regina Károlyi, Media-Mania.de

==============================================================================================

Eine philosophische Abrechnung mit der Politischen Ökologie

von Dr. Gerhard Voss

Einen nicht ganz einfachen Lesestoff präsentiert der studierte Hydrobiologe und Umweltjournalist Edgar L. Gärtner mit seinem fast 300 Seiten umfassenden Buch über die Hintergründe der weltweiten umwelt- und klimapolitischen Entwicklungen. Als früherer Akteur der „grünen“ Bewegung gehört Gärtner heute zu den selteneren kritischen Geistern in der Umweltdiskussion. Sein Buch ist deshalb auch nicht nur eine distanzierte Würdigung aktueller umweltpolitischer Daten und Fakten, sondern mehr eine engagierte, mit vielen historischen Bezügen und philosophischen Argumenten gespickte Abrechnung mit der politischen Ökologie.

In einer Gesellschaft, die gerade auch in der Umwelt- und Klimapolitik auf political correctness Wert legt, wirkt schon der Titel des Buches provozierend. Um die Studie richtig einordnen zu können, muss man sich unvoreingenommen auf die Suche nach dem Wertegerüst begeben, von dem aus der Autor die politischen Entwicklungen beurteilt. So lässt er gleich zu Beginn in einer persönlichen Vorbemerkung den Leser wissen, dass er sich politisch bei den “Radikal-Liberalen“ oder “Libertären“ und „Konservativen mit mehr oder weniger engen religiösen Bindungen“ verortet. Unmissverständlicher könnte seine Positionsbestimmung auch lauten: Liberal mit religiösen Bindungen. Märkte sind für ihn nicht von sich aus frei, sondern bedürfen „der politischen Gestaltung einer universal-moralisch begründeten Rahmenordnung“ (S. 230). Dabei beruft Gärtner sich auch auf Friedrich August von Hayek, der wiederholt auf Bezüge zwischen Marktwirtschaft und christlicher Religion hingewiesen hat.

Wichtig für den Standpunkt des Autors ist aber auch seine Definition von Nihilismus, die im ersten Kapitel auf Seite 22 erfolgt. Nihilist sein bedeutet nicht, an nichts zu glauben, sondern nicht zu glauben an das, was ist. Der Realitätsverlust so mancher Politiker ist ein Symptom dieser Haltung. Am Schluss des Buches, im Abschnitt „Ein amerikanischer Traum von Europa“, wird Gärtners Weltsicht nochmals komprimiert beschrieben: Das Argumentationsmuster, mit dem Albert Camus seinerzeit totalitäre und nihilistische Entwicklungen im 20. Jahrhundert gegeißelt hat, bildet den anspruchsvollen politischen, philosophischen und letztlich auch religiösen Hintergrund des Buches. Öko-Nihilismus steht bei Gärtner für Verachtung der „unveränderlichen menschlichen Natur“, für „Ersatz individueller Freiheitsrechte durch Wertekataloge, die Gesinnungsterror rechtfertigen“ wollen. In diesen Kontext ist auch der „gesunde Menschenverstand“ einzuordnen, dem der Autor mit Verweis auf das Subsidiaritätsprinzip der katholischen Soziallehre sozusagen die Rolle eines generellen Problemlösers zuweist.

Vor dem Hintergrund des beschriebenen Wertegerüstes entwickelt der Autor seine harsche Kritik am Wohlfahrtsstaat und an der politischen Ökologie, wie sie sich in den letzten Jahrzehnten entwickelt haben. Aufgrund seiner intimen Kenntnisse über die Entwicklung der Umweltbewegung in Deutschland werden die verschiedensten polit-ökologischen Strömungen sowie umweltpolitische Aktionsprogramme und Maßnahmen unter die Lupe genommen. Kritik wird vor allem am Vorsorgeprinzip geübt. Wie in der Sozialpolitik des Wohlfahrtsstaates würden auch in der Umweltpolitik mit diesem Prinzip Maßnahmen, Programme, Gesetze und Verordnungen begründet, die dem Einzelnen die Luft zum Atmen rauben würden. Die Wurzeln dieser Entwicklung liegen nach Ansicht des Autors bei dem heute dominierenden „jakobinschen“ Primat der Politik, „bei dem das Recht auf Freiheit hinter das Recht auf Existenz durch staatliche Fürsorge zurücktritt“ (S. 173). Nicht zuletzt auch die Programme und Pläne für eine nachhaltige Entwicklung hätten nichts anderes zum Inhalt, als dass sie die Menschen zu ihrem Glück zwingen wollten. Nachhaltigkeit ist für Edgar Gärtner, so wie es auch die Enquete-Kommission des Bundestages „Schutz des Menschen und der Umwelt“ formuliert hat, kein planbarer, wissenschaftlich begründbarer Zustand, sondern eine „regulative Idee“ im Sinne Kants, „ein offenes erkenntnistheoretisches Konstrukt, das dem menschlichen Verstand bei Such- und Lernprozessen die Richtung weist“ (S.193).

Allerdings ist auch der Autor selbst nicht gefeit vor Polemik und überzogenen Positionen. Das ist beispielsweise bei den an vielen Stellen des Buches fast ideologisch anmutenden Ausführungen zu den klimapolitischen Zusammenhängen der Fall. Die Einordnung von Theorien über eine drohende Klimakatastrophe – so fragwürdig sie auch sein mögen – als „von selbsternannten Hohepriestern frei erfunden“ (S. 243), überschreitet nicht nur das Gebot der political correctness, sondern schneidet auch den Weg ab für eine bessere politische Bewertung von Erkenntnissen der Klimaforschung. Insgesamt fehlt die konstruktive Würdigung der Existenz globaler politischer Gestaltungsaufgaben, gerade auch in der Umwelt- und Klimapolitik. Auch so mancher vernünftige Ansatz in der Wirtschaft und Gesellschaft für den Umwelt- und Klimaschutz sowie die internationale Zusammenarbeit gehen im Kritikhagel des Autors unter. Zudem erscheint die Beschreibung der Umwelt- und Klimapolitik als ein Werkzeug der Kalten Krieger sehr eigenwillig. Auch so manche Problemgewichtung und Kritik ist unverhältnismäßig. Es wird mit Kanonen auf Spatzen geschossen. So wird beispielsweise die Agenda 21 sehr einseitig ausgelegt und in ihrer Bedeutung weit überschätzt. Das gilt auch für den Emissionshandel. Für den im Umwelt- und Klimaschutz engagierten Bürger, Wissenschaftler und Politiker bietet das Buch dann auch für den Alltag nur begrenzte Hilfestellungen. Aber es provoziert und zwingt den Leser zur Überprüfung seiner eigenen Position oder Vorurteile.

Unabhängig von seiner umwelt- und klimapolitischen Einordnung ist das Buch aber ein eindrucksvolles Plädoyer für eine freiheitliche Wirtschaft und Gesellschaft, die nicht einfach dem Laissez-faire frönt, sondern in der die individuelle Freiheit und Verantwortung des Einzelnen in den Vordergrund gestellt wird. Lesenswert ist das Buch vor allem auch deswegen, weil das Plädoyer für die Freiheit mit vielen originellen historischen Bezügen und philosophischen Darstellungen verknüpft wird. Dabei erfolgt auch eine lehrreiche, zum Teil recht eigenwillige Auseinadersetzung mit einschlägigen Philosophen, Soziologen, Historikern und politischen Strömungen.

Dr. Gerhard Voss

Langjähriger Leiter der Forschungsstelle Ökonomie/Ökologie im IW Institut der deutschen Wirtschaft, Köln

(erschienen in: Zeitschrift für Umweltpolitik & Umweltrecht (ZfU), Nr. 4/2008)

=========================================================================================

DIE WELT vom 1. September 2007

Buchtipp

Jungks Atomstaat geht, Gabriels Karbonstaat kommt

Von Ulli Kulke 1. September 2007, 13:00 Uhr

Edgar L. Gärtner plädiert dafür, in der Klimadebatte einen kühlen Kopf zu bewahren. Nicht der Islamismus ist für den Autoren der Nachfolger des Kommunismus als Gefahr für den Westen, sondern der ökologische Totalitarismus. Die Naturwissenschaft wird zur Umweltwissenschaft.

Öko-Nihilismus

Im Jahre 1977 veröffentlichte der Sachbuchautor Robert Jungk seinen Klassiker „Der Atomstaat“. Ein düsteres Szenario. Jungk stellte neben die damals um sich greifende Angst vor atomarer Strahlung, vor dem GAU, vor der Jahrtausendlast Atommüll, auch noch die Furcht vor dem totalen Überwachungsstaat. Durch diesen, so lautete die Lesart Jungks, werde die Bundesregierung die nuklearen Risiken der geplanten rund 50 Atomkraftwerke einzudämmen versuchen – mit ungewissem Ausgang, versteht sich.

Jungks Szenario blieb ein Horrorgemälde, der GAU im Lande kam nicht, auch Big Brother war weiterhin Science fiction. Wenn sich heute Totalitäres abzeichnet, so aus einer ganz anderen Richtung, platt gesagt aus der Gegenströmung heraus. Auch wenn es abermals um den Energiebereich im Lande geht, die Grundlage der Volkswirtschaft. Edgar Gärtner warnt in seinem neuen Buch „Öko-Nihilismus“ vor den einschneidenden Konsequenzen, die die aus seiner Sicht mehr als fragwürdig verlaufende, aber dennoch verhängnisvolle Klimadebatte auf unser Leben haben wird.

Gerade auch dieser Tage, lange nach Drucklegung des Buches, wird deutlich, wie einschneidend sich im Zuge des neuen Diskurses die Rolle des Staates in Wirtschaft und Gesellschaft verändern wird. Die mit viel Aplomb und professioneller Medienarbeit im Frühjahr vorgestellten Weltklimaberichte waren da nur der publicityträchtige Überbau, jetzt aber wird es ernst.

Der „Klimacent“ ist in die Debatte geworfen. Auch wenn seine Einführung sogleich dementiert wurde: Die Steuer wird kommen, und sie wird gewaltig ausfallen, schließlich soll die Energie aus dem Markt genommen und in eine staatlich bestallte Branche überführt werden, in dem nicht mehr die 2,5 Cent teure Kilowattstunde aus der Kernkraft dominiert, sondern die viermal so teure aus Wind und Sonne – gespeist aus Steuermitteln. Der Staat wird auch das andere Ende der Stromleitung beherrschen: Niemand soll mehr Strom und Wärme nach Gutdünken ins eigene Haus holen dürfen. Baden-Württemberg macht den Anfang und schreibt vor, welche Aggregate im Keller oder auf dem Dach zu installieren sind. Bundesweit schließlich wird kein Haus mehr privat verkauft werden dürfen, ohne dass es einem staatlichen Klimacheck unterworfen wurde, vom First bis zum Fundament.

Die immer anspruchsvolleren Klimaziele, die sich nicht nur die Bundesregierung, sondern alle Parteien, alle gesellschaftlichen Gruppierungen gesetzt haben, zeigen: Dies ist nur der Anfang. Sehr verhalten nur beginnt es nun den Wirtschaftsverbänden zu dämmern, wohin der mit erneuerbaren Energien getriebene Zug im Lande hinrollt: Werden die Verbände, ja wird die ganze Marktwirtschaft obsolet wie bei der letzten großen Umwälzung der Heizer auf der E-Lok? Wird der unheimliche Lenin wiederauferstehen und seinen alten Spruch „Sozialismus ist Sowjetmacht plus Elektrifizierung“ nun etwas abgewandelt unter die Leute bringen: „Sozialismus ist Grüne Macht plus Solarstrom?“

Kein Zufall ist es jedenfalls: Die Energiewirtschaft, die Schlüsselbranche, scheint nur allzu verlockend zu sein als Hebel für politische Umbrüche, ob gewaltsam oder auf leisen Sohlen. Sie ist gut