Vom Geist der Freiheit

Hochmut kommt vor dem Fall. Ist es deshalb so abwegig, einen Zusammenhang zwischen dem schrecklichen Erdbeben in Haiti mit Hunderttausenden von Toten und dem geistigen Hintergrund der sozialrevolutionären Ursprünge der Insel-Republik zu vermuten? Immerhin gingen Haitis „schwarze Jakobiner“ im Jahre 1791 in einer Voodoo-Zeremonie einen Pakt mit dem Teufel ein, um die Befreiung von der französischen Kolonialherrschaft zu erlangen.

Freiheit: Auf den Geist kommt es an

Warum Materialismus und Christophobie in die Knechtschaft führen

Nach der Veröffentlichung meines Blogs über die spirituellen Hintergründe des Haiti-Desasters (auf dieser Unterseite weiter unten) an dieser Stelle bin ich von einem Teil der libertären Szene in Deutschland buchstäblich exkommuniziert worden. Es fehlte nur noch die Steinigung. Ich übergehe hier anstandshalber die wohl willentlichen Missverständnisse und die mir gegenüber vorgebrachten absurden Unterstellungen, die im Vorwurf der Scheinheiligkeit gipfeln. Worüber ich mich wundere, wenn nicht ärgere, ist die den meisten Kritiken zugrunde liegende materialistische Weltsicht und die zum Teil offen zutage tretende Christophobie.

Um deutlicher zu werden: Die kontrastierende Geschichte der beiden Teile der Karibik-Insel Hispaniola zeigt meines Erachtens alles in allem, dass es bei der Entwicklung der Wirtschaft und der Entfaltung menschlicher Freiheit weniger auf natürliche als auf geistig-religiöse Voraussetzungen ankommt. „Wo der Geist des Herrn wirkt, da ist Freiheit“, heißt es im zweiten Brief des Apostels Paulus an die Korinther. Wer abstreitet, dass unser abendländischer Humanismus und dessen Freiheitsbegriff nicht nur auf Sokrates, sondern auch auf Jesus von Nazareth und die spätantiken beziehungsweise mittelalterlichen Kirchenlehrer zurückgeht, sieht das freilich ganz anders. Für materialistisch, wenn nicht antichristlich ausgerichtete Libertäre ist der Kolonialismus eine Folge der Verbindung von christlichem Missionseifer mit materieller Gier und nicht Ausdruck der Abkehr Getaufter von der biblischen Botschaft.

Deshalb treffen sich Atheisten bei der Analyse der Hintergründe natürlicher und gesellschaftlicher Kataklysmen auch letzten Endes mit den Marxisten. Schon Fjodor Dostojewskij erkannte in der „Legende vom Großinquisitor“, dass die logische Konsequenz des Atheismus nicht die individuelle Freiheit, sondern die Verabsolutierung der Gleichheitsidee im Sozialismus beziehungsweise Kommunismus ist. Uneingestandenes Ziel des Sozialismus wiederum sei das Nichts, der Tod der Menschheit. Das hat der hoch dekorierte russische Mathematiker Igor Schafarewitsch schon in den siebziger Jahren des vergangenen Jahrhunderts in einem auch im Westen erschienenen bemerkenswerten historischen Überblick unter dem deutschen Titel „Der Todestrieb in der Geschichte“ herausgearbeitet. Schafarewitsch, den ich selbst, angeregt von den Kollegen Fink und Lichtschlag, leider erst Ende 2009 rezipiert habe, bestätigt meine Einschätzung, dass auch der Liberalismus zu einer Form von Nihilismus werden kann, wenn er sich gegen das christliche Gottes- und Menschenbild stellt. ((9. Februar 2010)

Internet

Der Sozialismus: so alt wie die Menschheit

Igor R. Schafarewitsch: Der Todestrieb in der Geschichte. Erscheinungsformen des Sozialismus. Ullstein Verlag, Berlin-Wien 1980

Liberalismus: Eros der Freiheit ohne Gott?

====================================================================================

Haiti: Der Fluch der Blasphemie

Warum US-Fernsehprediger Pat Robertson nicht ganz falsch liegt

Der inzwischen 79-jährige evangelikale Star-Prediger Pat Robertson löste Wellen gutmenschlicher Entrüstung aus, als er das schreckliche Erdbeben auf Haiti am 13. Januar im TV-Sender Christian Broadcasting Network (CBN) auf einen Pakt mit dem Teufel zurückführte, den die aufständischen Negersklaven der einst als „Perle der Karibik“ bekannten Insel im Jahre 1791 im Rahmen einer Voodoo-Zeremonie geschlossen hatten, um die Befreiung von der französischen Kolonialherrschaft zu erlangen. Zweifelsohne eine Provokation für alle Kulturrelativisten, die vielleicht gerade noch die Existenz eines fernen Gottes zugeben, jedoch die Existenz seines Gegenspielers Satan leugnen müssen. Aber ist es tatsächlich so abwegig, einen Zusammenhang zwischen dem aktuellen Desaster mit Hunderttausenden von Toten und dem geistigen Hintergrund der sozialrevolutionären Ursprünge der Republik Haiti zu postulieren?

Viele Touristen werden sich schon darüber gewundert haben, dass die westindische Insel Hispaniola, auf der Christoph Kolumbus und seine Seeleute 1492 erstmals amerikanischen Boden betraten, vom Flugzeug aus auffällig zweigeteilt erscheint. Der etwas größere östliche Teil, die spanisch sprechende Dominikanische Republik, ist satt grün, während der von der französisch sprechenden Republik Haiti eingenommene westliche Teil beinahe so kahl ist wie der Mond. Die Dominikaner leben mehr oder weniger einträglich vom Tourismus, während die Haitianer heute, trotz mehr als großzügiger „Entwicklungshilfe“ der US-Amerikaner in den vergangenen Jahrzehnten, zum allergrößten Teil bettelarm sind. Dieser Kontrast hat offenbar keine natürlichen Ursachen.

Nachdem die wenigen Ureinwohner ausgerottet und die Insel unter französische Herrschaft gelangt war, blühte dort über hundert Jahre lang der Zuckerrohranbau, der mithilfe aus Afrika importierter Sklavenheere betrieben wurde. Haiti wurde zu Frankreichs ertragreichster Kolonie. Als aber im französischen „Mutterland“ die Revolution ausbrach und Robespierre und seine Anhänger die Oberhand bekamen, konnte es nicht ausbleiben, dass einzelne Schwarze, die aufgrund besonderer Umstände eine bessere Bildung genossen hatten, von der in der Metropole herrschenden Gleichheits-Idee angesteckt wurden. Zu ihnen gehörte der als „schwarzer Jakobiner“ bekanntgewordene Toussaint Louverture, der Sohn eines in Benin geborenen freigelassenen Haussklaven. Er wurde zum Führer der weltweit einzigen (vorübergehend) erfolgreichen Sklavenerhebung, erlebte aber nicht mehr deren Sieg über das von Napoleon gesandte Expeditionskorps und die Unabhängigkeitserklärung Haitis im Jahre 1804 unter seinem Genossen und Rivalen, dem „schwarzen Kaiser“ Jean-Jacques Dessalines.

Das heutige, nicht erst durch das aktuelle Erdbeben ausgelöste gesellschaftliche und politische Desaster Haitis nahm seinen Lauf mit der nach der Revolution eingeleiteten egalitären Landreform. Die Besitzer der Zuckerplantagen wurden enteignet. Jede Bauernfamilie erhielt zunächst 15 Hektar Ackerland. Da die meisten Familien sich auf die Befriedigung ihres eigenen Bedarfs konzentrierten, brach die Exportwirtschaft zusammen. Infolge der von der Gleichheits-Idee diktierten Erbteilung des Landes schrumpften die Parzellen mit jeder neuen Generation immer mehr zusammen. Um die rasch wachsende Bevölkerung zu ernähren, wurden nach und nach auch die für den Ackerbau kaum geeigneten steilen Berghänge gerodet. Dennoch verfügte schon im Jahre 1971 jede Bauernfamilie im Schnitt nur noch über anderthalb Hektar karges Ackerland. Heute wird der größte Teil der Agrarfläche, da durch Übernutzung ausgelaugt und durch starke Tropenregen erodiert, gar nicht mehr bestellt.

Revolutionsromantiker und Fair-Trade-Fans sehen das allerdings anders. Um von der verheerenden Wirkung der Gleichheitsideologie abzulenken, verweisen sie auf die der jungen Republik als Gegenleistung für die diplomatische Anerkennung durch Frankreich unter Androhung militärischer Gewalt auferlegte Entschädigungssumme für die Enteignung der Plantagenbesitzer in Höhe von 90 Millionen Goldfranken (heute umgerechnet 17 Milliarden Euro!). Um die Riesensumme einzutreiben und schrittweise abzubezahlen, mussten dem Volk große Opfer und Restriktionen auferlegt und die Ressourcen des kleinen Landes buchstäblich ausgeplündert werden. Dabei erwies es sich als fatal, dass in Haiti der Voodoo-Kult von Anfang an als dem Christentum zumindest ebenbürtig, wenn nicht überlegen angesehen wurde. Das ist eine logische Konsequenz der Gleichheitsideologie beziehungsweise des Kulturrelativismus. Die infantile Gleichsetzung des demütigen Betens um göttliche Gnade mit obskurantistischen Beschwörungen und Zaubereien begünstigte die Machtübernahme durch Dynastien kleptokratischer Diktatoren und die damit einhergehende Vernachlässigung von Vorsorge-Investitionen gegen Hurrikane und Erdbeben. Davon hat sich Haiti nicht mehr erholt. Im Jahre 2003 haben Voodoo-Priester den ausgelaufenen Teufelspakt von 1791 mit Tieropfern ausdrücklich erneuert. Ein halbes Jahr zuvor hatte der damals herrschende Diktator Jean-Bertrand Aristide den Voodoo-Kult zur zweiten Staatsreligion neben dem Katholizismus erklärt.

Ich möchte nicht behaupten, Spezialist für Voodoo zu sein, denn ich kenne dessen Praxis hauptsächlich aus Romanen von Naipaul und anderen literarischen Zeugnissen. Es kommt hier nur darauf an, was diesen Kult von der christlich geprägten abendlänischen Kultur unterscheidet. Das ist in meinen Augen der allegenwärtige Fatalismus. Christen wissen, dass sie sich von Gott entfernen, wenn sie ihre Hände in den Schoß legen. Sie versuchen deshalb, von verschiedenen Seiten drohendes Unheil durch Vorsorgemaßnahmen abzuwenden. Oft tun sie dabei, wie ich an anderer Stelle schon dargelegt habe, sogar des Guten zuviel. Der Gedanke der Vorsorge ist den meisten Haitianern jedoch fremd. Überall in der Karibik wurden inzwischen Bauvorschriften für einigermaßen erdbebensicheres und Hurrikan-resistentes Bauen erlassen. In Haiti wurde das versäumt, obwohl Entwicklungshilfe-Gelder dafür zur Verfügung gestanden hätten.

Was könnte man aus diesem (zugegebenermaßen sehr groben) Einblick in die Probleme Haitis lernen? Die Haitianer mussten wie die Franzosen und später die Russen und Chinesen erfahren, dass blutige Revolutionen – so gut sie auch gemeint sein mögen – alles noch schlimmer machen als vorher. Nur stille und unblutige Revolutionen wie etwa in jüngerer Zeit die Verbreitung des Internet und mehr noch die Verbreitung des Christentums seit fast zwei Jahrtausenden bringen die Menschheit voran. Nach christlichem Verständnis ist jede blutige Erhebung gleichzusetzen mit Blasphemie, der die Strafe Gottes auf dem Fuße folgt. Auch Nichtchristen können kaum darüber hinwegsehen, dass es in der Geschichte keine vergleichbaren Fälle von Hochmut gibt, die nicht im Desaster endeten. Der Spruch „Hochmut kommt vor dem Fall“ bringt das zum Ausdruck. Nur Demut erweist sich als nachhaltig.

So kann ich dem Prediger Robertson zwar nicht folgen, wenn er zum Mord an Venezuelas rotem Diktator Hugo Chavez aufruft. Ich muss ihm aber zustimmen, wenn er die Zurückdrängung des Voodoo-Kultes durch massive Missionsarbeit für wichtiger erklärt als über aktuelle Nothilfe hinausgehende materielle Entwicklungshilfe. Der nicht religiös argumentierende Kolumnist des „Wall Street Journal“ Bret Stephens sieht das übrigens ähnlich. (aktualisiert am 3. Februar 2010)

Internet

Pat Robertson auf Dailymotion

Erdbeben eine Folge vom ‚Pakt mit dem Teufel’?

Haiti Hilflose Perle der Karibik

To Help Haiti, End Foreign Aid

Literatur

C. L. R. James: Die schwarzen Jakobiner: Toussaint Louverture und die Unabhängigkeitsrevolution in Haiti. Pahl-Rugenstein Verlag, Köln 1984. (Nicht mehr lieferbar, weil vom ehemals DKP-nahen Verlag wegen der trotzkistischen Position des Autors wieder aus dem Verkehr gezogen.)

=========================================================================================

Jeder braucht seine Apokalypse von Edgar L. Gärtner

Wer die Johannes-Offenbarung nicht kennt oder ablehnt, braucht die Klimakatastrophe

Wer sich mit der katholischen Liturgie etwas auskennt, der weiß, dass an Allerheiligen aus der Offenbarung des Johannes vorgelesen wird. Ich gestehe, dass ich am Sonntag, dem 1. November 2009, während der Verlesung des Evangeliums meine Gedanken etwas abschweifen ließ – allerdings durchaus nicht zu Dingen, die mit dem Thema nichts zu tun haben. Mir fiel nur ein, dass die Christen mit der Verbreitung der Johannes-Offenbarung seit fast 2000 Jahren doch eigentlich rundum mit apokalyptischen Gewissheiten versorgt sind und keiner weiteren Schreckensbilder bedürfen, um ihren Adrenalinspiegel beziehungsweise Angsthaushalt im Gleichgewicht zu halten. Dabei hatte ich die Theorie der Risiko-Kompensation im Hinterkopf, die der kanadische Psychologe Gerald J.S. Wilde schon vor Jahren in die Diskussion brachte, um die Beobachtung zu erklären, dass zusätzliche Sicherheitsvorkehrungen an Automobilen wie Sicherheitsgurte, Airbags oder ABS nicht unbedingt zu mehr Sicherheit im Straßenverkehr führen, weil sie die Fahrer zu einer riskanteren Fahrweise verleiten können.

Ich musste mich vor einigen Jahren mit dieser Thermostat-Theorie beschäftigen, als ich für die Risiko-Kommission des Bundesgesundheitsministeriums als Redakteur tätig war. Später habe ich einiges davon in meinem Buch „Vorsorge oder Willkür“ verarbeitet. Die Menschen brauchen offenbar einen bestimmten Risiko- und Stress-Pegel, um nicht vor Langweile einzuschlafen oder dem Alkohol zu verfallen. Eine solche Thermostat-Funktion gibt es aber vermutlich nicht nur beim menschlichen Risiko- und Stressbedürfnis, sondern auch bei der Angst vorm beziehungsweise der Lust am Untergang. Menschen, die die Johannes-Offenbarung nicht kennen oder nicht mögen, brauchen dafür vermutlich einen Ersatz. Deshalb greifen sie nach modernen Weltuntergangstheorien, saugen Computer-Hochrechnungen, die die nahende Erschöpfung von Rohstoff-Vorräten oder den drohenden Hitzetod an die Wand malen, begierig in sich auf.

Allerdings bieten diese Projektionen durchaus keinen gleichwertigen Ersatz für die biblische Apokalypse, auch wenn das die postmoderne „Diktatur des Relativismus“ postuliert. Die Johannes-Offenbarung besagt, dass Gott selbst dieser Welt ein Ende setzen wird und nicht wir Menschen. Oder anders herum: Der Weltuntergang wird nicht das Werk der Menschen sein. Wer die Menschen für einen drohenden ökologischen Kollaps verantwortlich macht, begeht also Gotteslästerung. Von daher verwundert es sehr, dass sich die meisten christlichen Kirchen inzwischen zum grünen Apokalypse-Ersatz bekennen. Denn Blasphemie wird bekanntlich nicht erst im Jenseits bestraft.

Für Gläubige ist der Weltuntergang ein Ende ohne Schrecken, weil er gleichbedeutend mit der Wiederkehr des Herrn Jesus Christus ist. Richtig verstandenes Christentum führt zur Gelassenheit. Christen können/dürfen sich gar nicht schuldig fühlen für einen angeblich drohenden Klima-Kollaps. Machtgierige bedienen sich heidnischer Ängste, um die Menschen gefügig zu machen. Wirklich gläubige Christen sollten sich von der Ersatzreligion Ökologismus nicht aus der Ruhe bringen lassen.

Internet:

Über Gerald J.S. Wilde

Target Risk 2

============================================================================

Nachlese zum Darwin-Jahr:

Das Wahrheitsmonopol des Materialismus wankt

Von Edgar L. Gärtner

Hätten der Bundesrat und die Bundesländer einer Petition der naturalistischen (= nihilistischen) Giordano Bruno Stiftung nachgegeben, dann wäre der ohnehin schon unter der Hand zum „Vatertag“ (ohne Väter) umfunktionierte hehre christliche Feiertag „Christi Himmelfahrt“ dieses Jahr erstmals als „Tag der Evolution“ begangen worden. Die Initiative der Bruno Stiftung ist freilich nur eines von zahlreichen Beispielen für den anlässlich des 200. Geburtstages von Charles Darwin im Februar mit großsprecherischer Pose vorgetragenen Anspruch atheistisch ausgerichteter Darwinisten auf das Wahrheitsmonopol des Materialismus. Wer die Entwicklung an der Front naturwissenschaftlicher Forschung verfolgt, fragt sich allerdings unwillkürlich, auf welche neuen Erkenntnisse militante Atheisten wie Richard Dawkins oder Ulrich Kutschera ihre Überzeugung, die Annahme eines göttlichen Ursprungs des Universums sei nicht nur überflüssig, sondern sogar schädlich, denn stützen.

Denn wir sind gerade Zeugen eines fundamentalen Paradigmenwechsels in den Naturwissenschaften. Einsteins Dogma von der Unübertrefflichkeit der Lichtgeschwindigkeit ist im Sommer 2008 in Genf experimentell ins Wanken gebracht worden. Ein Physiker-Team unter Nicolas Gisin konnte zeigen, dass das von Einstein nur als absurde Konsequenz gegnerischer Auffassungen postulierte Verschränkungsprinzip in der Quantenphysik real existiert. Dieses Prinzip besagt, dass zwei Teilchen A und B, die einmal zusammen gehörten, nach der Trennung wie durch Spuk miteinander verbunden bleiben und mit unendlich hoher Geschwindigkeit Informationen austauschen, selbst wenn der Zeitpunkt der Trennung weit in der Vergangenheit liegt oder die Teilchen mittlerweile Lichtjahre voneinander entfernt sind. Es ist somit auch nicht ausgeschlossen, dass Wirkungen in der realen Welt manchmal ihren Ursachen vorauszugehen scheinen oder tatsächlich vorangehen. Scheinbar überirdische Phänomene wie Geistheilung, Telepathie, Homöopathie, Hellsehen oder Liebe auf den ersten Blick werden möglicherweise bald erklärbar, ohne dabei etwas von ihrem Zauber einzubüßen.

Die Vorstellung, ähnlich dem Dualismus von Teilchen und Welle unterliege auch das Verhältnis von Leib und Seele und somit das Bewusstsein den Regeln der Quantenphysik, ist nicht neu. Der australische Hirnforscher John C. Eccles, ein enger Freund des bekannten Wissenschaftsphilosophen Karl R. Popper, gehörte zu den ersten, die eine solche Parallelität postulierten. Popper begründete damit seine Vermutung, das menschliche Wissen sei zu 99 Prozent angeboren und werde durch Lernen nur aktualisiert. Eccles, der 1963 für seine bahnbrechenden Erkenntnissen über die Erregungsübertragung in den Nervenzellen den Nobelpreis für Medizin erhielt, glaubte stets daran, dass es eine vom Körper unabhängige und unsterbliche Seele gibt. Er dachte, der Geist beeinflusse das Gehirn, indem er auf mikroskopisch kleine Strukturen in der Großhirnrinde, die so genannten Pyramidenzellen, einwirkt. Ausgehend davon, versuchten die US-Forscher Stuart Hameroff und Roger Penrose das Bewusstsein durch den Kollaps der Wellenfunktion in den Mikrotubuli des Gehirns zu erklären. Inzwischen ist auch der Frankfurter Physikprofessor Thomas Görnitz überzeugt, dass Gedanken so real sind wie Atome. Stoffe sind nur vorläufige Produkte der Wechselwirkung von Feldern. Die Realität ist primär geistig.

„Über das Verschränkungsprinzip sind wir auf subtile Art und Weise mit jedem x-beliebigen Punkt des Universums verbunden!“, folgert der promovierte Chemiker und Wissenschaftsjournalist Rolf Froböse in seinem neuen Buch. Anhand weiterer Zeugnisse und Beispiele macht er deutlich, dass sich Leben und Bewusstsein nicht hätten entwickeln können, wenn es nicht seit dem Urknall vor 13,7 Milliarden Jahren einen universellen Quantencode gäbe, in dem die Möglichkeit der Lebensentstehung schon angelegt war. Die Wahrscheinlichkeit für die Entstehung des Lebens durch blinden Zufall beträgt nach Berechnung des Karlsruher Makromolekularchemikers Prof. Bruno Vollmert höchstens eins zu zehn hoch tausend. Eher würde ein funktionsfähiger Pentium-Rechner dadurch entstehen, dass man alle seine Elektronikteile in zigtausendfacher Ausführung von der Aussichtsplattform des Eifelturms auf die Straße würfe, meint Vollmert. In der Tat konnte man bei endlosen Wiederholungen des 1953 von Stanley L. Miller zum ersten Mal in Chicago durchgeführten Laborexperiments zur Simulierung der Lebensentstehung aus der „Ursuppe“ immer nur Aminosäuren, aber nicht einmal einfachste Eiweißmoleküle gewinnen. Dafür fehlte die Information, die heute durch DNA und RNA übermittelt wird, nach Ansicht Vollmerts ursprünglich aber von Gott gekommen sein muss.

Darwins Selektionstheorie sei deshalb nicht einfach falsch, meint Froböse, sondern beschreibe nur die Übersetzung des universellen Quantencodes, der sich in der Universalität des genetischen Codes äußert. Dabei beruft er sich auf den US-Biochemiker Lothar Schäfer, der die Auffassung vertritt, bei der Anpassung der Arten an unterschiedliche Lebensbedingungen durch Mutation und Selektion werde nur eine bereits von vornherein gegebene virtuelle Ordnung von Quantenzuständen aktualisiert. Blinden Zufall lasse der Lebenscode des Universums nicht zu.

Internet:

Stiftung fordert Tag der Evolution statt Christi Himmelfahrt

Interview mit Rolf Froböse über Wissenschaft und Religion

Literatur:

Thomas Görnitz: „Der kreative Kosmos. Geist und Materie aus Information. Spektrum Akademischer Verlag, Heidelberg 2006

Lutz Simon (Hrsg.): „Wissenschaft contra Gott? Glauben im atheistischen Umfeld“. Hänssler Verlag, Holzgerlingen 2007

Joachim Bauer: Das kooperative Gen. Verlag Hofmann & Campe, Hamburg 2008

Rolf Froböse: „Der Lebenscode des Universums. Quantenphänomene und die Unsterblichkeit der Seele.“ Lotos Verlag (Random House), München 2009

===========================================================================

Verständigung braucht gemeinsame Werte

Die Macht des Wortes und die Grenzen des Dialogs

Von Edgar L. Gärtner

„Im Anfang war das Wort“, heißt es im Johannes-Evangelium (1,1-2). Die Bedeutung dieses Halbsatzes ist theologisch und philosophisch umstritten und jedenfalls unverständlich ohne dessen Fortsetzung „und das Wort war bei Gott, und Gott war das Wort.“ Wenn die Bibel die Macht des Wortes eindeutig Gott zuordnet, heißt das aber noch lange nicht, dass Worte in ganz irdischen zwischenmenschlichen Angelegenheiten nur Schall und Rauch seien. Im Gegenteil: Die Erfahrung lehrt, dass Worte sogar töten können. Dennoch verlassen sich heute gerade Werbe-Profis aus gutem Grund nicht allein auf Worte.

Sie haben gelernt: Kommunikation, echte zwischenmenschliche Verständigung beruht nur zu einem geringen Teil auf Worten, sondern zu allererst auf dem Austausch von Gebärden, Gesten und manchmal auch Düften. Sonst bliebe es unerklärlich, dass wir uns mit Hunden mitunter besser verständigen können als mit manchen Mitmenschen. Die eher zweitrangige verbale Verständigung bedarf darüber hinaus offenbar einer gemeinsamen Glaubensbasis. Allerdings sprechen die Werbeleute weniger vom Glauben als (neutraler) von zwischen vielen Menschen geteilten Bildern und Mythen. Um ihre Adressaten überhaupt ansprechen zu können, versuchen sie, die Produkt-Botschaft, die sie rüberbringen wollen, einem gängigen Mythos aufzusatteln. Beispiele für solche Mythen und Bilder sind etwa die Suche nach dem heiligen Gral oder der tapfere Kampf Davids gegen den Riesen Goliath.

Umgekehrt bedeutet das aber auch, dass verbale Kommunikation, Dialog zwischen Menschen grundverschiedenen Glaubens nur in sehr eingeschränktem Maße möglich ist. Darauf hat vor kurzem Papst Benedikt XVI. im Vorwort zum neuesten Buch des italienischen Philosophen und Ex-Senatspräsidenten Marcello Pera hingewiesen. Über religiöse Grundentscheidungen könne es keinen wirklichen Dialog geben, „ohne den eigenen Glauben in Klammern zu setzen“, betont dort der Papst. Mit einer „nicht widerlegbaren Logik“ lasse Pera in seinem Buch erkennen, dass der Liberalismus zum Nihilismus wird, wenn er sich gegen das christliche Gottes- und Menschenbild stellt, d. h. den Menschen die Eigenschaft der Gottesebenbildlichkeit abspricht. Europa könne nur dann zu einer „moralischen Gemeinschaft“ werden, wenn es zu seinen christlichen Wurzeln zurückkehrt, betont der Atheist und Popper-Schüler Pera. Als Skeptiker verspricht er sich allerdings nicht viel von Taufe und Wiedertaufe. Er rät den Europäern, zu handeln, „als ob es Christus gebe.“

Alexander Smoltczyk, der Vatikan-Korrespondent des SPIEGEL, berichtete über die päpstliche Klarstellung unter der Überschrift „Schluss mit Lessing.“ In der Tat sieht Lessings Ringparabel, im Lichte der modernen Kommunikationsforschung betrachtet, alt aus.

(Als Gastkommentar veröffentlicht in DIE WELT vom 27. Dezember 2008)

Internet:

Wikipedia: Marcello Pera

Schluss mit Lessing

Interreligiöser Dialog nicht möglich

============================================================

Gibt es Freiheit ohne Geist? Von Edgar Gärtner*)

Neulich stieß ich beim TV-Kanal Phoenix auf die Wiederholung einer Reportage über den St. Jakobs Pilgerweg. Da blieb ich eine Weile hängen. Zwar zieht es mich persönlich längst nicht mehr dorthin, seit es dort, ausgelöst durch den Bestseller von Hape Kerkeling, zu Staus kommt. Aber was ältere und jüngere Pilger den TV-Reportern zu erzählen hatten, interessierte mich schon. Im Gedächtnis haften blieb mir ein junges Ossi-Pärchen aus Magdeburg. Ich möchte den beiden nicht zu nahe treten. Aber was sie als „Ertrag“ ihres Trips festhielten, stimmte mich tief traurig. Für den Geist von Santiago de Compostella hatten sie offenbar weder Auge noch Ohr noch sonst ein Organ. Für sie war die Reise ein touristischer Event neben anderen. Was sie über ihre Empfindungen mitteilten, erschien mir höchst geistlos. Und so wie diese beiden sehen es wohl inzwischen viele Abgänger unseres entchristlichten Erziehungswesens.

Deshalb erscheint es nicht weiter verwunderlich, dass auch bei Debatten über Freiheit und Moral der Begriff „Geist“ oft gar nicht mehr auftaucht. Immerhin gibt es inzwischen, gefördert durch die neuesten Erkenntnisse der Humangenetik, einen weitgehenden Konsens darüber, dass die menschlichen Individuen keine Marionetten ihrer Gene sind, dass sie ihren Erbanlagen gegenüber einen gewissen Entscheidungsspielraum haben. So bringt es auch nicht viel, nach speziellen Genen zu suchen, die jemanden zum Genie, zur Niete, zum Hetero, zum Schwulen, zum Heiligen oder zum Verbrecher machen. Es gibt offenbar so etwas wie Freiheit. Aber worauf beruht und worin besteht diese? Hier scheiden sich die Geister, wenn man so sagen darf. Denn von „Geist“ wollen die meisten Anhänger des bei uns inzwischen zum Mainstream gewordenen Atheismus erst gar nicht reden. Sogar der herkömmliche, auf dem christlichen Menschenbild fußende Freiheitsbegriff ist vielen von ihnen höchst suspekt.

Nach christlicher Auffassung kommt es letzten Endes auf die mit der geistigen Person verbundene Willensfreiheit an. Eine ganze Schule der neurobiologischen Forschung bemüht sich demgegenüber um den Nachweis, dass der Mensch nicht Herr im eigenen Hause ist, dass es im menschlichen Hirn keine Strukturen gibt, die man mit Geist oder Willensfreiheit in Zusammenhang bringen könnte. Aber diese mit großem Eifer ins Werk gesetzte Suche beruht auf einer höchst dürftigen philosophischen Begründung. „Der Tag, an dem die Hirnforschung aufbrach, um die Freiheit zu suchen, ist vergleichbar mit dem Tag, an dem der proletarische Dummkopf Gagarin erzählte, er sei im Weltraum gewesen und habe Gott nicht gefunden“, urteilt der bekannte Psychiater und katholische Theologe Manfred Lütz mit dem ihm eigenen Sarkasmus in seinem Bestseller „Gott. Eine kleine Geschichte des Größten“ (2007).

Wieder und wieder werden Experimente zitiert, die der amerikanische Neurologe Benjamin Libet schon in den 80er Jahren durchführte. Danach entscheidet das Hirn über Handlungen, noch bevor uns ein Entschluss bewusst wird. Genau genommen, bestätigen solche Experimente aber nur Sigmund Freuds Entdeckung, dass der Anteil des Unbewussten an der Persönlichkeit viel größer ist als der des Bewussten. Freud dachte allerdings beim Unbewussten nur an Triebhaftes, vor allem an die Sexualität, und negierte dessen geistig-religiöse Dimension. Neurologen und Philosophen werden sich heute aber nicht einmal darüber einig, was unter Bewusstsein zu verstehen ist.

Konsens besteht nur darüber, dass die Menschen von Natur aus soziale Wesen sind, deren Entfaltung von der Kommunikation mit anderen Menschen abhängt. Materielle Grundlage gegenseitigen Einfühlens und Verstehens (Empathie) sind die so genannten Spiegelneuronen. In der Praxis beschränkt sich der Gefühls- und Gedankenaustausch aber meist auf abgegrenzte Gruppen von Bluts- und Geistesverwandten. Dennoch gibt es auch spontane Manifestationen von Altruismus gegenüber völlig Fremden, deren Wurzeln bis zu unseren behaarten Vorfahren zurück reichen.

Einiges spricht dafür, dass sich altruistische Verhaltensweisen deshalb in der Evolution durchgesetzt haben, weil sie im Hirn mit der Freisetzung des Botenstoffes Dopamin und dem damit verbundenen angenehmen Gefühl belohnt werden. Deshalb kann Freigiebigkeit sogar ein besonders raffinierter Ausdruck von Egoismus sein. Es gibt auch Simulationsexperimente, die darauf hinweisen dass Gesellschaften weltoffener Egoisten friedlicher sind als Gesellschaften gruppensolidarischer Gutmenschen. Menschen mit psychopathischer Veranlagung (immerhin etwa ein Prozent der Bevölkerung) fehlt jedoch die Fähigkeit zur Empathie und zum Lustgewinn durch selbstlose Hilfe. Das heißt aber noch lange nicht, dass sie dazu verdammt sind, auf die schiefe Bahn zu geraten.

Warum aber werden viele Menschen, trotz ungünstiger Erbanlagen, nicht zu Verbrechern? Darauf gibt bislang nur die jüdisch-christliche Lehre von der geistigen Person eine Antwort. Geist ist nach christlicher Auffassung keine Substanz, sondern reine Dynamis (wie Musik), von der sich der freie Wille ableitet. Nach materialistischer Auffassung kann es so etwas überhaupt nicht geben. Freiheit beschränkt sich für Materialisten auf Handlungsfreiheit. Diese besteht darin, im Einklang mit seiner mentalen Disposition (Instinkte, Motivationen, Glaubenssätze, Präferenzen, verbales und nonverbales Wissen) agieren zu können. Es bleibt dabei offen, wie die Disposition zustande kommt. Auch einem Hund dürfte danach das Attribut der Freiheit nicht abgesprochen werden. Es käme lediglich darauf an, ob er an der Kette liegt oder sich artgerecht bewegen kann. Diese Auffassung von Freiheit kann aber schlecht erklären, wie es eine Minderheit von KZ-Häftlingen schaffte, innerlich frei und somit Mensch zu bleiben. Der bekannte Wiener Neurologe und Psychiater Viktor E. Frankl, ein Schüler Sigmund Freuds, hat in der Nachkriegszeit eindrucksvoll geschildert, wie er es kraft eigener Geistesanstrengung schaffte, die Selbstaufgabe zu vermeiden, und es ihm so gelang, die Drangsal der Lager zu überleben.

Frankl erkannte aufgrund seiner Erfahrungen im KZ und in seiner psychiatrischen Praxis: Der Mensch „hat“ einen Charakter – aber er „ist“ eine Person. „Die Charakteranlage ist daher auf keinen Fall das jeweils Entscheidende; letztlich entscheidend ist vielmehr immer die Stellungnahme der Person. (…) Zuletzt entscheidet der Mensch über sich selbst. (…) Der Mensch hat also nicht nur Freiheit gegenüber Einflüssen je seiner Umwelt, sondern auch gegenüber seinem eigenen Charakter. Ja, in gewissem Sinne ist es sogar so, dass die Freiheit gegenüber der Umwelt in der Freiheit gegenüber dem Charakter fundiert ist.“

Frankls Analyse der Wechselwirkungen zwischen Geist und Körper scheint inzwischen in Deutschland leider fast vergessen. In der umfangreichen Bibliografie eines aktuellen Sachbuchs zum Thema unter dem Titel „Die gefühlte Moral“ (2008) aus der Feder des Wissenschaftsautors Frank Ochmann taucht sein Name gar nicht auf. Inzwischen hat aber das australische Wunderkind David Chalmers, dessen Name in Ochmanns Bibliografie ebenfalls fehlt, mit bestechender mathematischer Logik nachgewiesen, dass schon das Bewusstsein, das im jüdisch-christlichen Menschenbild unterhalb des Geistes in der Psychophysis angesiedelt ist, grundsätzlich nicht monistisch, d. h. auch nicht materialistisch, sondern nur mithilfe eines Dualismus von Geist und Körper erklärbar ist.

Immerhin sieht auch Ochmann ganz klar: „Reiner Utilitarismus, der nach dem Prinzip maximalen Glücks für die größtmögliche Zahl vorgeht und fordert, in jedem Fall entsprechend moralisch zu handeln, mag philosophisch richtig oder zumindest nachvollziehbar sein. Trotzdem überfordert er nicht nur die meisten Menschen, sondern offenbar den Menschen an sich.“ Aber was folgt daraus? Darüber schweigt sich der studierte Theologe und ehemalige Priester aus. Könnte es nicht doch sein, dass Viktor E. Frankl recht hat, wenn er gegen die nihilistische Reduktion des Menschen auf Biologisches, Psychologisches oder Soziologisches einwendet: „Die Wesenslehre vom Menschen muss offen bleiben – offen auf Welt und auf Überwelt hin; sie muss die Tür zur Transzendenz offen halten. Durch die offene Tür aber fällt der Schatten des Absoluten“?

Ich bin, angesichts der nun beginnenden Wirtschaftskrise und ihrer absehbaren sozialen Konsequenzen, mehr und mehr davon überzeugt, dass die Fronten in den kommenden gesellschaftlichen Auseinandersetzungen weniger zwischen Liberalen und Autoritären, sondern zwischen Nihilisten und jenen verlaufen, die an einen Übersinn des Lebens glauben. Dabei sollte man aber nicht vergessen, dass ein erfundener „Übersinn“, der sich gegen das wirkliche Leben wendet, nach Friedrich Nietzsche selbst die extremste Form von Nihilismus darstellt. Deshalb sollten islamistische Selbstmordattentäter (wie auch extreme christliche Asketen) nicht als Idealisten gelten, denen man bis zu einem gewissen Grad Verständnis entgegen bringt, sondern als Feinde des Lebens.

(Teilweise abgedruckt in: factum-magazin 8/08, Schwengeler Verlag, CH-Berneck)

============================================================

An Wunder glauben von Edgar Gärtner*)

Warum sind Liberale, wie jetzt durch empirische Untersuchungen bestätigt wurde, im Schnitt deutlich glücklicher, zufriedener und optimistischer als Anhänger des wohlfahrtsstaatlichen Sozialismus? Die Antwort auf diese Frage ist vermutlich einfacher, als viele denken: Liberale glauben an Wunder. Sie tun, was ihnen sichtbar nützt und vertrauen darauf, dass das freie Spiel von Angebot und Nachfrage hinter ihrem Rücken zu Wohlstand und Frieden für die ganze Gesellschaft führt.

Es geht bei diesem Wunderglauben nicht unbedingt um Übersinnliches oder Überirdisches, sondern um durchaus Diesseitiges. Es geht weder um optische Täuschungen noch um fromme oder abergläubische Einbildungen wie Marienerscheinungen, sondern zuallererst um greifbare Vorgänge in Politik und Wirtschaft, für die das deutsche Wirtschaftswunder der Nachkriegszeit als Paradebeispiel dienen kann. Bewusst schreibe ich hier Wirtschaftswunder ohne Anführungszeichen. Denn wie soll man die Tatsache anders benennen, dass schon wenige Tage nach Ludwig Erhards wagemutigen, dem sozialistischen Zeitgeist widersprechenden Beschluss, mitten in der Not des Jahres 1948 gleichzeitig mit der Währungsreform die Rationierung von Gütern des täglichen Bedarfs zu beenden und fast sämtliche Preiskontrollen abzuschaffen, die Geschäfte auf einmal voll Waren aller Art waren und lange Menschenschlangen vor einem knappen Angebot bald der Vergangenheit angehörten.

Bei aller streng evolutionistischen, antiteleologischen Argumentation wies gerade der Erzliberale Friedrich August von Hayek wiederholt auf seine Offenheit Wundern gegenüber hin. Denn es war ihm zutiefst bewusst, dass die Ergebnisse des Handelns der Vielen meist viel intelligenter sind als die Motive der einzelnen Handelnden. Hayek sah darin den eigentlichen Grund für die Borniertheit und Stupidität jeglicher Form von Planwirtschaft. Denn deren Ziele spiegeln nur das beschränkte Wissen der jeweiligen Machthaber wider. „Aus einem gelenkten Prozess kann nichts größeres entstehen, als der lenkende Geist voraussehen kann“, stellte Hayek fest. Er ging sogar so weit, die gewachsene Ordnung und den Zusammenhang großer Gemeinwesen als etwas Geheimnisvolles hinzustellen. „In der großen Gesellschaft profitieren die verschiedenen Mitglieder von den Tätigkeiten aller anderen nicht nur trotz, sondern oft sogar aufgrund der Verschiedenheit ihrer jeweiligen Ziele“, fügte er an anderer Stelle hinzu.

Gegenüber dem Mysterium des gesellschaftlichen Zusammenhalts trotz oder gerade wegen des Pluralismus individueller Motive und Ziele könnten Sozialforscher, wenn sie ehrlich sind, nur die Haltung der Demut einnehmen, meinte Hayek: „Die Erkenntnis von den unüberwindlichen Grenzen seines Wissens sollten den Erforscher der Gesellschaft eigentlich Demut lehren. Diese Demut sollte ihn davor bewahren, Mitschuldiger in dem verhängnisvollen menschlichen Streben nach der Herrschaft über die Gesellschaft werden“, forderte der Wirtschaftsnobelpreisträger von 1974. Demgegenüber gehöre es zum Wesen des Aberglaubens, dass die Menschen sich einbilden, genug zu wissen, um Wunder rational erklären und durch bewusste Maßnahmen ersetzen zu können. Hayek war sich also im Klaren, dass Politik und Ökonomie bis zum heutigen Tag weder in der Theorie noch in der Praxis der Theologie so leicht entgehen können. Und er hat in der Spätphase seines Wirkens selbst Überlegungen über eine Komplementarität von Evolutionismus und christlicher Religion angestellt, was ihn in den Augen der Sozialisten aller Parteien umso verdächtiger machte.

Als weniger suspekt erscheint da vielleicht die politisch eher links verortete große Philosophin Hannah Arendt. Aber gerade bei ihr spielt der Begriff des Wunders eine noch größere Rolle, und zwar gerade in ihrem Meisterwerk, der originellen politischen Theorie des tätigen Lebens. Auch wenn Arendt über das deutsche Wirtschaftswunder anders dachte als Ludwig Erhard oder Friedrich August von Hayek und „Wunder“ immer mit Anführungszeichen schrieb, teilt sie deren Auffassung über die grundsätzliche Beschränktheit der menschlichen Fähigkeit, mögliche Folgen ihres Handelns abzusehen. In Anlehnung an Friedrich Nietzsche, der den Menschen als Tier definierte, „das versprechen darf“, sah Hannah Arendt den Hauptunterschied zwischen freien Menschen und ihren unfreien Vorfahren nicht im größeren Wissen, sondern in der Fähigkeit zu versprechen und zu verzeihen. Gute Taten hängen nicht in erster Linie vom Umfang des Wissens und von den öffentlich proklamierten Absichten einer Person ab, sondern von ihrer Liebe und der Treue zu Mitmenschen gegenüber eingegangenen Verpflichtungen.

Alles wirklich Gute geschieht im Verborgenen, lehrte Jesus von Nazareth. Die rechte Hand soll nicht wissen, was die linke tut. Daran knüpfte Hannah Arendt in „Vita activa“ an und fügte mahnend hinzu: „Güte aber, die, ihrer Verborgenheit überdrüssig, sich anmaßt, eine öffentliche Rolle zu spielen, ist nicht nur nicht mehr eigentlich gut, sie ist ausgesprochen korrupt.“ Das könnte sie heutigen „Gutmenschen“ ins Stammbuch geschrieben haben. Sie selbst hält sich ans Neue Testament: Da die Menschen die ferneren Folgen ihres Handelns nur in sehr geringem Maße im Voraus abschätzen können, machen sie unweigerlich Fehler, fügen anderen Menschen und ihrer Umwelt Schaden zu und laden dadurch Schuld auf sich. Nur durch ihre Fähigkeit, eingegangene Versprechen allen Widrigkeiten zum Trotz einzuhalten und Schuld zu vergeben, kann der soziale Zusammenhalt gewahrt werden. In Arendts Worten: „Dass es in dieser Welt eine durchaus diesseitige Fähigkeit gibt, ‚Wunder’ zu vollbringen, und dass diese Wunder wirkende Fähigkeit nichts anderes ist als das Handeln, dies hat Jesus von Nazareth (dessen Einsicht in das Wesen des Handelns so unvergleichlich tief und ursprünglich war wie sonst nur noch Sokrates’ Einsichten in die Möglichkeiten des Denkens) nicht nur gewusst, sondern ausgesprochen, wenn er die Kraft zu verzeihen, mit der Machtbefugnis dessen verglich, der Wunder vollbringt, wobei er beides auf die gleiche Stufe stellte und als Möglichkeiten verstand, die dem Menschen als einem diesseitigen Wesen zukommen.“

Nicht weniger geheimnisvoll als das Wunder von Versprechen und Verzeihen war für Hannah Arendt ein anderes Band des sozialen und politischen Zusammenhalts: der Gemeinsinn oder gesunde Menschenverstand. Diesen hielt Arendt für die Grundlage des Politischen schlechthin, weil er erst dafür sorgt, dass die Mitglieder einer Gesellschaft in einer gemeinsamen Wirklichkeit leben. Der Gemeinsinn entsteht, wohlgemerkt, gerade nicht durch die Unterordnung aller unter vorgegebene Ziele. Vielmehr genügt es, dass zwei plus zwei für alle vier ist und bleibt. Wie der französische Literaturnobelpeisträger Albert Camus sah die jüdische Philosophin, dass die zunehmende Bürokratisierung des politischen und gesellschaftlichen Lebens im Wohlfahrtsstaat europäischer Prägung den Menschen nicht nur den Wunderglauben, sondern auch den gesunden Menschenverstand austreibt. Ein immer dichteres Geflecht bewusster, oft wissenschaftlich oder pseudowissenschaftlich begründeter administrativer Regelungen tritt an die Stelle von Wundern und Überraschungen. Die offene Welt wird mehr und mehr zu einem Zuchthaus.

Kurz: Wunder gehören ganz einfach zur Realität. Wer nicht daran glaubt, wird am Ende zum Nihilisten. „Der Nihilist glaubt nicht an nichts, sondern nicht an das, was ist“, definierte Albert Camus. Der Gemeinsinn geht gerade am Übermaß „sozial“ begründeter wohlfahrtsstaatlicher Reglementierungen (mit Extrawürsten für alle möglichen lautstarken Interessengruppen) zugrunde. Das zeigt sich m. E. derzeit am deutlichsten am verbreiteten Aberglauben, Staat und Wirtschaft könnten mithilfe von Milliardeninvestitionen in den „Klimaschutz“, durch die Rationierung des Energieeinsatzes über das Europäische Emissionshandelssystem, durch detaillierte Vorschriften für die Heizung und Wärmedämmung von Gebäuden (unter Missachtung von Eigentumsrechten) sowie durch die Gleichschaltung von Forschung und Lehre (alles in guter Absicht, versteht sich) das Wettergeschehen gezielt beeinflussen und den Klimawandel stoppen.

„Ein merkliches Abnehmen des gesunden Menschenverstands und ein merkliches Zunehmen von Aberglauben und Leichtgläubigkeit deuten immer darauf hin, dass die Gemeinsamkeit der Welt innerhalb einer bestimmten Menschengruppe abbröckelt, dass der Wirklichkeitssinn gestört ist, mit dem wir uns in der Welt orientieren“, mahnte Hannah Arendt. Diese Warnung ist aktueller denn je.

*) veröffentlicht in: DIE WELT vom 23. Oktober 2007

Warum der Gärtner keine Chance hat

Salomon Kroonenberg: Der lange Zyklus. Die Erde in 10 000 Jahren. Primus Verlag (Wissenschaftliche Buchgesellschaft). Darmstadt, 2008. Geb. 256 Seiten. € 24,90. ISBN 978-3-89678-362-2

Der lange Zyklus. Die Erde in 10000 Jahren„Die Leser dieses Buches wissen, dass der Gärtner keine Chance hat. Er denkt nur im Rahmen des menschlichen Maßes.“ Nach diesem ernüchternden Resumé könnte der Rezensent, der nicht nur Gärtner heißt und selbst zwei Gärten pflegt, sondern sich auch zu einer Art von Gärtner-Philosophie bekennt, das Buch des niederländischen Geologie-Professors Salomon Kroonenberg gleich wieder aus der Hand legen. Doch was Kroonenberg als Fachmann für langfristige Betrachtungen seinen Kollegen von der unklar umrissenen Disziplin „Klimaforschung“ ins Stammbuch schreibt, sollte meines Erachtens alle naturwissenschaftlich und politisch interessierten zum Nachdenken bringen. Weiterlesen

REACH, a regulation farce

Believing EU officials we have entered, on 1st December 2008, a new era. From now on it will be illegal to manufacture, import, sell, buy or use chemicals that have not been registered or pre-registered following EU’s complicated REACH procedure. Yet experiences during the pre-registration process are rather confirming old fears that REACH does not fundamentally improve chemicals security, but will only increase bureaucratic control over every day’s life.

REACH, a Costly Piece of Theatre?

By Edgar L. Gärtner

Believing EU officials we entered, on December 1st 2008, a new era. After this, it will be illegal to manufacture, import, sell, buy or use chemicals that have not been registered or pre-registered following EU’s REACH procedure. Yet the ongoing pre-registration process is rather confirming the old fears that REACH does not fundamentally improve chemicals security and that the good intentions behind this new regulation initiative would lead to a Babylonian confusion or a costly piece of theatre.

REACH is the paradigm for a new type of regulation that will have a worldwide impact – even if it is not really workable due to its fundamental flaws. For the EU’s new chemicals legislation is thought to fully translate into action for the first time the Precautionary Principle (PP) adopted in 1992 at the “Earth Summit” in Rio de Janeiro. Principle 15 of the Rio Declaration stipulates: “Where there are threats of serious and irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation.” Following the EU’s interpretation of the Rio declaration this wording implies a reversal of the burden of proof between government and industry. Till then government officials had to demonstrate that a product is unsafe before removing it from the market. But following the EU’s interpretation of the PP manufacturers would have to prove that their products are safe before putting them on the market. How, under this condition, is it possible to innovate and introduce new types of products, given the fact that nothing on earth can be considered absolutely safe?

In see behind the dogmatic precautionary approach the mentality of nihilism. What is nihilism? “Nihilists don’t believe in nothing, but do not believe in what is”, declared French literature Nobel Prize winner Albert Camus in 1951. In other words: Nihilists are capable to believe nearly in all but truth: This is that life by itself is very risky and that by tenting to reduce chemicals and other risks we are taking the much greater risk of reducing chances for human life in freedom and dignity (please see my book “Öko-Nihilismus. Eine Kritik der politischen Ökologie”, Jena 2007).

Even the original Rio wording of the PP is leaving lot of questions: How does it relate to Principle 12 of the Rio Declaration on Non-Discrimination? Does “cost effective” also mean “cost efficient” and thus respect the Principle of Proportionality fundamental in the EU’s Maastricht Treaty? This treaty refers in Art. 130r (later 174.2) to the Rio Declaration and doesn’t give a proper definition of the PP. In order to clarify these questions, the EU Commission issued, in February 2000, a special “Communication” précising that the PP applies only to risk management and not to risk assessment. The latter must be based on state-of-the-art scientific methodology. Last but not least the EU Commission’s paper underlined that the PP incorporates the Principle of Proportionality.

Thus, the EU Commission in 2000 clearly rejected definitions of the PP that open the way to different forms of irrationalism, like for instance the NGO’s Wingspread Consensus Statement on the PP which claimed: “When an activity raises threats of harm to human health or the environment, precautionary measures should be taken even if some cause and effect relationships are not fully established scientifically.” Following this, chocolate would need to be banned as even amateur chemists could easily convert it, with the help of ordinary kitchen equipment, into dangerous explosives!

Unfortunately, the EU Commission did not pursue this line in its White Paper “Strategy for a Future Chemicals Policy” published on 27 February 2001: “Whenever reliable scientific evidence is available that a substance may have an adverse impact on human health and the environment but there is still scientific uncertainty about the precise nature or magnitude of the potential damage, decision-making must be based on precaution in order to prevent damage to human health and the environment. Another important objective is to encourage the substitution of dangerous by less dangerous substances where suitable alternatives are available.” This is everything but a clear rejection of nihilism for very few things that have been selected by market competition are easily substituted. The “substitution principle” claimed by NGOs and many members of the European Parliament is based on the belief that political regulators can find a better way to select substance or product alternatives than the traditional trial and error interaction between scientific research, engineers’ creativity and consumer demands.

This belief was already subjacent in chapter 19 of Agenda 21 on waste management adopted 1992 in Rio. For the first time a new hazard based Globally Harmonized System (GHS) of substance classification and characterization, which will be introduced in the EU together with REACH, was proposed there. The nihilistic quest of risk minimizing down to zero became predominant in § 23 of the Action Plan adopted ten years later by the Johannesburg Summit on Sustainable Development (WSSD). The precautionary approach was also chosen by the UNEP-Initiative SAICM (Strategic Approach to International Chemicals Management) which, after some preparatory meetings in 2003, 2004 and 2005, was officially launched at the Dubai Conference in February 2006 with an Action Plan aiming the ban of all potentially dangerous substance uses till 2020. This plan is expressly referring to the Stockholm agreement on phasing out Persistant Organic Pollutants (POPs) whose DDT ban was leading to the rebound of mosquito born malaria causing the death of millions of people, mostly children, in Africa and other tropical regions of the world.

Thus, we were hearing at the Dubai Conference Austria’s environment minister Josef Pröll (at that time in charge of the presidency of the EU’s Environment Council) comment the Dubai Declaration on SAICM as follows: “Dubai is a milestone of global environmental policy. There is a clear commitment to the Precautionary Principle. We don’t need to see a tragedy happen to put safety systems in place. In other words, the Dubai Declaration says that if you’re not sure, don’t do it.” If man had always followed this interpretation of the PP, he would never have tamed fire nor invented the wheel!

Given this background it is not surprising to see the EU courts apply the PP in a very contradictorily and confusing way. US analysts Gary E. Marchant and Kenneth L. Mossmann concluded from a survey published in 2005 that the PP “provides an open invitation for arbitrary and unreasonable decisions by both regulators and judges.” A speaking example of an ill interpreted PP is the EU’s ban of six phthalates in toddlers’ toys and child-care articles which was decided in 2005. Following this decision the EU imposed a total ban on the use in children’s toys of three plasticizers employed in the manufacture of PVC (DEHP, DBP and BBP). It also has prohibited the use of three additional plasticizers (DIDP, DNOP and DINP) in babies’ toys intended to be put in the mouth. Only one of the banned substances (DINP) was currently used in toys. Yet on 11 April 2006 the EU Commission clearly confirmed the EU’s scientific risk assessment from 2003 and stated that “DINP is safe in all applications (toys included) and that there is no need for any further measures to regulate the use of this phthalate.”

Industry has spent over 130 million Euros in total to assess the health and environmental risks of plasticizers such as DEHP and DINP. A core reason for these tests was these plasticizers’ widespread use in medical equipment. All have now been in such longstanding use that if there had been any harmful side effects from their application these would have long since come to the fore. The EU now forces manufacturers of pacifiers, plastic ducks and baby equipment to switch to alternative plasticizers, which have not been investigated as thoroughly, have often not been tested sufficiently for these applications and are often considerably more expensive.

Adipates are one possible substitute. Their possible impact on human health and the environment appear to be slight, but so far they have not been subjected to such exhaustive examinations as have the six banned substances. Other alternatives, although extant for some time, have a high migration tendency, and are clearly much less suitable for these applications.

Citrate esters, touted by environmental groups as more environmentally and health-friendly, migrate from treated materials so quickly that these objects easily become brittle. Toys manufactured using citrate esters as plasticizers will therefore put children at risk of swallowing broken-off fragments. Are we therefore justified in substituting a (theoretical) health risk with the much more concrete risk of a child choking?

Greenpeace activists, on whose arguments the EU’s actions were based, don’t appear to be losing any sleep over such questions. In fact, they are demanding that toy manufacturers abandon the use of PVC altogether. According to them, soft PVCs in toys should be replaced with rubber. However, the effect of heat during the vulcanization process of rubber results in carcinogenic nitrosamines, and the substitution of organic for petroleum-based rubber will simply substitute a new, ‘natural’, set of carcinogens.

The plastics industry currently has great hopes for DINCH, a new substance developed through computer modelling by BASF in co-operation with customers from toys and medical device industry. This substance is only slightly more expensive than DEHP, and it can also be almost seamlessly substituted for DEHP without the need to rebuild production plants. DINCH also does not include any of the aromatic hydrocarbons defined as suspect by toxicologists so we can expect it to have a much more benign toxicological profile. BASF has confirmed this in a far reaching programme of tests. These tests indicate that DINCH does not affect the development of sexual organs or fertility, nor does it harm the environment. DINCH has a rate of migration which is at least 8 times lower than that of DEHP, although it has disadvantages such as higher volatility.

The quest for innovation or substitution in the case of these alternative plasticizers cannot be pursued without consideration of the costs, as we would end up substituting the proven with the unproven through ideologically driven wishful thinking. Society needs to pursue fulfilment of consumer demands in a way that balances benefits against the costs to the economy, the environment, and to health.

This raises the question of who decides which materials may be used: Greenpeace? The EU Commission? Science? Nature? And just who is ‘Nature’? Aren’t humans also part of nature, including the average consumer who weighs up product choices and then consciously chooses for instance PVC plastics? Wouldn’t it be better to choose the winner out of several competing market-based solutions?

Thus the European Parliament’s decision to restrict the use of DINP in spite of a thorough and costly risk assessment opens the way to unfounded black listing. Consumer product and packaging material manufacturers could be tented to ban all substances demonized by NGOs or restricted for use prior to their testing and assessment in line with REACH. This could cause major business disruptions as possible alternatives take years to come to market.

Will the REACH procedures dispel this sort of confusion? When the REACH initiative was started in 1999 its principal aim was to halt unequal treatment of ‘old’ and ‘new’ substances. New chemicals were submitted since 1981 to the registration procedure introduced by the EU directive 548/68/EEC while over 100.000 substances in use prior to 18 September 1981 (listed in the EINECS register at the EU Commission’s Joint Institute in Ispra/Italy) were exempt from registration. Only old substances on a ‘priority list’ established by EU Directive 793/93/EEC, Art. 15 had to undergo an assessment. This was done with 141 substances in 20 years. But only 28 of these have been definitely evaluated. With REACH the EU is trying to evaluate the different uses of approximately 30,000 substances over only 10 years. Doing this the original REACH proposal would have required data generation for the drafting of no less than 100 million safety reports, each containing 20 up to 200 pages (plus translations in some 20 languages). Everybody could see that this approach would create a new tower of Babel.

That is why after an internet consultation with industry and major wrangling between different stakeholders the scope of REACH has partially changed. Now extensive safety reports (and the sometimes costly data generation they suppose) are only required for substances with an annual production volume of more than 10 tonnes. Following the amendments to the EP’s First Reading on 17 November and the Council’s agreement on Common Position on 13 December 2005 (finally adopted by EP and EC in December 2006) the registration procedure has been facilitated while the authorisation process has been in tendency complicated. This could lead to more bureaucracy and create a new potential for arbitrary decisions and thus endanger industry’s innovation capacity. The main problem lies in REACH Art.57 which defines substances of Very High Concern (VHC) targeted by authorisation procedures. The definition of VCH substances has been partially altered. Instead of potentially dangerous substances susceptible to be released from products all potentially endocrine disrupting, persistent, bio-accumulative and carcinogenic chemicals as well as substances “giving rise to a similar level of concern” contained in products are focussed now.

Substances meeting the VHC criteria defined in Art. 57 shall be listed in REACH Annex XIV (pending authorisation procedure). Substances supposed to meet the VHC criteria are listed in Annex XV (‘candidate list’) in order to be examined as soon as possible. This creates a new risk of Black Listing. For manufacturers could be tented to seek out politically correct substances in order to replace VHC and ‘candidate’ substances bad mouthed by NGOs long before their examination has come to final conclusions. This is leading to difficult reporting issues.

For instance REACH, Art.7 stipulates that all VHC substances contained in domestic or imported articles surmounting 1 tonne per annum in total and surpassing concentrations of 0,1 % have to be notified. This is leading to problems like this one: Can an importer of cardboard manufactured and finished in China by using printing ink containing the famous postal yellow pigment lead chromate (PbCrO4), which was voluntarily banned in the EU by the printing ink manufacturers association CEPE, know how much of this substance is produced or imported in total? Another example: According to REACH Art.33 all suppliers of products containing VHC substances above a concentration of 0,1 % are obliged to respond free of charge before 45 days to VHC related requests of their customers. Greenpeace has already prepared post cards for mass requests.

Retailers are responding to this challenge by forming a sort of information cartel. Initiated by the German Retailers’ Federations HDE and BHB as well as by the big retailers Metro and REWE, a common data bank named “REACH Solution” was created. It is provided and operated by the specialised company Chemical Service Compliance AG in Cologne. The internet platform offers two portals: one for suppliers and one for their customers. The access to this data bank is also offered via the federation Eurocommerce to non German suppliers and retailers so that a unified European solution seems to be on the way. This illustrates well the general tendency that strong technical and economic regulation is leading to cartelisation of the private sector of the economy.

In spite of all good intentions REACH will probably not reduce but even enlarge grey or black markets for illegal applications of potentially hazardous substances. For on one hand due to the lack of viable substitutes many of those chemicals will remain for some time officially authorised for specific purposes, “if the risks are adequately controlled”. On the other hand it would be very difficult to avoid illegal applications of the same chemicals. There are still markets for ‘dirty’ products. Even completely forbidden chemicals that are applied only in very small amounts in textiles, printing inks or other consumer products can easily be imported from China via the ports of Naples or Piraeus. We cannot suppress those grey or black markets through more and more bureaucracy for excessive bureaucracy is often the real reason behind their emergence, but only by establishing sound open markets.

Well aware of those problems the EU member states have till now proposed only 15 substances as calling for special attention. Geert Dancet, the Executive Director of the EU’s new Chemicals Agency (ECHA) in Helsinki, is convinced that REACH Annex XIV will show in the first time an even smaller number of suspect chemicals while NGOs are calling for no less than 2,000. The official list of substances subject to authorisation will be updated every two years. It is intriguing to see on ECHA’s first “Candidate List” well proven, yet still controversial plasticizers and flame retardants like DEHP or HBCDD closely associated with clearly dangerous arsenic compounds. We can only hope that EU member states and ECHA will come to rational priorization.

Given these meagre prospects it is our duty to ask if REACH has any chance to become conform to the Principle of Proportionality. When starting the REACH process the EU Commission tried to demonstrate that the benefits of the new chemicals regulation overweigh largely its costs. One of the most quoted cost-benefit-analysis is an impact study done by the London based consultancy RPA Risk and Policy Analysts Ltd. In this study registration costs according to REACH were estimated to reach from 1,7 to 7 bn € till 2018. The expected benefits were estimated at 54 bn € in the next 30 years – due principally to a regression of occupational cancer. Yet Angela Logomasini from CEI (Washington) and German statistician Walter Krämer als well as Michael Nasterlack and Andreas Zober, two industry toxicologists from BASF, have shown in Chemistry World, January 2005 that some 80 percent of all occupational cancer cases in the EU are related to the asbestos legacy and that at most 360 out of 32.331 occupational cancer cases per annum can be imputed to the contact with chemicals. It appears now that chemicals industry represented in the EU by CEFIC had many reasons for its strong opposition against REACH.

Unfortunately pressed by big players on the market for end consumer products like for instance Unilever or Procter & Gamble CEFIC finally gave up its resistance against the new legislation. In 2006 CEFIC declared: “REACH is an opportunity for the chemicals industry to regain public confidence.” Behind this assertion I see the will of established big players to defend their monopoly against newcomers on the market, especially from poorer regions of the world by controlling the whole innovation process along a politically correct corridor. With REACH it is very difficult for players from outside the EU to comply with EU regulations for they are not allowed to pre-register or register substances directly but only with the help of what is called an Only Representative (OR) in the EU. Unfortunately ECHA’s guidance documents on REACH say very little about the legal status and the liability of the OR towards its clients, towards other players in the supply chain, towards possible victims of decision errors, and towards the ECHA (cf. Nicolas Gardères: “The Legal Risks of REACH”, in: Kemia-Kemi Vol.35, 2008, 5). It will be nearly impossible to import preparations or formulations of mixed and partly unknown substances ready to use from outside the EU without risking law suits. These are depending on the national tort and contract laws of each EU member state. Till now there is no tendency to harmonise the national legal conditions that depend on different juridical traditions.

This is worth also for data sharing between competitors in Substance Information Exchange Fora (SIEF) and consortia that are even mandatory in the case of data generation involving tests on vertebrate animals. In order to cooperate companies will have to disclose sensitive data that may let their competitors discover critical trade secrets. Which form of agreement between companies is prohibited depends on national legislation. In short: REACH is primarily an job creation program for lawyers. The new chemicals regulation is probably no more than a costly piece of theatre destined to produce the impression that politics is doing something to calm fearful consumers.

Conclusions

REACH contradicts nearly all we know about intelligent collective decision making and successful innovation (Cf. James Surowiecki: “The Wisdom of Crowds. Why the Many are Smarter than the Few”, Random House, 2004). There is no real alternative to trial and error. Market remains the main information source for decision makers. Bureaucracy needs to support it. The market’s role in experimentation and bureaucracy’s role in maintaining stability should be viewed as complementary. Bureaucracy needs to serve the market economy by assessing and crystallising the results of trial and error learning in order to avoid repeating such mistakes in the future.

In contrast to the position of the Green lobby appears to be that political application of the Precautionary Principle and the aims of sustainable development are core drivers for innovations. But how do they know which materials are inherently safe and which have a lasting impact on the environment … when even water can be deadly under certain circumstances? Do the Greens and their political friends consider themselves better able to judge what will prove itself on the open market than market participants themselves? The Greens seem perfectly happy with the authoritarian undercurrents inherent in their position.

Unfortunately, some people cling to the erroneous belief that the expansion of knowledge implies that there is an end – a point where society has attained ‘ultimate knowledge’. This is not the case. The accumulation of knowledge can even lead to total confusion. However important science may be as a reconnaissance and early warning system for society, the most important source of information in a market economy is not science but the market itself. This information is not transferred without cost, but rather set against the cost of the risks undertaken or refused. I think that Angela Logomasini is right when concluding her analysis quoted earlier: “Rather than following a stagnating precautionary principle, regulators should follow a risk-risk principle, assessing even the risk of regulation. They should also recognize that regulation is the last resort because well-being is best promoted by maximizing freedom, which results in human progress.”

In spite of all this, the REACH approach is spreading around the world like a virus. South Korea has already adopted a chemicals law which is a true copy of REACH. Japan is going to do the same. It is expected that under newly elected president Barack Obama even the US will follow the EU. Thus we are risking extending bureaucratic control of energy and substance use (via climate and chemicals policy) all over the world.

(Extended version of a speech presented, on 25 November 2008, at the LVMI’s conference on „Better Regulation“ in Brussels.)

Ressourcenschutz von unten

Der Wirtschaftsnobelpreis ging im Jahr 2008 an Elinor Ostrom und Oliver Williamson. Ostrom, die als erste Frau überhaupt die begehrte Auszeichnung erhielt, hat gezeigt, dass die nachhaltige Nutzung knapper Ressourcen nicht zentraler staatlicher Vorgaben und Kontrollen bedarf. Die Selbstorganisation der Ressourcen-Nutzer vor Ort erweist sich als viel effizienter. Eine Ohrfeige für die CO2-Rationierung durch die UN?

Ressourcenschutz von unten (Teil II)

Warum Almweiden nichts mit dem „Klimaschutz“ zu tun haben, die FAS aber Planwirtschaft gut findet

Von Edgar L. Gärtner

Es gibt Wirtschaftsjournalisten, die meine hier vorgetragene Schlussfolgerung, die diesjährige Verleihung des Wirtschaftsnobelpreises an Elinor Ostrom könne als Ohrfeige für die „Klimapolitik“ interpretiert werden, ganz und gar nicht teilen. Es geht dabei nicht nur um ein paar positive Bemerkungen der Preisträgerin über die „Klimapolitik“, es geht um Grundsätzliches. So schreiben Alexander Armbruster und Christian Siedenbiedel in der „Frankfurter Allgemeinen Sonntagszeitung“ (FAS) vom 18. Oktober 2009: „Was haben Bauern, die sich eine Alpen-Alm teilen, und Staaten, die den Klimawandel bremsen müssen, gemeinsam? Sie stehen im Grunde vor demselben Problem. Denn so, wie nicht jeder Bauer so viele Kühe, so lange er will, auf die Wiese drängeln darf, kann auch nicht jeder Kohlendioxid-Emittent ohne Ende Treibhausgas in den Himmel blasen.“

Dieser Satz enthält gleich mehrere ungeprüfte Behauptungen. Wieso müssen sich Staaten dem Klimawandel entgegenstellen? Und warum sollen sie sich dann ausgerechnet darauf konzentrieren, den Ausstoß des Atemgases Kohlendioxid zu verringern? Wäre es nicht besser, sich von vornherein mit der Frage zu beschäftigen, wie sich die Menschen am besten an Veränderungen ihrer Lebensbedingungen, die unabhängig von ihren Wünschen und Handlungen ohnehin stattfinden, anpassen können? „Die Wissenschaft geht momentan davon aus, dass bis zum Jahre 2050 noch rund 750 Gigatonnen Kohlendioxid (in der Atmosphäre) abgelagert werden können, wenn es nicht mehr als zwei Grad wärmer werden soll“, berichten die beiden Wirtschaftsredakteure. Auf welches wissenschaftliche Experiment stützt sich diese Aussage? Und auf welche historischen und prähistorischen Forschungen stützt sich die im FAS-Artikel zitierte Auffassung des Evolutionsbiologen Jared Diamond, die vollständige Entwaldung der Osterinsel sei ein Beispiel für die „Tragik der Allmende“? Man wird auf keine dieser Fragen eine Antwort erhalten.

Die Legenden, die Jared Diamonds in seinem Bestseller „Collapse“ weiterstrickte, wurden übrigens von Julian Morris, Wolfgang Kasper und Benny Peiser schon vor Jahren Punkt für Punkt widerlegt. Die Auslöschung der Osterinsel-Kultur ging, wie es scheint, mehr auf Invasionen von Sklavenhändlern denn auf selbstmörderische Ressourcenübernutzung zurück. Vermutlich wird man in der ganzen Weltgeschichte kaum ein Beispiel dafür finden, dass Menschen, obwohl zum vorausschauenden Denken und hinweisenden Kommunizieren befähigt, sehenden Auges den Ast absägten, auf dem sie saßen. Es bedurfte in der Regel äußeren Zwanges durch Naturkatastrophen oder fremde Eroberer oder aber innerer Repression durch religiös beziehungsweise pseudoreligiös begründete Diktaturen, um ganze Gesellschaften in den Selbstmord zu treiben. Das scheint beim Untergang der Maya-Kultur in Mittelamerika der Fall gewesen zu sein.

Wer den „Klimaschutz“ in Zusammenhang bringt mit der Abwendung eines „Kollapses“ durch Ressourcen-Rationierung, hat in Wirklichkeit weniger ein Problem mit dem Klima, sondern mit der menschlichen Freiheit. Angstkampagnen haben immer dazu gedient, Einschränkungen, wenn nicht schlicht die Abschaffung der Freiheit zu rechtfertigen. Derzeit gibt es für eine Begründung der globalen Rationierung des CO2-Ausstoßes nicht einmal den Schein eines wissenschaftlichen Arguments. Zwar wissen wir, dass die Erhaltung der Lebensbedingungen auf dem Planeten Erde von einem empfindlichen Gleichgewicht der Luftzusammensetzung abhängt. Das gilt aber nur für den Sauerstoff. Stiege dessen Konzentration in der Atmosphäre um nur ein, zwei Prozentpunkte, ginge die Erde spontan in Flammen auf. Wegen dieser und anderer Sauerstoff verbrauchender Prozesse ist die Sauerstoffkonzentration über Jahrmillionen annähernd konstant geblieben. Sie könnte allerdings durchaus von etwa 21 auf 16 Prozent sinken, ohne dass uns der Atem ausginge. Demgegenüber war die Konzentration des als Kohlenstoffquelle für die pflanzliche Fotosynthese unabdingbaren Spurengases CO2 in der Erdgeschichte großen Schwankungen unterworfen, die ganz unterschiedliche Ursachen haben können. Würde man den CO2-Gehalt der Atmosphäre, der heute bei gerade einmal 385 ppm (parts per million) liegt, verzehnfachen, würde mit Sicherheit kaum etwas passieren – außer dass ein Teil der Pflanzen ihre Fotosyntheseleistung deutlich steigern könnte, was zur Verbesserung der Welternährung führen würde. Die Menschen würden den höheren CO2-Gehalt jedenfalls nicht negativ wahrnehmen. Die von der Arbeitsmedizin festgelegte zulässige maximale Arbeitsplatzkonzentration (MAK) von CO2 liegt bei 5.000 ppm, früher sogar bei 10.000 ppm. (Diese Werte sollte man im Hinterkopf behalten. Sollte an der gängigen Vorstellung über die Rolle des CO2 bei der Klimaentwicklung etwas dran sein, müsste der CO2-Ausstoß in den kommenden Jahren kräftig erhöht werden, um eine Kleine Eiszeit zu verhindern.)

Das Beharren von Berufspolitikern und Spitzenbürokraten auf strengen CO2-Obergrenzen kann deshalb nur den Zweck haben, von folgender Binsenweisheit abzulenken: Klimawandel hat es immer gegeben. Perioden der Abkühlung stellten die Menschen vor viel größere Probleme als Warmphasen. Setzte man statt auf die (unnötige) Bekämpfung der vermeintlich CO2-gesteuerten globalen Erwärmung auf die flexible Anpassung der Menschen an den ohnehin ständig ablaufenden Klimawandel, dann würde offenkundig, dass zentralistische Vorgaben nicht weiter helfen. Vielmehr käme es darauf an, die Menschen vor Ort selbst frei entscheiden zu lassen, in welcher Form sie dem Klimawandel individuell und/oder gemeinschaftlich begegnen wollen. (20. Oktober 2009)

Internet:

Teil I: Eine Ohrfeige für den „Klimaschutz“

Alexander Armbruster/Christian Siedenbiedel: Auf der Alm, da gibt’s nur selten Streit

Jared Diamond: „Collapse. How Societies Choose to Fail or Survive”

Kollaps. Warum Gesellschaften überleben oder untergehen

Julian Morris: How Jared Diamond fails to convince

Wolfgang Kasper: Human Progress and Collapse

Benny J. Peiser: From Genocide to Ecocide

Interview mit Elinor Ostrom zur Kopenhagen Konferenz

Was würde Ostrom sagen, wenn sie davon ausginge, dass an der CO2-Treibhaus-Hypothese nichts dran ist?

Teil I:

Wirtschaftsnobelpreis 2009 an Elinor Ostrom und Oliver Williamson

von Edgar L. Gärtner

Eine Ohrfeige für den „Klimaschutz“?

Ob die Schwedische Akademie auch bei der Auswahl der diesjährigen Träger des Alfred-Nobel-Gedächtnispreises für Ökonomie politische Hintergedanken verfolgte, steht nicht fest. Es scheint eher, als sei dem Nobel-Komitee die Tragweite seiner Entscheidung nur halb bewusst gewesen. Denn insbesondere die Arbeiten der inzwischen 76-jährigen Politikwissenschaftlerin Elinor Ostrom, die die begehrte Auszeichnung als erste Frau überhaupt erhielt, lassen die offiziell als alternativlos dargestellte „Klimapolitik“ nach dem Muster des Kioto-Protokolls in einem ungünstigen Licht erscheinen. Sie hat die Frage, wie gemeinschaftlich genutzte knappe Ressourcen vor der Erschöpfung bewahrt werden können, durch empirische Beobachtung von Fischern und anderen Nutzergruppen ganz anders beantwortet als die UN und ihre Bürokratien.

Seit den Anfängen der Umweltpolitik in den USA ist die von Ostrom untersuchte Problematik unter dem Schlagwort „Tragik der Allmende“(Tragedy of the Commons) bekannt. Sie gilt noch heute als wichtigster Ausgangspunkt umweltökonomischer Überlegungen. Das Schlagwort wurde in einem Aufsatz geprägt, den der amerikanische Mikrobiologe Garret Hardin 1968 in „Science“ veröffentlichte. Hardin behauptete darin, auf eine entsprechende Theorie des reaktionären englischen Landgeistlichen Thomas Robert Malthus (1766-1834) verweisend, die Weltbevölkerung lasse sich mit Bakterien vergleichen, die sich in einer Kulturflüssigkeit so lange exponentiell vermehren, bis ihre Population infolge von Nährstoffmangel zusammenbricht. Die größte Gefahr für die Umwelt geht, so gesehen, von der menschlichen Freiheit aus. Denn freie Menschen, so die Vorstellung Hardins, werden in egoistischer Manier versuchen, ein möglichst großes Stück des Kuchens zu ergattern. Almbauern werden danach trachten, auf der Gemeindeweide (Allmende) den Viehbestand zu maximieren, bis kein Gras mehr wächst. Fischer werden versuchen, ihre Fangflotte und ihre Netze zu vergrößern beziehungsweise deren Maschen zu verkleinern, bis die Fischgründe leer gefischt sind.

Hardin beschreibt die Problematik in folgenden Worten: „Als rational denkendes Wesen strebt jeder Viehhalter danach, seinen Gewinn zu erhöhen, … mehr oder weniger bewusst stellt er sich die Frage: Was nützt es mir, wenn ich meiner Herde ein weiteres Stück Vieh hinzufüge. Diese Nutzung hat eine positive und eine negative Komponente.

1. Die positive Komponente besteht in der Funktion der Hinzufügung eines Stückes Vieh. Da der Viehhalter den ganzen Erlös vom Verkauf eines zusätzlichen Tieres erhält, beträgt der positive Nutzwert fast plus 1.

2. Die negative Komponente besteht in der Funktion der zusätzlichen Abgrasung durch ein weiteres Stück Vieh. Da nun die Auswirkungen des Abgrasens alle Viehhalter betreffen, beträgt der negative Nutzwert für den einzelnen Viehhalter nur einen Bruchteil von minus 1.

Wenn er die anteiligen Nutzwerte addiert, wird der rational denkende Viehhalter zu dem Schluss kommen, es sei für ihn das einzige Vernünftige, seiner Herde ein weiteres Tier hinzuzufügen und noch eins und so weiter. Aber zu diesem Schluss wird jeder rational denkende Viehhalter bei freier Nutzung der Allmende kommen, und darin liegt die Tragödie.“

Von diesen Überlegungen ausgehend, scheint die Lösung auf der Hand zu liegen: Der Geist Adam Smiths muss aus der Wirtschaft verbannt werden. Der Staat muss eingreifen und die knappen Ressourcen rationieren, zum Beispiel durch die Zuteilung oder Versteigerung einer streng begrenzten Zahl handelbarer Nutzungsrechte. Diese Hauruck-Methode liegt dem Kioto-Abkommen über die Reduktion von „Treibhausgasen“ und dem darauf aufbauenden Handel mit CO2-Emissionsrechten zugrunde.

Elinor Ostrom zeigte demgegenüber in ihrem bekanntesten Werk „Governing the Commons“, dass Almbauern, Fischer oder Wassernutzer durchaus in der Lage sind, die Verwertung ihrer Ressourcen ohne staatliche Auflagen und Eingriffe selbst zu regulieren – und zwar viel effizienter als der Staat das könnte. Weit davon entfernt, sich so stur egoistisch zu verhalten wie Hardins Modell-Strichmännchen, reden Menschen aus Fleisch und Blut, also auch Viehzüchter, Ackerbauern und Fischer nämlich miteinander, handeln gemeinsame Nutzungsregeln aus und überwachen deren Einhaltung selbst, wenn sie ein Problem auf sich zukommen sehen. Gesunder Menschenverstand ist unter einfachen Menschen offenbar viel weiter verbreitet, als es sich viele Wirtschaftstheoretiker vorstellen können. Dafür gibt es eine Fülle historischer Beispiele. Probleme der Übernutzung von Ressourcen traten meist nur in der Folge von Naturkatastrophen, Kriegen oder Revolutionen auf. Althistorikern ist zum Beispiel bekannt, dass die Versalzung von Ackerböden im Zweistromland keine unausweichliche Konsequenz Jahrtausende währender intensiver Bewässerungslandwirtschaft war, sondern die Folge von Kriegen und gesellschaftlichen Umbrüchen. In diesen Zeiten wurde die Unterhaltung der Kanäle vernachlässigt, so dass das labile Gleichgewicht zwischen Wasserzu- und –abfluss gestört wurde. Ähnlich kam es in Europa in der Regel nicht deshalb zu wiederholten Hungersnöten, weil die Menschen zu viele Kinder in die Welt setzten und zu viel aus ihren Böden herauszuholen versuchten, sondern weil die Ertragskraft der Äcker infolge der „Kleinen Eiszeit“ deutlich abnahm oder weil Konflikte wie der 30-jährige Krieg eine ordentliche Bestellung der Äcker nicht mehr zuließen.

Im Kioto-Prozess versuchen Berufspolitiker und Bürokraten diese historischen Erfahrungen in den Wind zu schlagen, indem sie von vornherein ausschließen, dass die arbeitenden Menschen Probleme ein Stück weit auf sich zukommen lassen und selbst überlegen können, wie sie Ihnen als Einzelne und als Angehörige von Kollektiven begegnen wollen. Die Menschen sollen dazu erzogen werden, ihren fünf Sinnen zu misstrauen, ihren Verstand abzuschalten und nur offiziellen Modellrechnungen Glauben zu schenken. Eine selbst ernannte Elite von Weltrettern rechnet den zu Untertanen degradierten Menschen gerade im Vorfeld der Kopenhagen-Konferenz über eine Fortschreibung und Verschärfung des Kioto-Protokolls vor, dass weltweit nur noch 750 Milliarden Tonnen CO2 in die Atmosphäre freigesetzt werden dürfen, wenn der Anstieg der bodennahen Durchschnittstemperatur auf zwei Grad Celsius begrenzt werden soll. Dieser Vorgabe sollen sich die Menschen fügen.

Um uneinsichtige Erdbürger gefügig zu machen, gilt der Handel mit rationierten Emissionsrechten als Mittel der Wahl. Gegenüber dem spontanen Aushandeln von Regeln der Ressourcennutzung vor Ort zeichnet sich der Handel mit „heißer Luft“ durch maximale Intransparenz aus. Er wird im Unterschied zu den bewährten Formen lokaler Selbstorganisation mit ziemlicher Sicherheit nicht die an ihn geknüpften offiziellen Erwartungen erfüllen, sondern vor allem eines bewirken: eine gigantische Umverteilung von Geldern von unten nach oben, d.h. in die Kassen eines internationalen Finanzkartells. Um dessen Interessen und nicht um das (ohnehin nicht definierbare) Weltklima geht es offenbar beim „Klimaschutz“. Elinor Ostroms starkes Plädoyer für die Anwendung des Subsidiaritätsprinzips beim Ressourcenschutz könnte durchaus helfen, diesen Schwindel auffliegen zu lassen.

Auch die Arbeiten Oliver Williamsons liegen, soweit ich das einschätzen kann, nicht gerade auf der Linie des derzeitigen Mainstreams rein theoretischer Modellspielereien, sondern beschäftigen sich mit konkreten Problemen der Corporate Governance. So zum Beispiel mit dem Problem der Transaktionskosten in Unternehmer-Netzwerken und der damit zusammenhängenden Frage nach der geeigneten Unternehmensgröße in Abhängigkeit vom jeweils gewählten Geschäftsmodell. Auch mit der oft überlebenswichtigen Entscheidung für oder wider den Aufbau eigener Entwicklungsabteilungen hat sich Williamson auf undogmatische Weise beschäftigt. Wie Ostrom geht auch er davon aus, dass der Markt beim Versuch, Probleme der Ressourcenknappheit zu lösen, nicht vergötzt werden darf. Beide begreifen den Markt vielmehr als eine Institution neben anderen, die sich im Laufe der Geschichte bewährt haben. Gerade damit rücken sie in die Nähe der österreichischen Schule der Politischen Ökonomie mit dem Wirtschaftsnobelpreisträger Friedrich August von Hayek und der Public Choice Theorie von Wirtschaftsnobelpreisträger James Buchanan. Denn die österreichische Schule hat sich, aufbauend auf der subjektiven Wertlehre, nie mit Modellmenschen wie dem berühmt-berüchtigten Konstrukt Homo oeconomicus beschäftigt, sondern mit den mehr oder weniger vernünftigen Entscheidungen von Individuen mit Leib und Seele. (veröffentlicht in: WirtschaftsBild 59. Jg. November 2009)

Internet:

Die Tragik der Allmende

Wofür Ostrom und Williamson geehrt wurden

Literatur:

Garret Hardin: The Tragedy of the Commons. In: Science. 162/1968. S. 1243-1248 (deutsch in: Michael Lohmann (Hrsg.): Gefährdete Zukunft. Hanser, München 1970, S. 30-48 und dtv Bd. 920, München 1973, S. 29-46)

Elinor Ostrom: Governing the Commons: The Evolution of Institutions for Collective Action. Cambridge University Press, Cambridge 1990, ISBN 0-521-40599-8, deutsch.: Die Verfassung der Allmende. Mohr, Tübingen 1999, ISBN 3-161-46916-X

=================================================================================

Ein Nobelpreis für nichts? von Edgar L. Gärtner

Vermutlich bekommt Barack Obama den Friedensnobelpreis nicht unbedacht

Nachdem bereits Polit-Gauner wie Yassir Arafat und Al Gore mit der begehrten Auszeichnung bedacht wurden, konnte man sich kaum noch vorstellen, dass es dem Osloer Nobel-Komitee noch gelingen würde, seine Fehlentscheidungen noch zu toppen. Doch mit der Wahl des 44. US-Präsidenten Barack Hussein Obama zum diesjährigen Träger des Friedensnobelpreises scheint das den Juroren gelungen. Denn um jetzt ausgezeichnet zu werden, muss Obama bereits am 1. Februar 2009, kaum 12 Tage im Amt, auf der Kandidatenliste für den Preis gestanden haben. Selbst Anhänger Obamas diesseits und jenseits des Atlantik gaben sich daher höchst verwundert über die Entscheidung des Osloer Komitees. Einige Freunde haben Obama nahegelegt, den Preis abzulehnen. Der Ausgezeichnete selbst konnte sich der Lächerlichkeit nur durch ein Lippenbekenntnis zur Demut entziehen.

Kaum jemand behauptet, Obama habe die Auszeichnung verdient. Über Versprechen und Ankündigungen sind seine Friedensinitiativen bisher in der Tat nicht hinausgelangt. Vielmehr wurde ein neuer, die vorsorgliche Kapitulation des Westens nicht ausschließender Ton in der US-Außenpolitik mit Vorschuss-Lorbeeren bedacht. Obamas Freunde fürchten (wohl nicht zu Unrecht), diese Lorbeeren könnten schon bald zur Hypothek der gerade erst begonnenen Amtszeit ihres Lieblings werden. „Mehr Bürde als Ehre“, überschreibt Obama-Fan Claus Christian Malzahn seinen Kommentar auf SPIEGEL-online.

Worum es dem Osloer Nobel-Komitee wohl in Wirklichkeit ging, offenbart ein Vergleich zwischen Obama und der Frau, die genau 30 Jahre vor ihm mit dem Friedensnobelpreis ausgezeichnet wurde: Mutter Teresa. In ihrer noch heute zu Tränen rührenden Dankesrede erklärte die inzwischen selig gesprochene, wenn auch nach wie vor umstrittene katholische Ordensschwester am 10. Dezember 1979 in Oslo: „Der größte Zerstörer des Friedens ist heute der Schrei des unschuldigen, ungeborenen Kindes. Wenn eine Mutter ihr eigenes Kind in ihrem eigenen Schoß ermorden kann, was für ein schlimmeres verbrechen gibt es dann noch, als wenn wir uns gegenseitig umbringen?“ Eine der ersten Amtshandlungen des 44. US-Präsidenten bestand demgegenüber darin, ein Gesetz außer Kraft zu setzen, das es der US-Regierung verbot, Entwicklungshilfeleistungen an Empfängnisverhütungs- und Abtreibungs-Kampagnen zu koppeln. So gesehen, erscheint die diesjährige Entscheidung des Nobel-Komitees als durchaus gewollte Korrektur der Wahl, die es vor drei Jahrzehnten traf. Obama bekommt den Nobelpreis also nicht für nichts, sondern für das Nichts, für praktizierten Nihilismus, der in den vergangenen Jahrzehnten unter Synonymen wie „Null-Emission“, „Nachhaltigkeit“ und „Klimaschutz“ die Weltarena erobert hat. (10. Oktober 2009)

Internet:

Obama schon nach 12 Tagen Amtszeit in der engeren Auswahl

Mehr Bürde als Ehre

Mutter Teresa bei der Entgegennahme des Friedensnobelpreises 1979

================================================================================

Der größte Mensch, der je gelebt hat, erntet Undank

Dankbarkeit scheint in der heutigen Welt, in der so vieles knapp wird, zu einer der seltensten Gemütsregungen zu werden. In meiner frühen Kindheit in der Nachkriegszeit war es noch keineswegs selbstverständlich, dass zu den Mahlzeiten immer genügend Essen auf dem Tisch stand. Deshalb empfand ich es, auch ohne den Katechismus gepaukt zu haben, als selbstverständlich, dass jedes Essen mit einem Dankesgebet begann. Heute gilt das tägliche Brot den Bürgern von Wohlfahrtsstaaten als „Commodity“, auf die sie einfach einen Anspruch haben. Man bittet nicht darum und dankt auch niemandem dafür. Erst recht verschwendet man keinen Gedanken an die menschlichen Leistungen und institutionellen Bedingungen, denen wir unsere Nahrungsmittelüberschüsse verdanken.

„Undank ist der Welten Lohn“, lautet ein oft zitierter Spruch. Auch Norman Borlaug, der als Vater der „Grünen Revolution“ 1970 mit dem Friedensnobelpreis geehrt wurde und am 12. September 2009 in Dallas/Texas im biblischen Alter von 95 Jahren an Krebs gestorben ist, kannte wahrscheinlich diesen Spruch beziehungsweise dessen amerikanische Entsprechung. So hat er sich wohl nicht sonderlich darüber geärgert, dass sein Name am Ende seines langen, erfüllten Lebens sowohl in seiner amerikanischen Heimat als auch in Europa beinahe in Vergessenheit geraten war. Die Auskünfte, die die Online-Enzyklopädie Wikipedia über ihn gibt, passen bequem auf eine Druckseite. Und doch galt dieser Mann, in den Worten des bekannten US-Comedian Penn Jilette, einmal als „der größte Mensch, der je gelebt hat.“ Nach Jesus Christus, sollte man wohl hinzufügen. Aber dieser war ja nicht nur Mensch, sondern Gottessohn. Das US-Magazin „Atlantik Monthly“ schätzte 1999, dass Borlaug durch die Züchtung widerstandsfähiger Hochleistungs-Getreidesorten nicht weniger als eine Milliarde Menschenleben gerettet hat.

Norman Ernest Borlaug wurde 1914 als Sohn eines kleinen Farmers in Iowa geboren. Nach dem Studium der Agrarwissenschaften arbeitete er zunächst im Forschungslabor der DuPont de Nemours Foundation und fand dann 1943 einen Job in einem kleinen Pflanzenzüchtungsinstitut der Rockefeller Foundation in Mexiko. Dank Borlaugs bahnbrechenden Erfolgen bei der Züchtung neuer Getreidesorten wuchs dieses Institut zum Internationalen Mais- und Weizen-Zentrum CIMMYT von Weltbedeutung heran. Borlaugs Erfolgsserie begann mit der Einkreuzung eines von einer japanischen Weizensorte stammenden Zwergwuchs-Gens in mexikanischen Weizen. Nach weiteren geduldigen Kreuzungsversuchen entstand eine robuste Hochleistungssorte, deren kurze, kräftige Halme besonders schwere Ähren tragen konnten. Seit 1962 wird dieser Weizen in Indien angebaut. Innerhalb eines einzigen Jahrzehnts stiegen die landwirtschaftlichen Erträge auf dem zuvor von chronischen Hungersnöten geplagten Subkontinent Dank des besseren Saatguts auf fast das Dreifache. Das Land wurde zum Weizenexporteur. Später erzielte Borlaug in China ähnliche Erfolge mit Reis.

Vor allem Dank dieser „Grünen Revolution“ stieg die Kalorienaufnahme je Kopf der Weltbevölkerung zwischen 1965 und 2005 von 2.065 auf 2.798. Trotz der in diesem Zeitraum abgelaufenen Bevölkerungsexplosion konnte die Welternährungsorganisation FAO den Hunger im Jahre 2006 für beinahe besiegt erklären. Seither hat sich die Situation aus ganz anderen Gründen leider wieder verschlechtert. Jedenfalls war Borlaugs Landsmann Paul Ehrlich, der die Welt 1968 in seinem Bestseller „Die Bevölkerungsbombe“ mit düsteren Prognosen in Angst und Schrecken versetzt hatte, von der Wirklichkeit gründlich widerlegt worden.

Doch beeinflussten Ehrlichs Weltuntergangs-Prognosen und nicht die 1970 mit dem Friedensnobelpreis gekrönte erfolgreiche Arbeit Borlaugs seit den 70er Jahren mehr und mehr die öffentliche Meinung. Borlaug hätte später nicht mehr die geringste Chance gehabt, mit einem Nobelpreis geehrt zu werden. Stattdessen musste er sich immer häufiger wegducken, um nichts von den Schmutzkübeln abzubekommen, die „grüne“ Misantropen über ihm ausgossen. Diese warfen ihm vor, die Bauern in die Anhängigkeit der Saatgut-, Pestizid- und Kunstdüngerkonzerne zu treiben und eine Klimakatastrophe heraufzubeschwören. In Indien versuchte die Oberkasten-Angehörige Vandana Shiva den armen Bauern die Anwendung von Hochleistungs-Saatgut auszureden, insbesondere solches, das mithilfe der Gentechnik erzeugt wurde.

Norman Borlaug hat sich im „Unruhestand“ in der Tat ganz selbstverständlich für die Grüne Gentechnik stark gemacht, weil er auch darin einen viel versprechenden Weg sah, die weiter wachsende Weltbevölkerung auf der vorhandenen Ackerfläche zu ernähren. Wäre es in der Nachkriegszeit nicht zu den zitierten Produktivitätssteigerungen gekommen, rechnete er vor, hätten längst die letzten Wälder der Erde in Äcker verwandelt werden müssen. Er befürwortete die Grüne Gentechnik gerade auch aus Gründen des Naturschutzes. Doch damit konnte er sich in seinen letzten Lebensjahren keine Sympathie erwerben.

Nahe liegender Schluss: Wer heute auf den Friedensnobelpreis aus ist, der sollte es tunlichst vermeiden, etwas für die Menschen Nützliches zu erfinden. Als nobelpreiswürdig gelten vielmehr Studien, die den Menschen Angst und Schuldkomplexe einjagen. Das zeigt die Ehrung Al Gores und des „Weltklimarates“ IPCC vor zwei Jahren. Als besonders aussichtsreich erscheinen heute Studien, die zeigen, dass es für das Weltklima besser ist, die Menschheit zu verkleinern als sich um die Ernährung der weiter wachsenden Menschenzahl zu kümmern. Studien, die aufzeigen, wie die Menschen mithilfe ihres Erfindergeistes sich an wärmere oder kühlere Zeiten anpassen können, haben eine schlechte Presse. Dank Norman Borlaug hatte Paul Ehrlich mit seiner Prognose zum Glück nicht recht. George Orwell dagegen leider doch.

Internet:

Norman Ernest Borlaug auf Wikipedia

Michael Miersch über den Mann, der Millionen Menschenleben rettete

Gregg Easterbrook about the Man who defused the ‚Population Bomb’

Paul Driessen: Adapting to climate change through technology

Contraception cheapest way to combat climate change

(4. Oktober 2009)

===========================================================================

Deutsche Waldwirtschaft auf dem Wege zur Nachhaltigkeit?

Etwa ein Vierteljahrhundert ist es nun her, da schienen die Tage des deutschen Waldes gezählt. Im Schwarzwald und in anderen deutschen, ostfranzösischen und schweizerischen Mittelgebirgen war Förstern und Spaziergängern eine Häufung vergilbter und kahler Nadelbäume ins Auge gesprungen. Da bekannte Ursachen der Austrocknung von Baumkronen wie etwa die Verbreitung des Borkenkäfers ausschieden, belegte die Bürokratie das Syndrom kurzerhand mit dem wenig phantasievollen Begriff „neuartige Waldschäden“. Umso mehr Phantasie entwickelte dagegen die seit der Gründung der Partei „Die Grünen“ im Jahre 1980 erstarkte Öko-Bewegung. „Erst stirbt der Wald, dann der Mensch“, sagt ein Sprichwort, von dem man nicht genau weiß, ob es schon älter ist oder eigens erfunden wurde, um auf das „Waldsterben“ als vermeintlich objektive Begründung der in Deutschland sich ausbreitenden Endzeitstimmung aufmerksam zu machen. Verschiedene Naturschutzverbände und Bürgerinitiativen hatten diesen Spruch im Herbst 1983 auf einer „Aktionskonferenz gegen das Waldsterben“ in Freudenstadt im Schwarzwald aufgegriffen und dafür gesorgt, dass die an die Wand gemalte Gefahr eines „ökologischen Holocaust“ zum dominierenden Thema des damals gerade laufenden Bundestagswahlkampfes wurde.

Schon 1981 hatte der Göttinger Bodenkundler Bernhard Ulrich prophezeit, in spätestens fünf Jahren würden ganze Wälder absterben. Der Hauptgrund dafür sei der „saure Regen“ infolge des massiven Ausstoßes von giftigem Schwefeldioxid (SO2) durch die hohen Schornsteine von Kohlekraftwerken. Das Schreckensbild kahler deutscher Mittelgebirge, bedeckt von eintönigen Grasflächen, in der kein Baum mehr Wurzeln fasst und kaum noch ein Vogel singt, schien in rasendem Tempo von der Wirklichkeit eingeholt zu werden. In den Kammlagen des Erzgebirges, an der Grenze zwischen den heute schon beinahe vergessenen sozialistischen Volksrepubliken DDR und CSSR, konnten die wenigen, die damals dorthin kamen, diese Zukunft bereits besichtigen. Doch das Absterben ganzer Baumbestände hatte dort greifbare Ursachen. Sozialistische Mangelwirtschaft hatte dazu geführt, dass große Kohlekraftwerke ihren Rauch völlig ungefiltert in Rübezahls Heimat bliesen.

Die im Westen beobachteten Symptome erwiesen sich als vorübergehend und hatten mit der großflächigen Waldzerstörung im Osten nichts zu tun. Das belegten in den folgenden Jahren vor allem schweizerische und französische Fortwissenschaftler, während ihre deutschen Kollegen mit der bürokratischen Zeremonie der jährlichen Waldschadenserhebung fortfuhren. Es gelang einer Initiative von privaten Waldbesitzern und Umweltverbänden, die vom Staat Schadensersatz für forstwirtschaftliche Ertragsausfälle durch das „Waldsterben“ gefordert hatte, nicht zu belegen, dass sich der Zuwachs der Holzvorräte in Deutschland verlangsamte. Wie auch: Die in größeren Abständen durchgeführten Bundeswaldinventuren zeigten, dass sich das Baumwachstum im Gegenteil beinahe explosionsartig beschleunigte. Die Förster mussten die ihren Planungen zugrunde liegenden Ertragstafeln deutlich nach oben korrigieren.

Die Bundeswaldinventur von 2004 förderte zutage, dass Deutschland heute mit fast 3,4 Milliarden Kubikmetern über die mit Abstand größten Holzvorräte in Europa verfügt. Es stellt damit selbst die „klassischen“ Waldländer Finnland und Schweden in den Schatten. Seit 1960 hat die Waldfläche in Deutschland im Schnitt in jedem Jahr um 10.000 Hektar zugenommen. Ob die Ende Februar 1983 eilig verabschiedete Großfeuerungsanlagen Verordnung bzw. der darin vorgeschriebene Bau riesiger Rachgasentschwefelungsanlagen dazu nennenswert beigetragen hat, blieb höchst umstritten. Jedenfalls wachsen bei uns heute in jedem Jahr auf jedem Hektar Wald mehr als 12, auf dem „grünen Drittel“ (d.h. etwa 31 Prozent) Deutschlands also insgesamt über 120 Millionen Kubikmeter Holz nach. Davon wird bislang nur etwas mehr als die Hälfte wirtschaftlich genutzt. Erheblich mehr, nämlich etwa 80 Millionen Kubikmeter, gilt aber als problemlos nutzbar.

Die deutsche Forstwirtschaft entspricht also formal durchaus dem Kriterium der Nachhaltigkeit, nicht mehr Holz zu schlagen als nachwächst und verfügt sogar noch über einen beträchtlichen Sicherheitsabstand. Dieser Abstand ist erst in jüngster Zeit durch die verstärkte Nutzung von Brennholz kleiner geworden. Hintergrund ist der starke Anstieg der Heizöl- und Gaspreise. Bei der Brennholzgewinnung auf eigene Faust kommt es nicht selten auch zu Freveltaten wie dem Fällen von kräftigen Randbäumen, die für den Windschutz von Baumbeständen wichtig sind. Alles in allem kann sich die deutsche Waldwirtschaft heute aber zu recht rühmen, das zu beherzigen, was der sächsische Oberberghauptmann Carl von Carlowitz, stark beeinflusst von der Romantik, schon im Jahre 1713 in seiner „Sylvicultura oeconomica“ forderte, nämlich „den Anbau des Holzes so anzustellen, dass es eine continuierliche, beständige, nachhaltige Nutzung gebe.“

Bis zur systematischen Umsetzung dieser Forderung ging aber noch mehr als ein Jahrhundert ins Land. Das ganze 18. Jahrhundert war gekennzeichnet durch einen sich zuspitzenden Holzmangel – eine Folge Jahrhunderte währender Übernutzung des Waldes als Brennholz-, Baumaterial- und Streulieferant sowie als Viehweide. Es war paradoxerweise die im 19. Jahrhundert mit der Erfindung der Dampfmaschine einsetzende industrielle Revolution, die den deutschen Wald vor dem weiteren Niedergang rettete. Dampfgetriebene Pumpen und Aufzüge machten den Kohlebergbau in großem Stil möglich. Durch den zunehmenden Einsatz von Kohle als Brennmaterial sank der Brennholzbedarf. Die aufkommenden Industrien benötigten statt des Knüppelholzes, das die heruntergekommenen Wälder vielerorts gerade noch lieferten, jede Menge gutes Stammholz. So brauchte man z.B. für den Bau der ersten Eisenbahnen ironischerweise doppelt so viel Holz wie Eisen.

Die Holzproduktion konnte nicht mehr dem Zufall überlassen bleiben, sondern musste so weit wie möglich auf eine rationale betriebswirtschaftliche Grundlage gestellt werden. Zu den noch heute zitierten Begründern der wissenschaftlichen Forstbetriebslehre zählen Heinrich Cotta, der in Tharandt bei Dresden lehrte, und der preußische Oberlandforstmeister Georg Ludwig Hartig, der in Berlin wirkte. Anders als von Carlowitz waren diese weniger von der Romantik als vielmehr von den liberalen Ideen des schottischen Moralphilosophen Adam Smith, dem Begründer der Nationalökonomie, beeinflusst. Um eine Nation auf den Weg zum Wohlstand zu führen, kommt es danach lediglich darauf an, dem Gewinnstreben und dem gesunden Menschenverstand der Einzelnen freien Lauf zu lassen. „Denn“, so Smith, „verfolgt er sein eigenes Interesse, so fördert er das der Gesellschaft weit wirksamer, als wenn er dieses wirklich zu fördern beabsichtigte.“

Smith hatte in seiner „Untersuchung über Wesen und Ursachen des Reichtums der Nationen“ (1776) hergeleitet, dass Arbeit, Kapital und Boden ebenbürtige Quellen für Lohn, Zins und Rente sind. Als Kapital der Forstwirtschaft erscheint danach der Holzvorrat lebender Bäume, als dessen Zinsen der jährliche Zuwachs. Folglich müsse die Forstwirtschaft danach trachten, von den Zinsen zu leben und ihr Kapital zu pflegen und zu mehren. Während Cotta in seiner „Bodenreinertragslehre“ den Nutzen forstwirtschaftlicher Investitionen allein aus der erforderlichen Umtriebszeit errechnete und somit der Kahlschlagswirtschaft mit schnell wachsenden Baumarten wie Pappeln, Fichten oder Kiefern Vorschub leistete, legte Hartig in seiner „Waldreinertragslehre“ mehr Gewicht auf die längerfristige Entwicklung des Überschusses der Einnahmen über die Ausgaben der Betriebe. Dadurch schlugen auch die deutlich höheren Verkaufspreise langsam wachsender Buchen und Eichen sowie die größere Widerstandsfähigkeit von Mischwäldern gegenüber Stürmen und Schädlingsbefall positiv zu Buche. So wurde Hartig zum eigentlichen Vater der auf Nachhaltigkeit bedachten Forstbetriebslehre.

Hartig riet den Förstern im Jahre 1795: „Jede weise Forstdirektion muss daher die Waldungen … ohne Zeitverlust taxieren lassen, und sie zwar so hoch als möglich, doch zu nutzen suchen, dass die Nachkommenschaft wenigstens ebenso viel Vorteil daraus ziehen kann, als sich die jetzt lebende Generation zueignet.“ An diesem Verständnis von Nachhaltigkeit knüpfte 1987 die UN-Kommission für Umwelt und Entwicklung (Brundtland-Kommission)an, wobei sie allerdings nicht klärte, wieweit das betriebswirtschaftliche Konzept überhaupt auf gesellschaftliche Entwicklungen außerhalb der Forstwirtschaft sinnvoll anwendbar ist. Als nachhaltig definierte die Kommission eine „Entwicklung, die den Bedürfnissen der heutigen Generation entspricht, ohne die Möglichkeiten künftiger Generationen zu gefährden, ihre eigenen Bedürfnisse zu befriedigen und ihren Lebensstil zu wählen.“ Im Jahre 1992 wurde diese Definition auf dem „Erd-Gipfel“ von Rio de Janeiro von allen vertretenen Staaten einstimmig als weltweit gültiges Leitbild angenommen. Im Jahre 2007 schließlich verabschiedete die UN-Vollversammlung in New York ein spezielles Waldabkommen, das die Erhaltung der Wälder durch die in Richtung von Schutzzonen und eine nachhaltige Bewirtschaftung fordert.

Um dieses Leitbild in der Waldwirtschaft umsetzen zu können, müssen vor allem die Eigentumsverhältnisse geklärt sein, was in vielen Gegenden der Welt bis heute leider nicht der Fall ist. Nicht zufällig befinden sich heute unsere schönsten Mischwälder mit den ältesten Bäumen und den größten Holzvorräten seit Jahrhunderten im Besitz adliger Familien, während die Pflege von Staatswäldern nicht selten kurzfristigen kriegs- oder devisenwirtschaftlichen Interessen geopfert wurde. Deshalb gelten inhabergeführte Familienbetriebe zu Recht als das Rückgrat einer am Leitbild der Nachhaltigkeit orientierten Forst- und Holzwirtschaft. In Deutschland erzielten im Jahre 2004 insgesamt 185.000 Betriebe der Forst- und Holzwirtschaft (einschließlich der Papierverarbeitung und des Druckereigewerbes) einen Jahresumsatz von über 180 Milliarden Euro und beschäftigten mehr als 1,3 Milliarden Menschen. Das sind nach EU-Kriterien mehr als in der Automobilindustrie!

In der EU gelten die sechs allgemeinen Kriterien für eine nachhaltige Waldwirtschaft, die die europäische Ministerkonferenz zum Schutz der Wälder im Jahre 1993 in Helsinki beschlossen hat. In Deutschland werden diese Kriterien durch die Waldgesetze des Bundes und der Länder sowie in Form freiwilliger Zertifizierungen umgesetzt. Dabei konkurrieren zurzeit zwei Systeme: das Programme for the Endorsement of Forest Certification Schemes (PEFC) und das etwas strengere System des Forest Stewardship Council (FSC). Rund 65 Prozent (über 7 Millionen Hektar) der deutschen Waldfläche wurden nach dem PEFC-System zertifiziert. Den konkurrierenden FSC-Kriterien entsprechen zurzeit weniger als 600.000 Hektar.

Das deutet an, dass auch in Deutschland durchaus noch einiges zu tun bleibt, um den Leitbild der Nachhaltigkeit noch näher zu kommen. Zum Beispiel ist der Anteil der Nadelwälder mit 59 Prozent noch immer deutlich größer, als es im Sinne der Steigerung der Widerstandsfähigkeit gegenüber Witterungsunbilden, Krankheiten und Schädlingsbefall wünschenswert erscheint. Der begonnene Umbau des deutschen Waldes in Richtung auf eine stabilere Baumartenzusammensetzung wird wohl noch Jahrzehnte in Anspruch nehmen. Dabei sind Rückschläge nicht ausgeschlossen. Erfahrene Förster wissen wie die Gärtner und die Bauern, dass sie sich nie zu früh freuen dürfen…

Edgar Gärtner (erschienen in: WirtschaftsBild 58.Jg. August 2008, UBG Rheinbach)

Ist REACh bereits am Ende?

Mitten in der schwersten Wirtschaftskrise der Nachkriegszeit müssen viele Unternehmen erhebliche Kosten für die Umsetzung von REACh aufwenden. Doch kaum ein Beteiligter hat den Eindruck, das bringe einen Nutzen. Nun warnt ein Toxikologe vor dem vorzeitigen Scheitern des ehrgeizigen Unterfangens wegen eines zu hohen Versuchstierbedarfs. Vielleicht ist das eine Chance für alternative Testverfahren.

Chemiepolitik: Steht REACh schon vor dem Aus?

Wie alle Toxikologen gehört auch der aus Konstanz am Bodensee stammende und nun an der John Hopkins Universität in Baltimore/Maryland lehrende Professor Thomas Hartung, ein Pionier der Suche nach tierversuchsfreien Methoden zur Prüfung der Chemikaliensicherheit, grundsätzlich zu den glühenden Befürworten der Verbesserung des Verbraucherschutzes durch die systematische toxikologische Prüfung aller „Altstoffe“ mithilfe der EU-Chemikalienverordnung REACh. Doch Ende August 2009 warnte Hartung zusammen mit der italienischen Chemikerin Constanza Rovida in einem Meinungsbeitrag unter dem Titel „Chemical regulators have overreached“ im britischen Wissenschaftsmagazin „Nature“ (Vol. 460/27 August 2009) eindringlich vor einer Fortsetzung des mit REACh eingeschlagenen Weges. Die beiden beziehen sich darin auf eine von ihnen durchgeführte detaillierte Abschätzung des Testbedarfs, die zur gleichen Zeit im Fachorgan „ALTEX“ (Jahrgang 26) erschien. Hartung, der als Erfinder eines tierfreien Pyrogentests und als Leiter des europäischen Zentrums für Alternativen zu Tierversuchen ECVAM in Ispra am Lago Maggiore bekannt geworden ist, hält der EU vor, den zweiten Schritt vor dem ersten getan zu haben, indem sie (implizit) eine Riesenzahl aufwändiger Stoffprüfungen vorschrieb, ohne über einigermaßen zuverlässige Hochdurchsatz-Prüfmethoden zu verfügen.

Die EU-Kommission war bei der Abschätzung der Kosten von REACh davon ausgegangen, dass bis Ende 2008 etwa 27.000 Firmen etwa 180.000 Vorregistrierungen für ungefähr 30.000 Stoffe bei der ECHA in Helsinki einreichen würden. Bekanntlich sandten stattdessen 65.000 Unternehmen insgesamt 2,75 Millionen Vorregistrierungen von fast 150.000 Subtanzen nach Helsinki. Nach einer ersten Bereinigung blieben in diesem Jahr immerhin 143.835 Substanzen auf der ECHA-Liste, davon 54.686 mit einem Produktionsvolumen von über 1.000 Jahrestonnen. Diese müssten schon bis Ende 2010 registriert sein, was kaum vorstellbar ist. Die Europäische Chemikalienagentur ECHA in Helsinki geht davon aus, dass die unerwartet hohe Zahl von Vorregistrierungen durch Fehler der Anmelder (siehe Kasten) zustande gekommen ist. Wie in der zur Verfügung stehenden kurzen Zeit die Spreu vom Weizen getrennt werden kann, ist aber noch immer nicht ersichtlich.

Nach den Schätzungen der ECHA müssten bis Ende 2010 statt über 50.000 „nur“ etwa 8.700 Substanzen (davon 3.500 bekannte „Großstoffe“, die höchsten Testanforderungen unterliegen, plus eine noch unbekannte Zahl von „Problemstoffen“, die verdächtigt werden, krebserregend, erbgutschädigend, reproduktionstoxisch oder besonders umweltbelastend zu sein) samt einer Liste vorgeschlagener Tierversuche registriert werden. Nur bei einem kleinen Teil der betroffenen „Großstoffe“ dürften die bereits vorhandenen Daten für die Registrierung ausreichen. In den meisten Fällen bleibt offen, wie die nötigen Tierversuchsdaten in der bleibenden kurzen Zeitspanne generiert werden können. Als Flaschenhals erweist sich die vorgeschriebene Untersuchung der Reproduktionstoxizität, die nach den bislang gültigen Vorschriften in Zwei-Generationen-Studien an Ratten getestet werden muss. Jeder Zwei-Generationen-Test kostet über 300.000 Euro und nimmt fast zwei Jahre in Anspruch. In den vergangenen 28 Jahren wurden in Europa jährlich nur etwa zwei bis drei Stoffe so aufwändig gestestet. Hartung und Rovida schätzen, nun müssten jedes Jahr einige Hundert solcher Tests durchgeführt werden. Dafür gebe es bei weitem nicht genügend Laborkapazitäten und erst recht nicht genug Toxikologen.

Nach Ansicht Hartungs und Rovidas geht die starke Unterschätzung des Testaufwandes durch die EU-Kommission vor allem darauf zurück, dass ihr Produktionsdaten der Jahre 1991 bis 1994 zugrunde liegen, das heißt aus einer Zeit, in der die EU lediglich 12 Mitgliedsstaaten zählte. Seither habe sich aber das Produktionsvolumen der chemischen Industrie im alten Europa mehr als verdoppelt und sei durch die Erweiterung der EU durch osteuropäische Länder mit bedeutenden Kapazitäten in der Grundstoffchemie zusätzlich gewachsen. Selbst wenn man wie die ECHA annehme, dass die Zahl der vorregistrierten Stoffe durch Mehrfachmeldungen oder die vorsorgliche Anmeldung des ganzen EINECS-Altstoffregisters (aus Angst, den Marktzugang zu verlieren) künstlich aufgebläht wurde, müsse man realistisch von einer mittleren Zahl von 68.000 Stoffen ausgehen, die unter REACh fallen – zumal der Geltungsbereich von REACh in der Rangelei kurz vor der Verabschiedung der Verordnung auch noch auf Zwischenprodukte ausgedehnt wurde. Auch unter sehr optimistischen Annahmen wie der Anwendung computerbasierter Testmethoden wie (Q)SAR und der Vermeidung von Testwiederholungen gelange man zu einem Bedarf von mindestens 54 Millionen Wirbeltieren und einem finanziellen Aufwand von 9,5 Milliarden Euro in den kommenden zehn Jahren. Das ist das Sechsfache der von der EU-Kommission offiziell geschätzten Kosten! Zum Vergleich: Bislang wurden in der EU jedes Jahr etwa 900.000 Versuchstiere für die Prüfung neuer Chemikalien „verbraucht“, was die Industrie etwa 600 Millionen Euro kostete.

Die ECHA hat, wie erwartet, sofort in Form einer umfangreichen Pressemitteilung auf den in „Nature“ veröffentlichten Warnruf reagiert. Sie geht darin von 34.000 von REACh betroffenen Stoffen aus und beharrt auf der offiziellen Schätzung von 9 Millionen Versuchstieren und Kosten in Höhe von 1,3 Milliarden Euro. Sie verweist dabei auf eine Auftragsarbeit des deutschen Bundesinstituts für Risikobewertung (BfR) aus dem Jahre 2004 (T. Höfer und andere). Darin war allerdings ein fünfmal höherer Versuchstierbedarf nicht ausgeschlossen worden.

Prof. Hartung wies die Kritik seitens der ECHA gegenüber der CR zurück, indem er betonte: „Es geht uns nicht primär um den Tierschutz oder um die hohen Kosten der Tierversuche, sondern um die Durchführbarkeit von REACh. Wir möchten darauf hinweisen, dass REACh in der jetzigen Form in eine Sackgasse führt, die nur durch einen anderen Ansatz vermieden werden kann.“ Werde nur jeder der von der ECHA geschätzten 3.500 „Großstoffe“ nach den OECD-Vorschriften TG 414 und 416 getestet, entstehe bereits ein Bedarf von 13 Millionen Versuchstieren, deren Kosten mit 1,4 Milliarden Euro veranschlagt werden könnten. Schon dadurch werde also der für das Gesamtprojekt offiziell geschätzte Kostenrahmen gesprengt. Der Aufwand für die Prüfung der unbekannten Zahl besorgniserregender Chemikalien niedrigerer Tonnage (CMR-Stoffe und besonders umweltbelastende Stoffe) ist dabei gar nicht berücksichtigt.

Da aber schon bei der Prüfung bekannter „Großstoffe“ mit Sicherheit viele falsch positive Befunde auftauchen werden und es kaum denkbar sei, allein deshalb bewährte Allerweltschemikalien aus dem Verkehr zu ziehen, sieht Hartung hier die Chance für einen Neuansatz in der Toxikologie. In einem Aufsatz in „Nature“ (Vol 460/9 July 2009) hat er skizziert, wie er sich die Toxikologie des 21. Jahrhunderts vorstellt. Dass die Aussagekraft von Tierversuchen zu wünschen übrig lässt, ist Fachleuten schon lange bekannt. Bei Zwei-Generationen-Tests muss mit über 60 Prozent falsch positiven Befunden gerechnet werden. Dennoch erwies es sich in den vergangenen vier Jahrzehnten als unmöglich, die Testverfahren auf der Basis der Verabreichung hoher Dosen der Prüfsubstanzen an Nagern (vor allem Ratten) zu verändern, sobald sie einmal in einem mühsamen internationalen Abstimmungsverfahren standardisiert waren, weil die Industrie darauf achten musste, ihre Produkte überall auf der Welt vermarkten zu können.

REACh biete nun die Chance, alternative Testverfahren weltweit durchzusetzen, zumal die US National Academy of Sciences und die US-Umweltagentur EPA, die ein ähnliches Regelwerk wie REACh anstreben, in einem 2007 erschienen Report eine Kombination verschiedener In-vitro-Tests anstelle klassischer Tierversuche empfehlen. In ihrem Tox Cast Programm verspricht sich die EPA viel von Tests an Zellkulturen, darunter insbesondere an menschlichen Stammzellen, von der Anwendung biotechnischer und bioinformatischer Auswertungsmethoden sowie von Genomik und Proteonomik. Diese ermöglichen die Entwicklung computerisierter Hochdurchsatz-Verfahren, mit deren Hilfe gezielt nach bekannten „Signaturen“ toxischer Effekte gesucht werden kann.

Thomas Hartung versteht seine Warnung nicht als Ruf nach einem REACh-Moratorium. Es gehe lediglich darum, REACh entsprechend den neuesten Erkenntnissen der Forschung nachzubessern. Nur einer von 17 verschiedenen Tier-Tests, der allerdings 90 Prozent des Versuchstierbedarfs verursacht, müsse ersetzt werden. Ohnehin stehe zurzeit in der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) die Entscheidung über die Zulassung des erweiterten Ein-Generationen-Tests anstelle des Zwei-Generationen-Tests der Reproduktionstoxizität (TG 416) an. Allein dadurch könne ein Fünftel der Versuchstiere eingespart werden. Hartung gibt sich hier optimistisch: „Die Gesetzgebung ist sperrangelweit offen für solche Änderungen. Meine Hoffnung: Problem erkannt – Problem gebannt.“

Edgar L. Gärtner (veröffentlicht am 9. Oktober 2009 in: Chemische Rundschau Nr. 10/2009, VS-Medien, CH-Solothurn)

KASTEN: Durcheinander in den SIEF

Kaum dass sie ihre Vorregistrierung nach einigen Geduldsproben über REACH-IT nach Helsinki übermittelt hatten, erhielten viele der zuständigen Mitarbeiter von Unternehmen eine Flut von e-Mails, in denen sich Consulting-Firmen unter allen möglichen Fantasie-Namen als SIEF Facilators (SFF) aufdrängten, aber nach einiger Zeit nichts mehr von sich hören ließen – offenbar, weil sie merkten, dass für sie dort nichts zu holen war. Daneben haben viele Firmen Vorregistrierungen eingereicht, obwohl sie gar nicht die Absicht haben, irgendetwas definitiv zu registrieren, weil sie allein schon durch die automatische Einladung zu SIEF an wichtige Informationen über potenzielle Kunden und Wettbewerber gelangen. Im Ergebnis hat sich in etlichen SIEF, an denen im Extremfall mehrere Tausend Firmen teilnehmen, ein heilloses Durcheinander ausgebreitet. Die meisten haben bis heute noch keinen „lead registrant“ benannt und sind weit von einer Regelung der Kostenteilung entfernt. Wie unter diesen Umständen die Zahl vorregistrierter Stoffe bereinigt werden kann, ist nicht absehbar. Immerhin finden sich unter den 143.835 vorregistrierten Substanzen über 22.000, die weder über die CAS-Nummer noch über die EC-Nummer identifizierbar sind. EG

KASTEN: REACh und der Mittelstand

Die Schwierigkeiten kleiner und mittlerer Unternehmen mit REACh beginnen schon mit der Sprache. Bekanntlich gab es die REACH-IT für die Vorregistrierung von Stoffen nur auf Englisch. Und nur die englischen Stoffbezeichnungen konnten auch angemeldet werden. Das war wohl eine der wichtigsten Fehlerquellen beim Start von REACh. Viele Mehrfachregistrierungen ein und desselben Stoffes sollen darauf zurückzuführen sein. Nun kranken die obligatorische Bildung von Substance Information Exchange Fora (SIEF) durch Firmen, die den gleichen Stoff registrieren wollen, sowie darauf aufbauende Anläufe zur Bildung von Registrierungs-Konsortien oft daran, dass viele Vertreter südeuropäischer Firmen kein verhandlungssicheres Englisch mitbringen. Die Annahme von Verträgen verzögert sich, weil teilnehmende Firmen mangels ausreichender Sprachkenntnisse nachträglich Übersetzungsbüros mit der Überprüfung ausgehandelter Texte beauftragen.

Anlass zu Zweifeln an der Durchführbarkeit von REACh geben aber auch andere ungelöste Probleme. Zurzeit haben etliche KMU an der Entscheidung des Europäischen Gerichtshofs (EuGH) unter Generalanwältin Juliane Kokott vom 7. Juli 2009 (EUR-Lex-62007J0558) zu kauen. Darin legt der Gerichtshof die sehr spät in die EG-Verordnung 1907/2006 aufgenommene Meldepflicht für Monomere in importierten Polymeren sehr restriktiv aus. Mittelständische Firmen des Chemiehandels aus Frankreich, England und Deutschland hatten in der Meldepflicht für Monomere, die zu mindestens 2 Masseprozent in Polymeren enthalten sind, die in Mengen über einer Jahrestonne importiert werden, eine Verletzung des Grundsatzes der Verhältnismäßigkeit gesehen, da es in der Praxis kaum möglich ist, die Einhaltung der Vorschrift mit vertretbarem Aufwand zu überprüfen. Nach der Abweisung der Klage durch den EuGH bleibt europäischen KMU, die sich gesetzeskonform verhalten wollen, nichts anderes übrig, als auf Importe von Polymeren zu verzichten. Es dürfte aber kaum möglich sein, illegale Importe und graue Märkte zu verhindern, weil die Zollämter dafür nicht gerüstet sind.

Obendrein obliegt die Umsetzung, das „enforcement“ von REACh, bekanntlich den Nationalstaaten. Selbst ECHA-Chef Geert Dancet weist darauf hin, derselbe Regelverstoß könne in einem EU-Mitgliedsstaat als schweres Vergehen geahndet werden, während er in einem anderen EU-Land als Kavaliersdelikt durchgeht. Dr. Alex Föller, der Hauptgeschäftsführer des Verbandes TEGEWA in Frankfurt am Main, fordert deshalb mehr Kompetenzen und Kapazitäten beim Zoll. Dass das bei Stoffen, die in kleineren Mengen gehandelt werden, nur sehr begrenzt hilft, ist ihm auf dem Hintergrund der Erfahrungen mit dem Drogenhandel wohl bewusst. Ungelöste Probleme sieht Föller auch in den Stoffverwendungsbeschreibungen. Den Herstellern ist es nach wie vor kaum möglich, sich einen einigermaßen realistischen Überblick über kleinvolumige Stoffverwendungen zu verschaffen. Denn auf diesem Feld stehen viele KMU ganz unterschiedlicher Branchen in einem heftigen Ideen-Wettbewerb und lassen sich folglich nicht gerne in die Karten schauen. Eine realistische Risikobewertung ist unter diesen Umständen schwierig. Überdies werden die technischen Anleitungen für die Anwendung der REACh-Bestimmungen (RIB) laufend geändert, so dass vor allem kleinen Stoffanwendern oft nicht klar ist, welche Bestimmungen für sie gelten. Manche Anwender ahnen wohl gar nicht, dass sie bei strenger Auslegung von REACh schon mit einem Bein im Gefängnis stehen. In der Praxis werden diese Probleme in Netzwerken mit kurzem Draht zur EU-Bürokratie durch pragmatische Festlegungen aus der Welt geschafft. Aber wehe dem, der nicht mitspielt! Von der Rechtssicherheit, die REACh der Wirtschaft bringen sollte, kann jedenfalls bislang nicht die Rede sein. EG

==============================================================================

REACH: Babylon lässt grüßen

Die Chemiepolitik der EU schafft nur Datenfriedhöfe von Edgar L. Gärtner

Die am 1. Dezember 2008 zu Ende gegangene erste Phase der Umsetzung der neuen EU-Chemikalienverordnung gilt als großer Erfolg. Doch weist die überraschend hohe Zahl von insgesamt 2,75 Millionen Vorregistrierungen von sage und schreibe 150.000 Stoffen (im Vergleich zu 30.000 Substanzen, mit denen gerechnet worden war) durch insgesamt 65.000 Unternehmen auf erhebliche Startprobleme bei der obligatorischen Bildung von Substance Informations Exchange Fora (SIEF) hin. Hinzu kommt Ärger mit der Registrierungs-Software REACH-IT.

Nach dem Abschluss der Vorregistrierung scheint höchste Eile geboten. Denn Stoffe mit einem Produktionsvolumen von über 1.000 Jahrestonnen müssen bereits bis Ende November 2010 ordnungsgemäß registriert sein. Dabei müssen Daten vorgelegt werden, die in manchen Fällen schon irgendwo, aber oft auf verschiedene Eigentümer verteilt vorhanden sind, in manchen Fällen aber erst mithilfe aufwändiger Tierversuche generiert werden müssen. Da bleibt nicht viel Zeit für das Zusammentrommeln und das Management der Substance Informations Exchange Fora (SIEF), die vom Gesetzgeber vorgeschrieben wurden, um die Zahl der Tierversuche und die Gesamtkosten von REACH erträglich zu halten. Bei manchen Stoffen sind, bei Eibeziehung des Chemiehandels, mehrere Tausend Firmen betroffen, die von den „SIEF Formation Facilators“ zusammengebracht und animiert werden müssen.

Doch wer sich zu Beginn dieses Jahres bei REACH-IT einloggen wollte, stieß auf der Homepage der ECHA) auf die folgende Meldung:

“The number of concurrent REACH-IT users is high and the system is exhibiting slow behaviour.

ECHA is monitoring the system performance and making improvements to its robustness.”

Wer es dennoch endlich geschafft hatte, sich einzuloggen, flog oft wieder raus, bevor er alle ihn betreffenden Meldungen studiert hatte. Wer sich darüber beschweren oder beim Help Desk der ECHA um Rat fragen wollte, landete in der Regel in einer Sackgasse. Stunden um Stunden vergingen mit neuen Versuchen, sich einzuloggen. Einige europäische Firmen versuchten mithilfe ihrer amerikanischen Töchter oder Niederlassungen, sich außerhalb der europäischen Geschäftszeiten Zugang zum Server der ECHA in Helsinki zu verschaffen. Am 19. Januar meldete sich schließlich ECHA-Exekutivdirektor Geert Dancet und kündigte an, in den kommenden Monaten würden verschiedene Schritte zur Verbesserung der REACH-IT unternommen.

Darüber entrüstete sich in einem Schreiben vom 21. Januar CEFIC-Generaldirektor Alain Perroy. Die von der deadline 30. November 2010 betroffenen Firmen könnten keineswegs noch Monate lang warten, sondern befänden sich bereits im Endspurt. Nur über die REACH-IT könnten sie erfahren, mit welchen Firmen sie Kontakt aufnehmen müssen, um ein SIEF zu bilden, dort dann die Identität (sameness) der registrierpflichtigen Stoffe zu prüfen, Stoffdaten auszutauschen, Wissenslücken auszumachen und Teststrategien und deren Finanzierung festzulegen, um fehlende Daten zu generieren.

Die überraschend große Zahl von Vorregistrierungen stellt an sich schon ein organisatorisches Problem dar. Es wird vermutet, dass viele Stoffanwender vorregistriert haben, obwohl sie gar nicht die Absicht haben, etwas zu registrieren. Vielmehr scheint es ihnen darum gegangen zu sein, über die automatische Einladung zur Teilnahme an SIEFs Informationen über potenzielle Kunden und Wettbewerber zu erhalten. Wegen der bei vielen Anwendern herrschenden Verunsicherung wurden auch viele Substanzen vorangemeldet, deren Jahresproduktion unterhalb der für REACH gültigen Mengenschwelle von einer Jahrestonne liegt. Außerdem finden sich auf der Liste etliche Endprodukte, die nicht unter die Stoffdefinition von REACH fallen. Die lange Liste der Vorregistrierungen muss deshalb aufwändig bereinigt werden. So gehen Monate ins Land, bevor die SIEF sich im Detail um die Datenlage der registrierpflichtigen Stoffe kümmern können, zumal es nach wie vor eine Menge rechtlicher Probleme zu klären gibt. Bis schließlich ein „lead registrant“ am Ende die Registrierung durchführt und deren Kosten auf die einzelnen SIEF-Mitglieder umlegt, können weitere Monate vergehen. Deshalb kommen immer mehr Zweifel auf, ob die Fristen für die Registrierung überhaupt eingehalten werden können. Manche Industrievertreter halten es (hinter vorgehaltener Hand) nicht für ausgeschlossen, dass die Umsetzung von REACH schon in der ersten Etappe stecken bleibt. Leben könnten sie damit ganz gut, denn die Vorregistrierung verschafft vielen von ihnen erst einmal eine Atempause.

Zu den ungelösten juristischen Problemen der SIEF zählt der Status der Only Representatives (OR) für die Registrierung von Stoffen, die in die EU importiert werden. Das gilt insbesondere für Stoffe, die in China und Indien produziert werden. Nach Ansicht von Nicolas Gardères, Anwalt in der Pariser Kanzlei Denton Wilde Sapte, ist es nach wie vor unklar, wie weit die OR bei eventuellen Schadensersatzansprüchen strafrechtlich zur Verantwortung gezogen werden können, zumal etliche EU-Mitgliedsstaaten, wie die ECHA im Dezember meldete, ihr Strafrecht noch immer nicht um die mit REACH verbundenen Verpflichtungen und Straftatbestände ergänzt haben.

Kommen schon die obligatorischen SIEF kaum ohne detaillierte anwaltliche Beratung aus, so ist der juristische Beratungsbedarf, wie Gardères unterstreicht, bei der Bildung freiwilliger Registrierungs-Konsortien noch erheblich größer. Nach dem geltenden Kartellrecht dürfen Konsortien unter keinen Umständen dazu dienen, ihren Mitgliedern einen wirtschaftlichen Vorteil gegenüber Wettbewerbern zu verschaffen oder bestimmte Marktteilnehmer zu diskriminieren. Das ist im Konfliktfall schwer zu beweisen.

Inzwischen hat die ECHA eine vorläufige Liste von sieben Stoffen veröffentlicht, die in einer öffentlichen Stakeholder-Anhörung aus der Ende Oktober 2008 veröffentlichten „Kandidatenliste“ besonders bedenklicher Substanzen ausgewählt wurden, um sie für den Anhang XIV der Liste zulassungspflichtiger Stoffe vorzuschlagen. Dabei handelt es sich um den synthetischen Duftstoff Moschus Xylen, um kurzkettige chlorierte Paraffine, um das Flammschutzmittel Hexabromcyclododecan (HBCDD) und seine Isomere, um 4,4’-Diaminodiphenylmethan (MDA) sowie um die als Kunststoff-Weichmacher verwendeten Phthalate DEHP, BBP und DBP. Dass sich das in Medizinprodukten wie Blutbeuteln oder Magensonden nur schwer ersetzbare DEHP auf der Liste befindet, wird nur auf dem Hintergrund der seit Jahren von Greenpeace und anderen Interessengruppen gegen den bewährten, aber toxikologisch nicht abschließend beurteilten Weichmacher geführten Kampagne verständlich. Über entsprechende Web-Formulare kann diese vorläufige Liste bis zum 14. April kommentiert werden.

Industriechemiker, die zurzeit buchstäblich Tag und Nacht mit der REACH-IT kämpfen, fürchten, dass ihre aufopferungsvolle Arbeit letztlich nicht mehr bewirkt als einen riesigen Datenfriedhof zu erzeugen, der die Illusion nährt, durch das bürokratische Monster REACH werde das tägliche Leben der EU-Bürger etwas sicherer.

Edgar Gärtner (erschienen in: CR-Chemische Rundschau Nr. 1-2/2009)

=============================================================

REACH – Wende in der Stoffbewertung oder teures Theater?

Die neue Europäische Umweltagentur (ECHA) in Helsinki hat am 1. Juni 2008 mit dem Beginn der Vorregistrierung von Stoffen nach einer einjährigen Vorbereitungszeit offiziell ihre operative Tätigkeit begonnen. Zwar erreicht die Zahl der fest eingestellten qualifizierten Mitarbeiter der Agentur mit etwas über 200 noch längst nicht das ursprünglich einmal ins Auge gefasste Niveau. Doch der Agenturchef Geert Dancet gibt sich zuversichtlich, dass die Mitarbeiterzahl bis 2010 auf 450 (davon zwei Drittel Wissenschaftler) ansteigen wird. Auf den ersten Blick erscheint der Start der Agentur durchaus gelungen. Über 9.000 Firmen haben sich beim REACH-IT-System der Online-Registrierung angemeldet. (Das ist allerdings nur etwa ein Viertel aller europäischen Chemiefirmen.) Bis Mitte September waren bereits 352.641 Vorregistrierungen eingegangen. Davon allein 141.185 aus Deutschland und 138.434 aus Großbritannien. An dritter Stelle folgen die Niederlande mit 17.356 Vorregistrierungen, danach Italien mit 13.989 und Frankreich mit 9.945. Ende September 2008 erreichte die Gesamtzahl der Vorregistrierungen nach Angaben Dancets schon 402.584. Allerdings wies ein Teil davon Formfehler auf (siehe Kasten) und zwei Firmen haben sogar das ganze EU-Verzeichnis EINECS von über 100.000 Altstoffen vorangemeldet.

Deshalb fleht Dancet alle betroffenen Firmen an, doch bitte nur Substanzen voranzumelden, die sie später auch tatsächlich registrieren wollen. Andernfalls werde die Arbeit der Substance Exchange Fora (SIEF), zu denen die Vorregistrierer nach der Einreichung ihres Dossiers automatisch geladen werden, unnötig erschwert, wenn nicht völlig sabotiert. „Die vorregistrierende Firma kann dann zum einen unmöglich an allen SIEFs teilnehmen, zu denen sie geladen wird. Zum andern fehlt den nachgeschalteten Anwendern die Möglichkeit, zu überprüfen, welche der von ihnen dringend benötigten Roh- und Hilfsstoffe vorregistriert wurden, und können die ECHA nicht auf Stoffe aufmerksam machen, die auf der Liste fehlen“, erklärt Dancet.

Anna-Liisa Sundquist, die Vorsitzende des Ausschusses der EU-Mitgliedsstaaten bei der ECHA, weist zudem mit Nachdruck darauf hin, dass Hersteller außerhalb der EU Stoffe nicht unmittelbar, sondern nur mithilfe eines Alleinvertreters (Only Representative) in der EU registrieren können. „Das hat sich zu unserer Überraschung in vielen Teilen der Welt noch nicht herumgesprochen“, gibt Sundquist zu. Gleichzeitig räumt sie ein, dass auch viele kleine und mittlere Unternehmen in der EU mit den komplizierten Bestimmungen von REACH schlicht überfordert sind. Nina Mähönen-Antink vom bekannten, auf die Kommunikation in der Lieferkette spezialisierten finnischen IT-Beratungsunternehmen REACHWAY Oy bestätigt, dass viele kleine und mittlere Unternehmen in der EU sich noch gar nicht ernsthaft mit REACH beschäftigt haben und keine Anstalten machen, ihre Stoffe zu registrieren, weil sie entweder davon ausgingen, das bürokratische Monstrum werde ohnehin nicht funktionieren oder eine Geschäftsaufgabe vor Ablauf der Registrierungsfrist in zehn Jahren ins Auge fassen. Anna-Liisa Sunquist räumt ein, es sei noch völlig unklar, wie verfahren werden könne, sollte es sich gegen Ende dieses Jahres herausstellen, dass wichtige Substanzen gar nicht auf der Liste der vorregistrierten Stoffe erscheinen.

Ohnehin, so Sundquist weiter, müsse man sich nicht nur auf das Fortbestehen großer rechtlicher Grauzonen, sondern auch auf die Entstehung eines grauen Marktes für nicht registrierte und/oder nicht zugelassene Substanzen einstellen. Denn die Überwachung der Einhaltung der REACH-Vorschriften obliege nationalen Behörden. Zwar versuche die ECHA das Monitoring durch die Erarbeitung von Leitlinien zu harmonisieren. Doch niemand könne garantieren, dass diese in allen EU-Mitgliedsstaaten gleich streng befolgt werden. Außerdem werde wohl auch eine Reihe als potenziell gefährlich erkannter Chemikalien mangels verfügbarer Alternativen mit offizieller Genehmigung im Gebrauch bleiben. Bislang haben die EU-Mitgliedsstaaten nur 16 Stoffe für die so genannte „Kandidatenliste“ bedenklicher Substanzen nach REACH Art. 57, Anhang XV vorgeschlagen. Der Ausschuss der Mitgliedsstaaten wird demnächst die inzwischen zu den einzelnen Stoffen eingegangenen Kommentare im Detail diskutieren und voraussichtlich Ende Oktober 2008 die erste offizielle „Kandidatenliste“ vorlegen. ECHA-Chef Geert Dancet schließt nicht aus, dass diese sogar weniger als 16 Stoffe enthalten wird. Und nur ein Teil davon werde wohl im Anhang XIV der genehmigungspflichtigen Stoffe landen. Die Anhänge XIV und XV sollen alle zwei Jahre aktualisiert werden. Umweltverbände fordern dagegen, bis zu 2.000 Stoffe vordringlich unter die Lupe zu nehmen und auf „schwarze Listen“ zu setzen.

Auch Geert Dancet gibt offen zu, dass sich die Umsetzung der REACH-Verordnung am Rande der Legalität bewegt. Denn REACH schafft keinen neuen Rechtsrahmen, die Verordnung darf dem Maastricht-Vertrag der EU wie den nationalen Bestimmungen des Zivil- und Strafrechts über Wettbewerb, geistiges Eigentum und die Gültigkeit von Verträgen nicht widersprechen. So bewegen sich die von den europäischen Gesetzgebern und der ECHA erwünschten Konsortien für die gemeinsame Nutzung von Stoffdaten von Wettbewerbern zur Vermeidung unnötiger Tierversuche hart am Rande des nach dem Kartellrecht noch Erlaubten. Schon in den SIEFs gibt es Probleme mit der Geheimhaltung vertraulicher Geschäftsinformationen und mit der gerechten Aufteilung der Kosten – zumal, wie zu hören ist, etliche der beteiligten Firmen versuchen, selbst alte Tierversuchsdaten zu Geld zu machen. Einige dieser Probleme lassen sich durch Einschaltung neutraler Berater lösen, wodurch allerdings zusätzliche Kosten entstehen.

Geert Dancet weist in diesem Zusammenhang auf Folgendes hin: „In einigen Fällen kann die freie Verwendung von Daten durch das Gesetz oder durch Entscheidungen der Regulierungsbehörden erlaubt sein, z.B. im Rahmen der so genannten 12-Jahres-Regelung. Nach den Bestimmungen von REACH kann jede Studie beziehungsweise robuste Zusammenfassung von Studien, die im Rahmen einer Registrierung vor mindestens 12 Jahren eingereicht wurde, für die Registrierung nach REACH von jedem anderen Hersteller oder Importeur verwendet werden. Der Nachweis des rechtmäßigen Besitzes ist nicht notwendig für Daten, die vor mindestens 12 Jahren registriert wurden. Das gilt unter gewissen Umständen auch bei Anfragen oder wenn Parteien, wie im Leitfaden über das Data-Sharing beschrieben, sich in einem SIEF nicht über die gemeinsame Nutzung von Daten einigen. Unter gewissen Umständen kann die ECHA die Erlaubnis zur Verwendung von Daten erteilen.“

Dancet hält aber die besonders in der mittelständischen Wirtschaft verbreitete Angst vor dem Verlust geistigen Eigentums für unbegründet: „Wir versichern, dass REACH keine negativen Auswirkungen auf das Urheberrecht haben wird. REACH verlangt in der Tat, dass die Registrierer in der Regel im legitimen Besitz von Summaries auf der Grundlage vollständiger Studien oder eines legitimen Zugangs zu Robust Study Summaries sind, der in den Registrierungsunterlagen belegt werden muss. Das gilt auch für Robust Study Summaries aus dem Internet (z.B. aus dem OECD/ICCA HPV Programms oder dem US HPV Chemical Challenge Program). Darüber hinaus sollte man beim Herunterladen öffentlich zugänglicher Studien sorgfältig prüfen, ob deren Verwendung Urheberrechte verletzt.“ Wird das die Adressaten beruhigen?

Ungeklärt sind auch der rechtliche Status und die strafrechtliche Verantwortung der für die Anmeldung importierter Stoffe obligatorischen Alleinvertreter in der EU. „Hände weg vom Import fertiger Zubereitungen!“, rät deshalb Liisa Rapeli-Likitalo der europäischen Industrie. Da stehe man gleich mit einem Bein im Gefängnis. Die kleine, aber energische Frau ist zurzeit bei dem auf die Wasser- und Holzchemie spezialisierten finnischen Konzern Kemira Tag und Nacht damit beschäftigt, Stoffe ordnungsgemäß voranzumelden. Dabei machen ihr nicht nur Probleme mit der Registrierungs-Software IUCLID 5 und dem universellen Identifizierungscode UUID zu schaffen, sondern auch rechtliche Grauzonen. „REACH ist vor allem ein Arbeitsbeschaffungsprogramm für Anwälte und nichts für Menschen, die nicht gelernt haben, mit Ungewissheit zu leben“, resümiert sie ihre Erfahrungen.

ECHA-Chef Dancet gibt denn auch zu: „Uns bleibt noch viel zu tun, um zwischen unserer Behörde, der Industrie, den Gewerkschaften sowie den Umwelt- und Verbraucherverbänden eine transparente Vertrauensbasis aufzubauen und die ECHA zur wichtigsten Quelle für wissenschaftlich verlässliche Stoffinformationen zu machen.“ Nach der für Ende 2008/Anfang 2009 vorgesehenen Publikation der Liste vorregistrierter Stoffe wird die ECHA mit der Registrierung der großvolumigen Stoffe beschäftigt sein. Dancet erwartet, dass im Jahre 2010 nicht weniger als 20.000 Registrierungs-Dossiers bearbeitet werden müssen. Sollte es sich am Ende herausstellen, dass REACH, statt eine neue Ära der harmonisierten Stoffbewertung einzuleiten, vieles beim Alten lässt, wird das aber vermutlich weder in Brüssel noch in Helsinki jemand zugeben wollen. Die EU-Bürokratie wird sich wohl mit den Anspruchsgruppen darauf einigen, den Verbrauchern und Steuerzahlern ein Theater vorzuspielen. Darin fehlt es den EU-Behörden nicht an Übung.

Edgar Gärtner

===========================================================

Die fünf häufigsten Gründe für die Zurückweisung von Registrierungsdossiers durch die ECHA:

• Die im Einreichungsformblatt angegebene UUID (Identitätsnummer) stimmte nicht mit dem UUID des eingereichten IUCLID 5 Dossiers überein;

• Das Unternehmen hat sich nicht vorher bei REACH-IT angemeldet oder die Unternehmens-UUID falsch angegeben;

• Es wurde keine digitale Fassung des Einreichungsformblatts und/oder IUCLID 5 Dossier vorgelegt;

• Das eingereichte Dossier entsprach nicht dem XML Format;

• Das Bestätigungsfeld am Ende des Einreichungsformulars wurde nicht angeklickt.

===========================================================

(veröffentlicht in: Chemische Rundschau Nr. 10/2008, VS-Medien, CH-Solothurn)

Precaution or Arbitrariness?

The “precautionary principle” leaves open the question of whether preventive measures are also subject to cost-benefit criteria or not. Even non-monetary evaluations of the costs and benefits of actions to prevent hypothetical threats appear all too often more than doubtful, especially when they show that screening is only available at the cost of individual freedom. In real life people often have to decide between two evils. Which one is the lesser?

Prevention is not Always Better than The Cure

by Edgar L. Gärtner

Lessons about Precaution from the Swine Flu Vaccine Fiasco

The French government under the ever-energized President Nicolas Sarkozy became aware at the beginning of the year that it was threatened to sit on more than 90 million doses of Swine flu vaccine, hastily ordered last year to face an allegedly advancing pandemic. Only five out of currently more than 60 million French people got vaccinated to date against the exaggerated threat of a planetary swine flu pandemic. According to estimates by physicians, at the same time more than 20 million French people got immunized against the new flu variant free of charge, i.e. by responding to infection with barely perceptible slight flu symptoms. More than one billion euros seemed to be set in the sand. In the German federal states, the situation is similar but not quite as bad as in France. Since the ordered batches are in part not yet produced, France and Germany managed to cancel at least part of their orders. Especially in France the following questions remain unanswered: Why almost 100 million vaccines were ordered – three times more than what would have been necessay for a reasonable coverage of the population? Why did the government invest simultaneously on a vast storage of the controversial flu drug Tamiflu (one third of total world reserves!)? Why were expensive gas masks purchased, but only available for top officials and managers?

I’m not looking for responses like those given by libertarians and conspiracy theorists, whereby the virus itself H1N1 and his propagation is imputed to worldwide machinations of pharmaceutical companies GlaxoSmithKline (GSK), Sanofi-Pasteur and Novartis. I restrict myself rather to the official justification of action by the “precautionary principle”. This decision scheme was invented in Germany at the beginning of the 70s and became known worldwide after the 1992 “Earth Summit” in Rio de Janeiro under the following definition: “Where there are threats of serious or irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation.” (Principle 15 of the Rio Declaration). Subsequently, this principle was introduced into the Maastricht Treaty, the Lisbon Constitutional Treaty and the French Constitution. As Nicolas Sarkozy has himself set upon overrun the Germans with preventive rhetoric, he gave his officers orders to try hard to follow the principle consistently. But just by doing that they have created the problems they are now facing. Because unlimited provision is an absurd idea. Those who constantly concentrate on precaution, forget to live. The precautionary principle is useful only insofar as it is not consistently applied. Healing is much more important than prevention, even though the welfare state’s advertising is mindlessly repeating the opposite.

The above-quoted definition of the “precautionary principle”, namely, leaves open the question of whether preventive measures are also subject to cost-benefit criteria or not. Widespread is the view that cost considerations are not justified when it comes to human life. If this argument was valid, there would be neither life nor accident insurance. Underlining this I do not deny that the monetary evaluation of life issues must remain very restricted. But even non-monetary evaluations of the costs and benefits of measures to prevent hypothetical threats appear all too often more than doubtful, especially when they show that screening is only available at the cost of freedom. There are exceptions like private retirement plans or provisions for maintenance and repair costs, as well as precaution measures against harmful events, whose probability can be realistically estimated. But even in these cases it is often not enough to weigh between the advantages and disadvantages of economically justifiable protection measures. In real life instead, people often have to decide between two evils. Which one is the lesser?

Such decisions, if they are not spontaneously taken from the gut, can in general not be justified without any reference to religious belief. As long as Christianity was prevailing in Europe this was no problem. Later, Christian Humanism was successively replaced by Ecologism, a synthetic mix of knowledge and unfounded beliefs with a clear misanthropic, if not nihilist tendency. No wonder that allegedly preventive actions and investments, justified by the “precautionary principle” more and more turn out to be economically disastrous.

Internet:

Revisiting the Swine flu lies and hysteria

France’s Swine Flu Fiasco

Financial Time on France’s Vaccine Flop

The Rio Declaration on Environment and Development (15 January 2010)

==========================================================================================

Precaution or Arbitrariness?

Plasticizers in Political Crossfire

By Edgar Gärtner

This study has been made possible by the financial support of the AgPU – Working Group on PVC and the Environment, Bonn

The EU ban on plasticizers in toys

Despite the enormous health benefits brought by the use of DDT, which provided an extremely effective insecticide and was instrumental in the fight against malaria, a total ban was imposed on its use in 1972 on the basis of unsubstantiated health and environmental threats. International bans have since been introduced on other substances and, once in place, they are virtually impossible to reverse.

Similarly, unfounded suspicions and accusations led the EU to impose a total ban on the use in children’s toys of three plasticizers employed in the manufacture of PVC (DEHP, DBP and BBP). It also has prohibited the use of three additional plasticizers (DIDP, DNOP and DINP) in babies’ toys intended to be put in the mouth. This is not the EU’s first attempt to impose a substance ban motivated primarily by politics – as opposed to a decision made on sound scientific principles. Yet this case forms a precedent which would serve to create lasting, fundamental, and possibly irreversible flaws in EU policies on technology and the environment.

Only one of the substances, DINP, is currently in general use in children’s toys. This material has been subjected to a thorough risk assessment in the EU and again in the US, and has been found to be quite safe. Industry has spent over 130 million Euros in total to assess the health and environmental risks of plasticizers such as DEHP. A core reason for these tests was these plasticizers’ widespread use in medical equipment. All have now been in such longstanding use that if there had been any harmful side effects from their application these would have long since come to the fore. The EU now forces manufacturers of pacifiers, plastic ducks and baby equipment to switch to alternative plasticizers, which have not been investigated as thoroughly, have often not been tested for these applications and are often considerably more expensive.

Adipates are one possible substitute. Their possible impact on human health and the environment to appear to be slight, but so far they have not been subjected to such exhaustive examinations as have the six banned substances. Other alternatives, although extant for some time, have a high migration tendency, and are clearly much less suitable for these applications.

Citrate esters, touted by environmental groups as more environmentally and health-friendly, migrate from treated materials so quickly that these objects easily become brittle. Toys manufactured using citrate esters as plasticizers will therefore put children at risk of swallowing broken-off fragments. Are we therefore justified in substituting a (theoretical) health risk with the much more concrete risk of a child choking?

Greenpeace activists, on whose arguments the EU’s actions were based, don’t appear to be losing any sleep over such questions. In fact, they are demanding that toy manufacturers abandon the use of PVC altogether. According to them, soft PVCs in toys should be replaced with rubber. However, the effect of heat during the vulcanization process of rubber results in carcinogenic nitrosamines, and the substitution of organic for petroleum-based rubber will simply substitute a new, ‘natural’, set of carcinogens.

This raises the question of who decides which materials may be used: Greenpeace? The EU Commission? Science? Nature? And just who is ‘Nature’? Aren’t humans also part of nature, including the average consumer who weighs up product choices and then consciously chooses PVC? Wouldn’t it be better to choose the winner out of several competing market-based solutions?

As I see it, the debate over the advantages and risks of plasticizers boils down to one question: “Can safe and sustainable solutions be developed through the interaction between inventors and the needs and wishes of consumers?”

Mankind has been using plasticizers since the Stone Age, when plant oils were worked into stiff animal pelts to make soft leather. With the advent of different types of soft PVC in the twentieth century, researchers found that PVC performed better when combined with phthalates than with other materials on the market. Plasticizers are used to achieve desired qualities such as flexibility, flame retardation or low-temperature resistance.

In hindsight, it is clear that modern industry would not have been able to develop without both the development of synthetic plastics, and, secondly, inexpensive plasticizers that improve the processing ability and durability of natural materials. However, this development required a long and somewhat painful process of trial and error. And, had this been hampered by bureaucratic ‘precautionary measures’, it simply would not have taken place.

PVC began to lose its innocence in 1961 as experiments carried out on rats in the US showed clear indications of the highly carcinogenic potential of the vinyl chloride monomer (VCM), used to manufacture PVC. Even in low concentrations, VCM provoked a rare form of liver cancer. In the early 1970s, numerous workers exposed to VCM developed various conditions including liver cancer. Strict measures and exposure limits were immediately introduced. However, an undercurrent of fear took hold in the public’s mind that PVC products could leech out insidious poisons. And this same fear has most probably since attached itself to plasticizers as well.

In subsequent decades, this undercurrent grew. In the American biologist Barry Commoner’s book The Closing Circle – Nature, Man, and Technology (1971), PVC plasticizers play a similar villainous role to the (unfounded) accusations weighed against the insecticide DDT in Rachel Carson’s Silent Spring (1962). Pressure from environmentalists came to a head following the escape of the ‘super-poison’ dioxin into the environment at the chemical plant at Seveso, Northern Italy in July 1976.

The accusation of being carcinogenic has been levelled in general against plasticizers used in PVC, and particularly against DEHP. In the early 1980s, DEHP was classified as ‘potentially carcinogenic’ by the International Agency for Research on Cancer (IARC) on the basis of experiments on rodents which showed a tendency to develop liver tumours following exposure to high doses. It was later proven that humans and higher mammals are not at risk because they metabolize DEHP differently. The IARC has since reclassified DEHP as “not classifiable as to its carcinogenicity to humans.”

The German Parliament created a special Enquete Commission to investigate the influence of chemicals on humans and the environment. The Commission also covered chlorine and PVC. The findings from the first phase were published in 1994 (pages 362–364):

„…following years of intensive debate, PVC is today far and above the most researched materials in respect of its environmental impact. (…) the commission cannot recommend the substitution of other materials for PVC without sound economic or ecological reasons to support this. Any such substitution would carry the risk of creating new problems – and would possibly lead to a worsening of the overall situation vis-à-vis the present.“

How risk assessment became a political issue

In 1993, the EU issued the 793/93/EEC Directive analyzing the risks associated with around 100,000 ‘old’ chemicals – substances registered prior to September 1981 in line with the (then) EEC’s Dangerous Substances Directive (67/548/EEC). In 793/93/EEC, Article 15 now called for the testing of substances arousing particular suspicion. Later that year, they also published a priority list of 134 substances. This list included phthalates used as plasticizers for PVC. Four further PVC plasticizers appeared in the two subsequent priority lists. If decades of suspicion had not already fallen on these substances, then nobody would have been able to fathom just how phthalates found their way onto this list. It would suggest that their inclusion owed less to scientific scrutiny than it did to political pressures.

Given that environmental groups and political parties were already on the warpath; firms, industry associations and scientists targeted in this attack had no other choice but to play ball. They were confident, though, that the toxicological and ecological risk assessments would bear out their own conclusions. However, well before the risk assessment had been completed, the debate on these materials was forced by pressure from media campaigns and the protestations of environmental groups.

The health and environmental risks for Di-butyl-phthalate (DBP) were tested by the EU in 1994. DBP is only used in small quantities as a plasticizer in PVC. The toxicologists found that DBP posed no health risk to consumers, even when it was smeared directly on the skin. In test-tube experiments (though not in animal experimentation) DBP showed a weak oestrogen-producing effect (‘feminizing’) and was therefore characterized as “possibly affecting fertility” and given a Category Two (“harmful to fertility”) rating. In addition, DBP was found to cause potential harm to vegetation.

In 1995, the EU tested Di(2-ethylhexyl)phthalate (DEHP) which had previously been the standard plasticizer for PVC, which had appeared in the second list of high-risk chemicals (noted above). This risk assessment has only recently been completed and has proven a tug of war between the various stakeholders. During this assessment process, a group of doctors specializing in occupational and community medicine published new research findings which suggested a completely new assessment of the legacy of DEHP in the broader population. The German Federal Institute for Risk Assessment’s (BfR) and the CSTEE’s (European Commission Scientific Committee on Toxicity, Ecotoxicity and the Environment) conclusions from this study, needed to be revised on the back of studies conducted in Erlangen on volunteers, even before the CSTEE’s published its findings.

CSTEE’s final Risk Assessment Report does not exclude the possibility that DEHP absorption could have a potential impact on occupational health. Both adults and children could theoretically suffer health damage as a result of the use of DEHP in medical apparatus. Toddlers are put at risk through sucking toys containing DEHP. On these grounds, the report supports the EU’s pronounced ban on materials and calls for strict workplace protection measures. And on the back of experiments on rats, DEHP joined DBP in being designated as “impairing fertility” and was also given a Category Two rating, and has been totally banned from use in toys.

In 1995, it was the turn of Diisononyl phthalate (DINP) and Diisodecyl phthalate (DIDP) to be assessed. Both were increasingly important standard plasticizers for PVC also placed on the EU’s second priority list. However, the risk assessment of these materials was much less controversial than that of DEHP, and the political conclusions drawn from this study seem all the more baffling as a result. The EU toxicologists have not found the slightest exposure risk for these substances – not even in their use in babies’ toys. In the case of DIDP, they only found a theoretical risk for its universal use in children’s toys. This conclusion was confirmed in April 2006 by the EU Commission in the EU’s Official Journal. The EU has nevertheless imposed a ban on the use of both plasticizers in children’s toys.

In 1997, Butylbenzyl phthalate (BBP) was assessed. This plasticizer is used in tubes, cables, artificial leather and food packaging. On the results of animal experiments, it was given a Category Two “harmful to fertility” rating. The obligatory fish test used in assessing environmental risks had to be abandoned as BBP proved to biologically degrade much more rapidly in the environment than other phthalates discussed. That these plasticizers find their way into the food chain is a myth. The opposite is the case: the concentration of these phthalates declines as organisms higher in the food pyramid break these substances down in their digestive systems and excrete them.

In order to understand the dichotomy between the scientific risk assessments and their political evaluation we have to look back once again to the 1990s. In November 1997, well before the EU completed its risk assessments, Greenpeace published the following warning:

Greenpeace has carried out random tests on 23 toys manufactured by Mattel, Fisher Price, Tyco and Safety First. In 12 of these toys, the amount of plasticizers given off exceeds the recommended limit of 3mg per cm2 surface area as set by the Federal Institute for Consumer Health Protection and Veterinary Medicine (BgVV).

The Working Group on PVC and the Environment (AgPU), in conjunction with Mattel, and three recognized independent analysis institutes, set out to refute Greenpeace’s findings. It quickly became clear that Greenpeace had not been able to measure any phthalate emissions but instead has measured the total amount of volatile organic compounds (TVOC). Greenpeace was tacitly going on the assumption that the amount of TVOC was equivalent to the phthalate emissions. It was however known that TVOC normally stems from solvent emissions. But the laboratory contracted by Greenpeace had not even set this according to the then valid measurement standards.

All three of the laboratories commissioned by AgPU and Mattel established that the amount, if any, of DEHP and DINP emissions from children’s toys was too small to be measured. It was also evident that the EU had no generally accepted method to simulate the sucking out of phthalates from babies’ toys. However, the offer by the PVC and toy industries to develop a joint verification process was met with the following reply by Greenpeace spokesperson Judit Kamthak:

„in your communication of 28 January 1998 you suggest a joint verification process. In our opinion this is not necessary and would take the discussion backwards. In addition, we do not believe that this path would corroborate Greenpeace’s migration findings.“

Not just the toy industry but also a significant section of the press shook their heads at this.

Greenpeace continued its reply with a big campaign, timed to interfere with the pre-Christmas sales period, using the slogan “no environmental poisons in our babies’ mouths”. Parental concern for their children’s wellbeing turned broader segments of the population against PVC and its additives. To this end, activists for the fundraising organization even dug up the IARC’s carcinogenic suspicions regarding phthalates made in 1982 – although these had long since been refuted.

Unfortunately, they managed to impress the health authorities of a number of EU member states and parts of the EU Commission. The Bundesanstalt für gesundheitlichen Verbraucherschutz und Veterinärmedizin (BgVV), predecessor of the German Federal Institute for Risk Assessment, warned in December 1997 against babies’ toys containing plasticizers, without concrete evidence of these exceeding the designated exposure limits. Scandinavian countries and Austria demanded an immediate ban on phthalates. In Germany, many major department stores removed toys made from soft PVC from their shelves. The following year, much of Europe introduced national bans on soft PVC in babies’ toys.

The EU Council for Consumer Protection ordered the CSTEE to establish scientifically-based limits for the Tolerable Daily Intake (TDI) for phthalates for both adults and children. The CSTEE established the NOAEL (No Observable Adverse Effect Level) for the six most often used phthalates and determined their TDI, for which they set the baseline for the safety margin at 100. For DINP, the plasticizer most often used in PVC toys, CSTEE set the TDI at 0.15 milligrams a day per kilogram of body weight. Toxicologists in the Netherlands attempted to estimate if this level could be reached by toddlers weighing 8 kg chewing and sucking on a ten cubic centimetre piece of soft PVC for three hours a day. This proved difficult; as discussed there was no EU-wide established methodology to measure plasticizer migration. The permitted safety margin between the NOAEL and the TDI was only 75 for DINP and not 100. For DEHP, which is not permitted for use in toys, it only reached 19. In April 1998, the CSTEE could not exclude the possibility that the TDI could be significantly exceeded given unfavourable circumstances (particularly active toddlers who get poor quality PVC between their teeth).

CSTEE took the view that this did not pose a serious threat. Following a proposal from the Health Ministry of the Netherlands, the committee supported tackling the issue of the compromised safety margin through introducing limits on plasticizer migration for various types of PVC. The EU States’ universally-accepted Risk Assessment Report set the safety margin at 220 and did not believe any threat was posed.

The European Parliament and the relevant EU Directorate General took quite a different view and chose to adopt the Precautionary Principle. In April 1999, the EU amended the EU Directive 76/769/EEC to include a ban on phthalates in toys for children under the age of three. The EU Committee for Product Safety decided, after fierce debate, in December 1999 (right in the midst of the pre-Christmas sales) to adopt Greenpeace’s arguments. The Committee recommended that the EU Commission impose an immediate ban, in the form of an Emergency Decree, on all toddlers’ toys containing phthalates. In line with this, the DINP, DEHP, DBP, DIDP, DNOP or BBP content has been limited to 0.1% of their weight in toys which are designed for toddlers up to the age of 36 months.

These emergency measures were limited to three months and were supposed to bridge the gap prior to appropriate amendments to the EU Directive 76/769/EEC being brought in. That there was no scientific basis for this action did not stop this Emergency Decree being renewed every three months right up to Summer 2004, a total of nineteen times. In the meantime, the EU’s Joint Research Centre (JRC) carried out a risk assessment. This established no discernible risks for either DINP or DIDP that would warrant any restrictions on their use – not even in toddlers’ toys. Only DBP came out of the study badly. But this substance is not used in toys.

In 2003, the JRC’s Institute for Health and Consumer Protection wrote:

„The end products containing DINP (clothes, building materials, toys and baby equipment) and the sources of exposure (car and public transport interiors, food and food packaging) are unlikely to pose a risk for consumers (adults, infants and newborns) following inhalation, skin contact and ingestion.“

In September 2004, the EU Council on Competition decided to go along with the Dutch proposal to ban DINP, DIDP and DNOP from all toys and objects that children under three years could put in their mouths; and to impose a total ban on the use of DEHP, DBP and BBP in toys. This was a big step up from the Commission’s original decision which was only aimed at toys such as babies’ soothers or pacifiers which are intended to be put in the mouth. Through this action, the EU Council on Competition had put one over on the European Parliament. On 6 July 2005, the proposal had the second reading in the European Parliament (five years after the first reading!). MEPs voted with an overwhelming majority in favour of the commission’s tighter proposals. If the EU Council does not stop the procedure, the new Directive will come into force in autumn 2006. Since the EU Commission itself has in the meantime, in a communication published on 11 April 2006, confirmed the conclusions that the JRC drew in 2003, it seems difficult to explain to the public why a substance classified as safe can nevertheless be mandatory excluded from certain applications.

The European Council for Plasticizers and Intermediates (ECPI) sees the decision to also include the extensively researched plasticizer DINP in the ban, a dangerous parallel in REACh (Registration, Evaluation and Authorization of Chemicals). The risk assessment for DINP, which cost the industry more than 10 million Euros, was simply ignored. ‘Intrinsic’ characteristics of these materials served as the deciding factor and assumptions were extrapolated from this, but real appraisals were not conducted. Through this, the EU Commission, either deliberately or otherwise, encouraged the blanket demonisation of an entire group of substances. And, in doing so, it encouraged those who believe that they can improve the world through outlawing all materials and production methods that do not fit in with their narrow and ultimately religious-based concept of nature.

If they don’t stop it, they’ll go blind…

As was to be expected, this ban on phthalates escalated into calls for further bans. TV and mass circulation magazines brought out sensationalist reports on the supposed health dangers of plasticizers.

In 2001, Stern magazine carried a cover story on blow up dolls and other sex toys made from soft PVC. Author Gerd Schuster put forward that those men who used these phthalate-containing products to achieve sexual satisfaction were putting their potency at risk.

The Frankfurt based Öko-Test Magazin really took the prize for running scare stories on plasticizers. Almost every month, the magazine’s editors discovered suspect phthalates in everyday objects and ran a consumer scandal story on these, often taken up by other media. In July 2002, the summer-themed headline “throwing the baby out with the bath water” threw the spotlight on children’s paddling pools. Of course, the laboratories which undertook this analysis found high concentrations of phthalates in all the brands they examined, and in some they also found organotin compounds. According to the editors, that should have been enough to put the children and their parents off playing in paddling pools.

The Vienna-based cancer researcher Professor Wilfried Bursch examined the published findings of the Öko-Test under the worst case scenario of young children drinking the paddling pool water or sucking and chewing on the sides of the paddling pool to see if these posed a serious health risk to children. Bursch came to the conclusion that reaching the current TDI limits would be highly unlikely. He reproached the Öko-Test editors with having contented themselves with the very presence of suspect substances and to not have actually considered if the amounts found actually posed a health risk. The industrial study group AgPU and the VKE German Plastics Manufacturers Association calculated that a 1 year old child weighing 10kg would have to drink at least 167 litres of pool water per day for an entire lifetime to approach the TDI level for DEHP.

In January 2003, the Federal Institute for Risk Assessment (BfR) officially confirmed this estimate. “The BfR has found that the levels of phthalates, butyltins, tributyltins and other organotin compounds contained in plastic found by Öko-Test through the normal use of paddling pools represent no health threat to small children.”

In August 2002, Öko-Test played the same game with inflatable arm bands and also plastic beach sandals (‘flip-flops’). Once again, the magazine contented itself with the presence of the substances demonized by Greenpeace, and did not attempt to ascertain at the outset whether these substances could be taken up into the human body in amounts which would give rise to concern – despite the fact that a calculation model for the take up of DEHP into the human body through skin contact had already been established in the US in 1984. Dr. Sabine Lindner of AgPU performed calculations using the American model as a basis and employing the figures published by Öko-Test in 2002. Her conclusion: “A person would need to walk around in flip flops for 15,000 hours a day in order to absorb the lifetime TDI through their skin.”

A scientific study on 20 adolescents led by Khodayar Rais-Bahrami appeared in Environmental Health Perspectives. These adolescents had been born prematurely and had been placed on respirators and fed artificially through soft PVC tubes and thus had come into contact with high doses of DEHP. This study came to the following conclusion:

„Our results imply that adolescents who have been exposed to considerable amounts of DEHP as premature babies show no discernible influences on their growth rate and sexual maturity as a result of this exposure. (…) Their male and female sexual functions showed no deviation from the norm.“

A study by the University of Rochester, also published in Environmental Health Perspectives (May 2005), claimed that there was a clear link between the concentration of plasticizer-metabolites in the urine of 85 pregnant women one (possible) predictor of later male infertility noted in their male offspring. However, these metabolites did not include those for DEHP, and the Statistical Assessment Service (STATS) at George Mason University in Washington DC found serious flaws in the research methodology and the statistical analysis of University of Rochester’s findings.

Disempowering the consumer

The refusal to recognize that almost nothing in this world is gained for free has taken widespread hold of the EU powers-that-be in their interpretation of the Precautionary Principle. They have interpreted the Precautionary Principle similarly to the universally adopted “Rio Declaration” made at the end of the UN Conference on Environment and Development in 1992. This is the source of oft quoted “Where there are threats of serious and irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation.”

This is surely going too far. Even the old proverb “an ounce of prevention is worth a pound of cure” implies curbs on preventive measures: the seventeenth ounce of prevention will be a wasted effort. This prevention-cure calculation becomes even more difficult when, as is often the case in science, the costs of the cure are far from certain. Taken to extremes, Rio’s Precautionary Principle would condemn us to inertia in order to avoid all risks. Indeed, shortly before the Rio Summit numerous Nobel Prize winners warned in the ‘Heidelberg Appeal’ against a surge in irrationalism.

Above all, environmental and other groups wanted the application of the Precautionary Principle to not only be limited to cases where full scientific certainty regarding environmental threats had not been established, but to have the Principle used in a way that would reverse the burden of proof. The 1992 UN report did not establish just how serious a threat needs to be in order to justify draconian measures. Suspicion alone counted in principle as sufficient reason to justify costly precautionary measures or production bans. Using that logic, chocolate would need to be banned – any competent chemist could combine chocolate with everyday ingredients to manufacture dangerous explosives.

As a reaction to this illogic, the EU Commission issued a paper in 2000 indicating that the Precautionary Principle should not be involved in risk assessment, but rather should play a part in the decision-making processes for risk management. The Principle should not be subverted either through vague suspicions, or through capricious misrepresentations with protectionist ulterior motives.

But the Commission could not establish in which cases the Precautionary Principle should be applied and in which it should not. The Commission’s papers said simply:

„An assessment of the potential consequences of inaction and of the uncertainties of the scientific evaluation should be considered by decision-makers when determining whether to trigger action based on the Precautionary Principle.“

Taken to extremes, the Precautionary Principle contradicts the age old insight that all human behavioural choices imply an element of risk and incur costs. Therefore the good needs to be weighed up against the bad. If an individual, a company, or the state decides against particular actions on the grounds of caution, or chooses to prohibit such actions, that does not mean that in doing so they are reducing the risks and the costs. Taking any particular risk out of an equation necessarily means accepting another one; someone who decides to stay home for fear of having an accident on the way to work has decided to accept the risk losing his job. A person who tries to avoid all risk will wrap themselves in a cocoon, and miss out on life altogether.

The lesser evil is most often evident only in hindsight. Whether or not someone agrees with (or likes), the idea, the fact remains that the discovery process is affected by market forces – i.e. we need to include market forces in our approach, even if we find the idea abhorrent. This does not, however, mean that we must, or indeed should, remove the Golden Rule from our decision making processes.

Risk assessments cannot be divorced from prevailing cultural, socio- economic and political contexts: your attitude to risk will depend on whether you are a man or a woman, young or old, living in poverty or extremely wealthy, an individualist or a collectivist. However, even with these caveats, the weighing up of good and bad consequences leads to an assessment according to clear criteria. By comparison, the strategy of minimizing evils is not based on rational thinking.

Should the EU Commission’s decision regarding the ban on the use of plasticizers in babies’ toys, which largely disregards both scientific fact and reason, become the accepted principle behind new legislation, then the EU would undoubtedly shift further towards the behaviour of an authoritarian state – where scientific research and findings are overruled by political pressure.

Fortunately, the Treaty of Maastricht already requires that all EU Directives are subjected to a comprehensible cost/benefit analysis to establish whether they are commensurate with the underlying legal principles. This was reinforced in February 2000, when, in order to avoid market intrusions prompted by arbitrary suspicions and the bad-mouthing of products and materials, the European Commission stated that employing the Precautionary Principle would always require a sound scientific risk assessment.

In 2001, the EU published a White Paper which set out the blueprint for a new Chemicals Policy. Among other things, the White Paper decided to call a halt to the separate treatment for Old and New substances. The Paper also examined their unprecedented regulations project REACh (Registration, Evaluation and Authorization of Chemicals), which applies to millions of substance applications and tried to determine, on a cost/benefit basis, whether REACh was actually justified.

The EU Commission ordered a study by the London-based consultancy Risk and Policy Analysts, which predicted that REACh would cost between 1.7 and 7 billion Euros in the first eleven years of its introduction, but that the EU stood to gain a possible cost saving (following the expected fall in occupation-related cancers) of up to 54 billion Euros over the next 30 years. However, these figures appear to be plucked from thin air, as around 80% of all occupation-related cancers in the EU stem from the asbestos legacy. This example shows the importance to effective risk management of input from occupational health specialists and other experts.

The position of the Green lobby appears to be that political application of the Precautionary Principle and the aims of sustainable development are core drivers for new innovations. But how do they know which materials are inherently safe and which have a lasting impact on the environment … when even water can be deadly under certain circumstances? Do the Greens and their political friends consider themselves better able to judge what will prove itself on the open market than market participants themselves? The Greens seem perfectly happy with the authoritarian undercurrents inherent in their position.

Unfortunately, some people cling to the erroneous belief that the expansion of knowledge implies that there is an end – a point where society has attained ‘ultimate knowledge’. This is not the case. The accumulation of knowledge can even lead to total confusion.

However important science may be as a reconnaissance and early warning system for society, the most important source of information in a market economy is not science but the market itself. This information is not transferred without cost, but rather set against the cost of the risks undertaken. Both PVC and tested plasticizers have not proven themselves to be harmful, while their attractive cost / price ratio means they have won in a fiercely competitive market. Millions of consumers who, on the basis of sound human reason freely weigh up costs and benefits, could scarcely be wrong. Clearly, putting pressure on the market by pushing forward alternative materials on the back of product bans or market subsidies constitutes a clear case of consumer disempowerment.

The average consumer from the silent majority does not need such incentives or help with decision-making in an open marketplace. This is demonstrated by the fact that in open competition PVC has easily won through on a number of sustainability criteria such as durability, energy and resources efficiency according to 21 key indicators of the German National Environmental Sustainability Plan set out in 2002. (This is far from my endorsement of this plan; as this cannot be sustainable as long as it fails to include, except for liberalization of international trade barriers, any further moves towards the development of economic freedom.)

Future perspectives

When discussing innovations through the filter of sustainable development, we need to ask if there are any sound reasons not to use proven products. As we have already indicated, innovation cannot be a goal in and of itself. In evolution in the natural world, attributes that have proven useful are not abandoned unless dictated by need; there are many cases of survival features that have remained unaltered over millions of years existing alongside far more recent developments. This is true not least of the genetic code which has been maintained virtually unchanged over the course of evolution from the simplest micro-organisms right up to the most highly developed land plants and mammals.

Today there are many interesting alternatives to phthalate plasticizers such as adipines and alkyl sulfonic acid. These materials are already often mixed with phthalates used in various products, as they improve specific qualities such as flame retardation, or flexibility at cold temperatures. But these substances do not necessarily present fewer problems than phthalates. A few of these such as chlorinated paraffins are even poisonous or carcinogenic. For example, DEHA, used in food packaging and regarded as harmless, has been replaced by some adipates which demonstrate a higher degree of volatility and migration. Similarly, citric acid esters and their derivatives have been increasingly used in toys and food packaging, despite the disadvantages of their higher price and lower microbial resistance.

The plastics industry currently has great hopes for Di-isononyl-cyclohexan-1.2-dicarboxylat (DINCH) a substance developed through computer modelling by BASF in co-operation with customers from other industries. This substance is somewhat more expensive than DEHP, and it can also be almost seamlessly substituted for DEHP without the need to rebuild production plants. DINCH also does not include any of the aromatic hydrocarbons defined as suspect by toxicologists so we can expect it to have a much more benign toxicological profile. BASF has confirmed this in a far reaching programme of tests. These tests indicate that DINCH does not affect the development of sexual organs or fertility, nor does it harm the environment. DINCH has a rate of migration which is 8 times lower than that of DEHP, although it has disadvantages such as higher volatility.

The quest for innovation or substitution in the case of these alternative plasticizers cannot be pursued without consideration of the costs, as we would end up substituting the proven with the unproven through ideologically driven wishful thinking. Society needs to pursue fulfilment of consumer demands in a way that balances benefits against the costs to the economy, the environment, and to health.

Our proven sound basis for rational decision-making would clearly be lost if materials or indeed entire product lines and production methods were to be condemned lock, stock and barrel without a rational cost / benefit analysis.

The history of technology shows us that we can seldom regard any solution to a problem as permanent; legs were complemented by horses, then wheels, then rail. It goes without saying that “good will be superseded by better” in the case of plasticizers. Already it has been demonstrated that in the near future the manufacture of not only hard PVCs but a very broad range of soft PVCs will be possible without the use of special plasticizers.

The American research company Teknor Apex has succeeded in manufacturing polyolefin elastomers. These compounds can be used to make highly elastic and soft PVC manufactured parts without the addition of plasticizers, but are 80% more expensive. Their use will initially be limited medical or specialized technical applications, where the use of plasticizers is a disadvantage and cost is not the deciding factor. Should it become possible to manufacture these compounds more cheaply, then they could take over in a number of markets. However, there is no reason for the artificial acceleration of their market introduction as long as they prove themselves sufficiently against market competition. In short: Current standard plasticizers will probably be replaced one day. What is important is that they are replaced by something really better and not by something declared political correct before being tested by the competition between different solutions on the market.

Conventional plasticizers could also see possible competition from nanotechnology. Nanotechnology has already proved itself in number of cases as a cost-effective physics-based replacement to existing chemical solutions. It is not inconceivable that nanotechnology could soon provide original proposals to solve the problem of plasticizers that we could scarcely dream of today. The name “nanotechnology” also highlights the fact that new solutions to problems could also carry new risks, as nanotechnology is already primarily regarded in the media as “the technology of risk”. No such intelligent technology would free humans from the torment of choice – the weighing up of relative evils.

(Translated by Amanda Oliver, London)

Ist „Bio“ wirklich besser?

Alex A. Avery: Die Wahrheit über Bio-Lebensmittel. Verlag Thuss & van Riesen, Jena 2008. € 24,50. ISBN 978-3-940431-01-1

Die Wahrheit über Bio-Lebensmittel.: Alex AveryBio-Lebensmittel sind „in“. Selbst bei großen Discounter-Ketten wie „Lidl“ oder „ALDI“ gibt es inzwischen ein reichhaltiges Sortiment an Obst und Gemüse aus ökologischem Anbau. Bei Früchten wie Bananen oder Zitronen haben die Kunden oft gar keine andere Wahl mehr, als zu deutlich teurer Öko-Ware zu greifen. Solange man für sein Geld eine überzeugende Qualität bekommt, ist das kein grundsätzliches Problem. Sind Bio-Produkte aber im Hinblick auf den Geschmack, den Nährwert und ihren Gehalt an Giftrückständen wirklich durchgängig besser? Dieser Frage geht der US-Biochemiker Alex A. Avery in einem gut dokumentierten Sachbuch nach, das in den USA zum Bestseller wurde. Der Jenaer Kleinverlag Thuss & van Riesen hat das Buch jetzt ins Deutsche übersetzen lassen. Das lag insofern nahe, als darin auch die Wurzeln und die Praxis des Öko-Landbaus in deutschsprachigen Ländern eine bedeutende Rolle spielen. Dabei wurden leider einige Flüchtigkeitsfehler übersehen. Weiterlesen

Kein Treibhaus ohne Dach

Hartmut Bachmann: Die Lüge der Klima-Katastrophe. Frieling-Verlag, Berlin 2007. 254 Seiten. EUR 17,80. ISBN 978-3-8280-2521-9 (erschienen in: eifrei 76/Oktober 2007)

Die Lüge der Klimakatastrophe. Das gigantischste Betrugswerk der Neuzeit. Manipulierte Angst als Mittel zur MachtHartmut Bachmann, Jahrgang 1924, weiß als ehemaliger Flugzeug-Pilot und Skipper offenbar mehr über Wetter und Klima als viele der vom Staat bzw. von den Steuerbürgern bezahlten Wissenschaftler, die ihre Computerspielereien als „Klimaforschung“ ausgeben. Als Unternehmer in den USA hat er selbst erlebt, wie die New Yorker Schickeria die Angst vor einer „Klimakatastrophe“ als Chance für das große Geschäft mit dem Ablasshandel entdeckte. Dabei überschreitet Bachmann leider die Grenze zur Verschwörungstheorie. Die UNO und ihr Klimarat IPCC ein Instrument des US-Imperiums? (Schön wär’s!) Da bedarf es wohl einiger Differenzierung, um die heftigen Auseinandersetzungen um ein Folgeabkommen zum Kioto-Protokoll von 1997 zu verstehen. Gut nachvollziehbar ist hingegen, wie Bachmann darlegt, dass es einen „Treibhauseffekt“ der Erdatmosphäre, wie er in Europa inzwischen schon Kindern im Vorschulalter eingepaukt wird, nicht geben kann: Der Atmosphäre fehlt schlicht ein Deckel, der die Wärme vom Entweichen in den kalten Weltraum abhält. Bachmann sieht in den Wissenschaftlern und Regierungsvertretern, die im IPCC den Ton angeben, Sektierer, die es nur mithilfe geschickter Medienmanipulation durch Machwerke wie Al Gors Dia-Show „Eine unbequeme Wahrheit“ oder abenteuerliche Hochrechnungen der Kosten des Klimawandels im Report des ehemaligen Weltbank-Präsidenten Sir Nicholas Stern schaffen, ihre absonderliche Weltsicht zur herrschenden Meinung zu machen. Unter den Tisch fällt dabei die Frage, welcher mögliche Nutzen den Kosten in Billionenhöhe gegenübersteht. Weiterlesen

Es wird langsam kühler

Es wird immer deutlicher, dass die befürchtete Abkühlung der Erde, eine so genannte Kleine Eiszeit, schon begonnen hat. Kaltlufteinbrüche mit Schneefällen in Nordamerika, Asien und Europa lange nach Beginn der meteorologischen Sommerzeit haben in letzter Zeit zu beträchtlichen Ernteausfällen geführt und verschärfen die wegen der Finanzkrise ohnehin schon prekäre Ernährungssituation in armen Ländern.

Abkühlung lässt Agrarerträge sinken

Es lässt sich nicht mehr leugnen, dass die globale Erwärmung der Vergangenheit angehört. Seit der Jahrtausendwende wird es auf der Erde wieder langsam kühler. Kann mann über die Aussagekraft von Messungen der Bodentemperaturen noch streiten, so liefert die Entwicklung der landwirtschaftlichen Erträge ein unmissverständliches Bild. Der britische Kollege Christopher Booker hat im „Sunday Telegraph“ vom 14. Juni 2009 einen guten Überblick über witterungsbedingte Ernteausfälle in Nordamerika und in Asien zusammengestellt, der nur den Schluss zulässt, dass Klimawandel konkret Abkühlung heißt. Dazu passt auch die bei SPIEGELonline mit Verwunderung aufgenommene Nachricht, ein bedeutender argetinischer Gletscher dehne sich wieder aus. In einem schon vor über zwei Jahren erschienenen Artikel habe ich versucht zu erklären, was hinter den Wetterkapriolen steckt.

Was ist bloß mit dem Wetter los?

Von Edgar Gärtner*)

Man darf sich in Deutschland offenbar über gar nichts mehr freuen. Nicht einmal über die ermäßigte Heizkostenrechnung, die uns der erstaunlich milde Winter 2006/2007 beschert hat. Die deutschen Massenmedien haben die Veröffentlichung der (politischen!) Zusammenfassung des 4. Berichts des zwischenstaatlichen Klimarates IPCC Anfang Februar 2007 zum Anlass genommen, wie auf Kommando in einem Akt der Selbstgleichschaltung einander mit apokalyptischen Prophezeiungen, hysterischen Warnungen vor hypothetischen Gefahren und Bußpredigten zu überbieten.

Was will etwa der FOCUS-Titel „Die Erde im Klimaschock“ (Nr. 9/2007) sagen, wenn man voraussetzt, dass die World Meteorological Organisation (WMO) „Klima“ als 30-jährigen Mittelwert der Wetterabweichungen einer gegebenen Region vom Wetter anderer Regionen definiert? Ist nun der Mittelwert ein Schock oder wird er geschockt? Oder was bedeutet der Spruch „Die Klimakatastrophe ist eine Tatsache“ Anfang Februar 2007 im ZDF-heute-journal? Angesichts der geologischen Erkenntnis, dass lebensfeindliche Eiszeiten in der aktuellen Phase der Erdgeschichte mehr als zehnmal wahrscheinlicher eintreten als Warmzeiten, könnte das ja nur bedeuten, dass kilometerdicke Eisschilde bereits bis nach Hamburg oder Berlin vorgedrungen sind. Das war aber offenbar nicht gemeint. Vielmehr möchte man den Adressaten der GEZ-finanzierten Propaganda weismachen, die in den letzten 100 Jahren registrierte leichte Erhöhung der Durchschnittstemperatur über den Landmassen der Erde von 0,74 Grad Celsius sei die Katastrophe. Dabei müssten alle, die sich ein Körnchen gesunden Menschenverstand bewahrt haben, hoffen und/oder beten, die Erwärmung möge noch möglichst lange weitergehen. Ein Gemeinwesen, in dem sich eine solche semantische Umweltverschmutzung ausbreiten kann, ist dem Untergang geweiht!

Genau besehen, ist der jüngste IPCC-Bericht übrigens weniger alarmistisch als sein Vorgänger von 2001. Doch wie viele von den lieben Journalisten-Kollegen, die ihre wichtigste Aufgabe darin sehen, den Menschen Angst einzujagen und Opferbereitschaft zu predigen, haben die 13 Seiten Text und 7 Seiten Grafiken des „Summary for Policymakers“ überhaupt studiert? Jedenfalls dürfte es ihnen nicht leicht fallen, den dort projizierten möglichen Anstieg der Durchschnittstemperatur um 2 bis 4,5 Grad Celsius bis zum Jahr 2100 und den damit vermutlich einhergehenden Anstieg des Meeresspiegels um wenige Dezimeter als Katastrophe zu verkaufen.

Was verbirgt sich also hinter dem Schlagwort „Klimawandel“? Gab es in den letzten Jahrzehnten überhaupt einschneidende Veränderungen im Wettergeschehen? Wurden nicht vielmehr natürliche Schwankungen, maßlos übertreibend, zu Vorboten eines „Umkippens“ des herkömmlichen „Klima-Systems“ umgedeutet? Gab es aber dennoch in den letzten Jahrzehnten, wie ich selbst glaube, signifikante Veränderungen im Wetterablauf, wie lassen diese sich dann erklären? Zuerst eine für manche etwas enttäuschende Antwort: Was sich genau hinter den seit den 70er Jahren beobachtbaren auffälligen Veränderungen in der atmosphärischen Zirkulation verbirgt, wissen wir noch nicht. Als sicher kann hingegen gelten, dass die der „Klimapolitik“ zugrunde liegende „offizielle“ Erklärung, die dem bei der Verbrennung fossiler Energieträger (Kohle, Erdöl und Erdgas) entstehenden Kohlendioxid (CO2) und damit uns Menschen die Hauptverantwortung zuspricht, unhaltbar ist. Denn diese stützt sich ausschließlich auf numerische (nicht analytische!) Computersimulationen, deren Übertragbarkeit in die Realität höchst zweifelhaft ist.

Für Atmosphärenforscher verschiedener Disziplin ist CO2 ein Spurengas, weil es gegenüber den Hauptbestandteilen der Gashülle der Erde (78 Prozent Stickstoff und 21 Prozent Sauerstoff) nur etwa einen Teil von 3000 ausmacht. Neben CO2 gibt es noch eine Reihe weiterer Spurengase, darunter extrem reaktionsträge Edelgase und vor allem gasförmiges Wasser (Wasserdampf) in sehr stark schwankender Konzentration. Nicht von ungefähr bezeichnen Ökologen die Erde als „Wasserplanet“. Etwa 71 Prozent ihrer Oberfläche sind von kilometertiefen Ozeanen mit Salzwasser bedeckt. Dieses absorbiert und speichert einen großen Teil der bei klarem Himmel eintreffenden Sonnenwärme. Bereits die oberen drei Meter der Meere enthalten mehr Wärme als die ganze Atmosphäre. Schon allein die Existenz dieses riesigen Wärmespeichers kann, neben der sehr viel schnelleren Rotationsgeschwindigkeit und des damit verbundenen Wechsels von Tag und Nacht, die unterschiedlichen Temperaturverhältnisse auf der Erde und ihrem Trabanten, dem Mond, zu einem beträchtlichen Teil erklären.

Aber auch das bei der Aufheizung der Meere durch Verdunstung in die Lufthülle gelangende, dann zu Wolken kondensierende und als Regen oder Schnee auf die Landmassen fallende Süßwasser ist ein Klimafaktor ersten Ranges und bekanntlich auch in anderer Hinsicht lebenswichtig. Der Kreislauf des Wassers ist der mit Abstand wichtigste Stoffkreislauf auf der Erde. An zweiter Stelle steht der Sauerstoff-Kreislauf. Und erst an dritter Stelle folgt der Kreislauf des Kohlenstoffs, bei dem das Kohlendioxid Ausgangs- und Endpunkt zugleich darstellt. Denn CO2, obwohl in der Luft nur in Spuren vorhanden, bildet die Grundlage für den Aufbau organischer Substanz (Biomasse) durch die pflanzliche Photosynthese. Dabei erweist sich die aktuelle atmosphärische CO2-Konzentration als deutlich unteroptimal, denn eine künstliche Anreicherung dieses Gases in Gewächshäusern führt zu einer deutlichen Steigerung der Photosyntheserate und damit der Rentabilität der Pflanzenzucht.

Kohlendioxid und Wasser haben als dreiatomige Moleküle Eigenschaften, die sich von denen der zweiatomigen Hauptbestandteile der Luft (Stickstoff und Sauerstoff) unterscheiden. Beide werden durch die vom aufgeheizten Erdboden in Form von Infrarotstrahlen (IR) reflektierte Sonnenenergie für winzige Bruchteile von Sekunden zu Schwingungen angeregt. Es ist aber noch längst nicht ausgemacht, ob diese Anregung zu einer zusätzlichen Aufheizung des Bodens durch Rückstrahlung („Treibhauseffekt“) oder nicht im Gegenteil zu einer Abkühlung durch eine Beschleunigung des Wärmetransports ins kalte Weltall führt. Da es in den feuchten Tropen tagsüber längst nicht so heiß wird wie in den trockenen Subtropen, scheint der kühlende Effekt des Wasserdampfes zu überwiegen. Experimentell lässt sich diese Frage aber nicht klären.

Immerhin zeigten spektroskopische Messungen schon in der ersten Hälfte des 20. Jahrhunderts, dass der mögliche Einfluss von CO2 auf das Verhalten der Atmosphäre gegenüber dem Einfluss des Wassers vernachlässigbar gering sein muss. Denn die IR-Absorptionsspektren beider Gase überlappen sich sehr stark. Es gibt ein „Fenster“, durch das Wärmeenergie ungehindert in den Weltraum entweichen kann, weil in diesem Spektralbereich keines der Spurengase IR-Strahlen absorbiert. Die außerhalb des „Fensters“ einzige vom Wasser noch frei gelassene Absorptionsbande (bei 15 Mikrometer Wellenlänge) war – nach spektroskopischen Messungen, die der Wiesbadener Chemiker Heinz Hug durchgeführt hat – schon bei einer CO2-Konzentration von 280 ppm, die als „vorindustrielles Niveau“ angenommen wird, weitgehend gesättigt. Nur in Randbereichen des Absorptionsspektrums der Atmosphäre könnte zusätzliches CO2 überhaupt noch etwas ausrichten. Konkret heißt das: Fast alles, was durch die Menschen zusätzlich in die Luft geblasenes CO2 theoretisch in der Atmosphäre anrichten könnte, wurde schon von H2O getan, das dort (in schwankenden Konzentrationen) ohnehin vorhanden ist. Deshalb hat das „Compendium of Meteorology“ der US Meteorological Society schon 1951 festgestellt, die 1896 vom schwedischen Chemiker Swante Arrhenius (als Erklärung für die Eiszeiten!) formulierte Hypothese eines steuernden Einflusses von CO2 auf die Durchschnittstemperatur der Erde könne ad acta gelegt werden.

An diesem Wissensstand hat sich seither nicht viel geändert. Um die CO2-Treibhaus-Hypothese zu retten, brachte der US-Ozeanograf Roger Revelle, der später zum Mentor des Öko-Kreuzzüglers Al Gore wurde, die Hypothese einer Verstärkung der geringen Wirkung von CO2 durch den Wasserdampf in die Diskussion. Auf dieser „positiven Rückkoppelung“ beruhen heute alle numerischen Simulationsmodelle, mit deren Hilfe Großrechner die Entwicklung der Klimaentwicklung in den nächsten hundert Jahren simulieren sollen. Bei diesen Modellen handelt es sich also in Wirklichkeit um Wasserdampfmodelle, was dem Publikum der Massenmedien meist nicht bekannt ist. Da Wasserdampf aber auch im Gegenteil (vor allem über die Kondensation zu Wolken) eine negative Rückkoppelung bewirken kann, ist diese Einseitigkeit kaum nachvollziehbar. Sie beruht, wie leicht demonstriert werden kann, auf einer mehr oder weniger bewussten politisch-religiösen Vorentscheidung: Nur Modellierer, die dem Zeitgeist folgend, von vornherein davon überzeugt sind, dass die Menschen die Hauptschuld am Klimawandel tragen, werden nichts dabei finden, die mögliche kühlende Wirkung des Wasserdampfes zu vernachlässigen, wenn nicht zu unterschlagen.

Ein weiteres grundsätzliches Manko der „Klimamodelle“, die den IPCC-Berichten zugrunde liegen, ist die nahezu vollständige Verdrängung des realen Wettergeschehens durch die Betrachtung von Korrelationen zwischen Mittelwerten von Wetterdaten und anderen Konstrukten. Aber wie aussagekräftig sind Mittelwerte aus Messdaten, die in Wetterstationen aufgezeichnet werden, die z. T. einige Tausend Kilometer voneinander entfernt liegen? Die Antwort liegt auf der Hand. Tatsächlich verbergen sich hinter dem errechneten (nicht gemessenen!) durchschnittlichen Temperaturanstieg der vergangenen 100 Jahre gegenläufige Entwicklungen, die vermutlich nicht auf eine einzige Ursache, den CO2-Anstieg, zurück geführt werden können. So ist die globale Durchschnittstemperatur der Erde zwischen 1940 und 1975, trotz einer in dieser Zeit weiter gehenden CO2-Zunahme, wieder gesunken und erst in den letzten Jahrzehnten wieder angestiegen.

Dabei gab es auffällige regionale Unterschiede. Die Südhalbkugel ist daran überhaupt nicht beteiligt. Und auf der Nordhalbkugel gibt es vor allem in Polnähe extrem gegenläufige Tendenzen. Das wurde erst in den 90er Jahren bekannt, weil Amerikaner und Russen die Temperatur- und Niederschlags-Messwerte der Arktis während des Kalten Krieges aus militärischen Gründen geheim hielten. So wissen wir erst seit wenigen Jahren, dass die Luft in der Nachkriegszeit nördlich von Norwegen und Alaska in mittlerer Höhe über dem Meeresspiegel im Schnitt deutlich wärmer geworden ist. Damit hängt offenbar die z. T. spektakuläre Schrumpfung des Packeises in diesen Gebieten zusammen. Das Arctic Council (ACIA), eine Art Untergliederung des IPCC, hat daraus im Jahre 2004 geschlossen, bis zum Ende des Jahrhunderts werde die Arktis im Sommer vollkommen eisfrei sein. Doch diese primitive Hochrechnung ist unbegründet, weil größere Teile der Arktis (insbesondere über Ostsibirien sowie Ostkanada und Nord-Grönland) im gleichen Zeitraum in Bodennähe deutlich kälter geworden sind. Im Großen und Ganzen hat sich die Arktis seit 1950 stetig abgekühlt. Das mussten vor kurzem zwei tapfere Frauen (Ann Bancroft und Liv Arnesen) zur Kenntnis nehmen, die in der Absicht, die Welt vor der globalen Erwärmung zu warnen, mitten im Winter zu einer Nordpol-Expedition aufgebrochen waren. Sie mussten ihr Unterfangen aber abbrechen, weil bei Temperaturen von bis zu minus 100 Grad Fahrenheit (-73°C) die Batterien ihres Equipment den Geist aufgaben.

Von den über dem größten Teil der Arktis liegenden Kaltluft-Seen lösen sich, wie Aufnahmen von Wettersatelliten seit dem Ende der 70er Jahre zeigen, in den letzten Jahrzehnten immer häufiger flache Kaltluftlinsen mit hohem Druck. Diese ziehen auf charakteristischen Bahnen Richtung Süden, weil sie Gebirgszüge von über 1000 Metern Höhe nicht überqueren können. Das bekommen vor allem die Nordamerikaner zu spüren, die auch in diesem Winter bis ins Frühjahr hinein wieder von einer Kältewelle nach der anderen heimgesucht wurden. Zur gleichen Zeit konnten sich die Westeuropäer über deutlich sinkende Heizkosten freuen, mussten dafür aber größtenteils Schmuddelwetter in Kauf nehmen, das von häufigen feucht-milden Südwestwinden herangetragen wurde. Bei diesen Winden, die entlang der norwegischen Berge bis in die Arktis vorstoßen können, handelt es sich, wie Satelliten-Aufnahmen zeigen, eindeutig um Warmluft, die durch die auf der Ostseite des Atlantik gen Süden ziehenden Kältehochs verdrängt wurde. Das Gleiche spielt sich über dem Pazifik ab. Die dort von sibirischen und mongolischen Kältehochs verdrängte Warmluft strömt auf amerikanischer Seite entlang der Rockies nach Alaska.

Das alles kann man, wie angedeutet, auf den immer besser aufgelösten und präzise datierten Satellitenaufnahmen anhand charakteristischer Wolkenbilder beinahe lückenlos verfolgen. Leider sieht man diese schönen (und obendrein kostenlos verfügbaren) Bilder in unseren TV- und Printmedien immer seltener. Warum wohl? Die öffentlich-rechtlichen Fernsehkanäle zeigen ihrem Publikum stattdessen Isobaren-Karten, mit denen Laien kaum etwas anzufangen wissen. Die meisten Tageszeitungen sind nicht viel besser. Die FAZ zeigt immerhin noch in Tiefblau die wandernden Kaltluftmassen. Die einzige mir bekannte deutschsprachige Tageszeitung, die ihre Wetterseite bis vor kurzem jeden Tag mit einen aussagekräftigen Satellitenfoto aufmachte, ist die NZZ. Dort wurden diese aber meist mit eigenartigen Kommentaren versehen. Oft fand sich darin kein Hinweis auf durchaus nicht unauffällige Kältehochs, die von der Grönlandsee herunter ziehen. Stattdessen stehen Tiefdruckwirbel im Vordergrund, die sich mithilfe der Erdrotation bilden, wenn Warmluft der anrückenden Kaltluft durch Aufsteigen ausweicht. Die Wetterfrösche erwecken den Eindruck, nicht die von der Arktis Richtung Äquator ziehenden Hochs, sondern Tiefs seien die Motoren der atmosphärischen Zirkulation.

Nach Ansicht des inzwischen leider zu früh verstorbenen französischen Meteorologen und Klimatologen Marcel Leroux ist diese Fehlinterpretation die Folge des sturen Festhaltens der staatlichen Wetterdienste an Theorien der atmosphärischen Zirkulation aus der ersten Hälfte des vorigen Jahrhunderts. Danach befindet sich der Motor der globalen Wettermaschine im Tropengürtel der Erde, d.h. in einem Tiefdruckband, auch meteorologischer Äquator genannt, das sich infolge des Aufsteigens feucht-warmer Luftmassen bildet. Die aufgestiegene Luft regnet und kühlt sich in Tropengewittern ab und sinkt in den so genannten Rossbreiten, abgelenkt durch die Erdrotation, als trockener Fallwind (Passat) wieder zu Boden. Diese Dynamik soll auch das Wettergeschehen in der gemäßigten Westwindzone stark prägen.

Marcel Leroux konnte schon in seiner Habilitationsschrift („Thèse d’état“) zeigen, dass diese Vorstellung nicht haltbar ist. Als Sohn eines bretonischen Marineoffiziers in Nordafrika aufgewachsen, absolvierte er seinen gesamten wissenschaftlichen Werdegang im tropischen Afrika. Für seine „Thèse d’état“ reiste Leroux ein Jahrzehnt lang kreuz und quer durch den schwarzen Kontinent, um alle verfügbaren historischen Wetterdaten (meist von Kolonialverwaltungen) zusammenzutragen und auszuwerten. Das Ergebnis war ein zweibändiger Klima-Atlas des tropischen Afrika, der 1983 von der WMO in Genf publiziert wurde und, da 2001 auf Englisch neu aufgelegt und um eine CD ROM ergänzt, noch heute als alternativloses Standardwerk gilt. Bei der Datenauswertung fiel Leroux auf, dass der meteorologische Äquator keine stabile Lage hat. Vielmehr wird er relativ oft von starken, je nach Jahreszeit von der Arktis oder der Antarktis heranrückenden Hochdruckgebieten nach Süden oder Norden verschoben. Leroux deutet u. a. die Trockenheit der Sahel-Zone als Folge einer solchen Verschiebung. Der Tropengürtel spielt nach diesem Befund also eher eine passive als eine aktive Rolle in der globalen Luftzirkulation.

Als Professor an der Universität Jean Moulin in Lyon konnte Leroux später durch die Auswertung einer Vielzahl von Satellitenfotos zeigen, dass die Motoren der Wettermaschine tatsächlich an den Polen und nicht am Äquator zu finden sind. Er konnte anhand dieser Bilder und durch den Vergleich von Wetterdaten zeigen, dass sich die (diskontinuierliche) atmosphärische Zirkulation auf der Nordhalbkugel seit den 70er Jahren deutlich beschleunigt hat. Das Wetter wechselt häufiger als früher, weil sich ein Hoch nach dem andern, immer begleitet von Tiefdruckwirbeln, nach Süden bewegt. Mitunter kommt es aber doch zu sehr stabilen Wetterlagen, wenn sich etliche kleinere Hochs zu einem Riesenhoch zusammenballen. Auf diese Weise entsteht das bekannte „Azorenhoch“ über dem Atlantik. Es handelt sich dabei aber nicht um eine autonome Wesenheit, sondern um eine statistische Größe, die nur die hohe Wahrscheinlichkeit anzeigt, mit der sich von der Labradorsee oder vom Europäischen Nordmeer herunter ziehende Kältehochs (Leroux und seine Schüler nennen sie „Mobile Polar Highs“, MPH) in diesem Gebiet vereinigen. Das gleiche gilt für die Bezeichnung „Island-Tief“, die nur andeutet, dass die vom Vordringen der MPH erzeugten Tiefdruckwirbel oft dorthin ziehen.

In den letzten Jahrzehnten sind nach Leroux’ Statistik die MPH nicht nur häufiger geworden. Gleichzeitig stieg auch ihr durchschnittlicher Druck. Und sie drangen immer weiter nach Süden vor, während die sie begleitenden Tiefdruckwirbel immer weiter nach Norden gelangten. Über die Tiefdruckrinne am Vorderrand der Hochs kann so warme Luft nicht nur aus den Subtropen, sondern sogar aus den Tropen bis in die Arktis gelangen. Auf der Südhemisphäre ist übrigens Ähnliches zu beobachten. Dort wird Warmluft von der Andenkette direkt auf die antarktische Halbinsel gelenkt. Dort schmilzt das Eis, während sich der antarktische Kontinent, im Ganzen genommen, weiter abkühlt. An der (geringen) Veränderung der Durchschnittstemperatur lässt sich diese Dynamik überhaupt nicht ablesen.

Die gelegentlichen Hitzewellen, die in den letzten Jahren in Westeuropa auftraten, wurden übrigens immer von Kaltlufteinbrüchen verursacht. Mehrere MPH stauten sich an der Alpenbarriere und ihre Luftmassen heizten sich dann infolge der starken sommerlichen Sonneneinstrahlung an Ort und Stelle auf. Das kann man gut in diesem sonnigen Frühjahr beobachten: Immer sind es Kaltlufteinbrüche, die bei uns für schönes Wetter sorgen. Häufigere Kaltlufteinbrüche könnten auch erklären, warum die durchschnittliche Oberflächentemperatur der Ozeane in den letzten Jahren nicht gestiegen, sondern nach Lyman und Mitarbeitern wahrscheinlich sogar leicht gesunken ist. Die Bestätigung dieses Trends steht freilich noch aus.

Leroux ist deshalb der Meinung, hinter der in einem Teil der Welt registrierten Erwärmung verberge sich in Wirklichkeit ein Abkühlungsprozess. Die beschriebene Beschleunigung der atmosphärischen Zirkulation sei ein Vorzeichen des langsamen Heranrückens der nächsten Eiszeit. Denn Geologen wissen, dass die globale Wettermaschine in der jüngeren Erdgeschichte zwischen zwei Gangarten, einer schnellen und einer langsamen, hin und her gependelt ist. Dabei blieben die langsamen, mit einer Erwärmung verbundenen Phasen eher Ausnahmesituationen. Die mit einer Abkühlung verbundenen schnellen Phasen währten etwa zehnmal länger.

Es kann ausgeschlossen werden, dass der CO2-Gehalt der Luft für dieses Auf und Ab direkt oder indirekt verantwortlich ist. Analysen von Eisbohrkernen von der Antarktis zeigen eindeutig, dass der CO2-Anstieg Erwärmungsphasen immer mit einer Zeitverzögerung von 800 bis 1000 Jahren folgte, also keineswegs als Ursache der Erwärmung in Frage kommt. Dieses Nachhinken des CO2-Anstiegs gegenüber dem Temperaturanstieg ist auch in der neueren Zeit beobachtbar. So wissen wir seit kurzem durch die Auswertung alter, aber verlässlicher CO2-Messungen mithilfe klassischer chemischer Analysemethoden durch den Freiburger Biologen Ernst Georg Beck dass dem Hitzejahr 1940 zwei Jahre später eine CO2-Spitzenkonzentration von 420ppm folgte. Heute versucht das IPCC den Menschen einzureden, die aktuelle CO2-Konzentration von 380 ppm sei bereits bedenklich.

Aus alledem lässt sich nur schließen: Kohlendioxid aus natürlichen Quellen und von Menschen gesteuerten Verbrennungsprozessen kann nicht Ursache des Klimawandels sein. Das heißt nicht, die Menschen hätten überhaupt keinen Einfluss auf ihr (regionales) Klima. Tatsächlich haben sie dieses seit grauen Vorzeiten tief greifend verändert, und zwar vor allem durch die Rodung von Wäldern, die Schaffung von Acker- und Weideland sowie nicht zuletzt durch die Anlage von städtischen Siedlungen und Stauseen.

Viel besser lässt sich der Wechsel von Kalt- und Warmzeiten nach Ansicht namhafter Astronomen mit natürlichen Variationen der Sonneneinstrahlung und des Magnetfeldes erklären, wobei jedoch berücksichtigt werden muss, dass sich hier astronomische und terrestrische Zyklen sehr unterschiedlicher Länge und Größenordnung (wie die Exzentrizität des Erdumlaufs um die Sonne, die Neigung der Erdachse, kürzere und längere Schwankungen der Sonnenaktivität sowie kosmische Einflüsse) in komplizierter Weise überlagern. Unter Umständen können Zyklen gegenläufige Einflüsse ausüben. Deshalb ist gegenüber Prognosen, die nur einen bekannten Zyklus berücksichtigen, Vorsicht geboten.

So deutet zur Zeit Vieles darauf hin, dass wir die Häufung warmer Sommer seit den 90er Jahren zum beträchtlichen Teil einer außerordentlichen Verstärkung des Magnetfeldes der Sonne im Laufe des 20. Jahrhunderts verdanken. Nach einer inzwischen schon halbwegs bestätigten Hypothese der dänischen Atmosphärenphysiker Henrik Svensmark und Eigil Friis-Christensen wird dadurch die Erde vor kosmischen Partikeln geschützt, die beim Eindringen in die Atmosphäre als Kondensationskeime für die Wolkenbildung wirken könnten. Gibt es weniger Wolken, steigen die sommerlichen Temperaturen. Umgekehrt kann es aber auch in den langen Winternächten bitter kalt werden. Da der hyperaktive Sonnenzyklus nun vorüber ist, erwartet der bekannte russische Astronom und Mathematiker Habibullo Abdusamatow (St. Petersburg) eine schon im nächsten Jahrzehnt beginnende Abkühlungsphase, eine „Kleine Eiszeit“, die um die Mitte des Jahrhunderts ihren Tiefpunkt erreichen soll. Aber auch die nächste „Große Eiszeit“ rückt näher, denn die Geologen sind sich im Prinzip einig, dass der Höhepunkt der gegenwärtigen Warmzeit längst überschritten ist. Welche Ursachen aber im Einzelnen hinter der beobachtbaren Beschleunigung der Luftzirkulation stehen, weiß noch niemand. Deshalb würde ich zur Zeit noch nicht wetten, dass es auf der Erde schon in zehn Jahren spürbar kühler sein wird.

Literatur

Ernst Georg Beck: 180 Years of Accurate CO2-Gas-Analysis of Air by Chemical Methods (Short Version), in: Energy & Environment Volume 18 No. 2/2007

Heinz Hug: Die Angsttrompeter. Die Wahrheit über die Gefahren aus der Umwelt. Signum Verlag (F.A. Herbig), München 2006. ISBN 3-7766-8013-X. 360 Seiten.

Marcel Leroux: Global Warming. Myth or Reality? The Erring Ways of Climatology. Springer-Praxis, Berlin-Heidelberg-New York 2005. ISBN 3-540-23909-X. 509 Seiten.

Marcel Leroux: Les échanges méridiens commandent les changements climatiques. Vortrag in der Académie des Sciences, Paris, 5. März 2007

John M. Lyman/Josh K. Willis/Gregory C. Johnson: Recent Cooling of the Upper Ocean, in: Geophysical Research Letters, Vol. 33, L 18604, doi: 10.1029/2006GL027033, 2006

Henrik Svensmark/Jens Olaf Pepke Pedersen/Nigel Marsh/Martin Enghoff/Ulrik Uggerhoj: Experimental Evidence for the Role of Ions in Particle Nucleation under Atmospheric Conditions, in: Proceedings of the Royal Society A, 2006, October 3rd

*) veröffentlicht 2007 in „eigentümlich frei“ (Lichtschlag-Medien, Grevenbroich)

Plädoyer für eine evolutionäre Ökologie

Claude Allègre: Ma vérité sur la planète ; Editions Plon, Paris 2007. ISBN: 978-2-259-20675-4. 240 S. € 18,-

Ma vérité sur la planèteDas Alfred-Wegener-Institut für Polar- und Meeresforschung (AWI) in Bremerhaven spielt eine wichtige Rolle in der Klimaforschung und wird infolgedessen nicht selten in den Massenmedien zitiert. Aber nur wenige von denen, die heute davon ausgehen, dass das letzte Wort über die Erklärung des aktuellen Klimawandels schon gesprochen ist und es geradezu für unmoralisch erklären, noch an der Schuld des Menschen zu zweifeln, scheinen bereit zu sein, Lehren aus dem Schicksal des Namensgebers des Bremerhavener Instituts zu ziehen. Unsere Schüler lernen, dass Alfred Wegener der Urheber der Theorie der Kontinentalverschiebung ist. Diese beruhte nicht zuletzt auf der durch den Augenschein gestützten Vermutung, dass Afrika und Südamerika vor vielen Millionen Jahren einmal zusammengehangen haben müssen. Weiterlesen