Klimawandel meistern statt scheitern! Jahrbuch 2008 des Club of Home

“Nur die Dummen dämmen”, sagt Dipl.Ing. Alfred Eisenschink, der Sprecher des “Club of Home”, eines in Berlin registrierten gemeinnützigen Verbraucherschutzbundes von Architekten, Bauingenieuren und Häuslebauern, der seine Mitglieder mit Rat und Tat davor bewahren möchte, im Namen des “Klimaschutzes” in unsinnige “Energiesparmaßnahmen” zu investieren. “Die Verbraucher müssen vor baulichen und gesundheitlichen Schäden infolge des energiepolitischen Verordnungsterrors geschützt werden”, sagt Eisenschink.

Club of Home: Meistern statt Scheitern. Chancen des Klimawandels. Jahrbuch 1-2008. GLOOR Verlag. München. ISBN 978-3-938037-07-2

Club of Home e.V., gemeinnütziger Verbraucherschutzbund. 1. Vorsitzender: Jürgen Minke, Kuno-Fischer-Straße 13, 14057 Berlin, Tel/Fax: +49-30322556. Jahresbeitrag € 60,-.Kontonummer 172 54 517 bei der Kreissparkasse Pullach (BLZ 702 501 50)

Öko-Industrie-Komplex

Reichtum schützt vor Dummheit nicht. Der im Alter von über 80 Jahren zur grünen Ersatzreligion konvertierte amerikanische Öl- und Gas-Milliardär T. Boone Pickens muss den Plan, sich in Texas in Form des größten Windparks der Welt ein Denkmal zu setzen, wegen der Finanzkrise auf Eis legen. Nun weiß er nicht, wohin mit den bei General Electric bereits fest bestellten Windrädern. Das könnte ein Vorbote des Platzens der grünen Blase sein.

US-Milliardär Pickens sucht Garage für seine Windmühlen

Wegen der wirtschaftlichen Depression und des damit verbundenen Sinkens des Ölpreises muss der im Öl- und Gasgeschäft zum Milliardär gewordene „grüne“ Investor T. Boone Pickens seinen Plan, in seinem Heimatstaat Texas den größten Windpark der Welt zu erreichten (siehe Bericht über das Wind-Gas-Kartell auf dieser Seite weiter unten) auf Eis legen. Sein Problem: Er hat bereits beim Anlagenkonzern General Electrics für nicht weniger als zwei Milliarden Dollar eine erste Tranche Windräder fest geordert. Nun weiß er nicht, wohin damit. Die Moral von der Geschicht‘: Reichtum schützt vor Dummheit nicht.

===================================================================

Björn Lomborg über den Klima-Industrie-Komplex

Im „Wall Street Journal“ vom 21. Mai 2009 analysiert der bekannte dänische Statistik-Professor Björn Lomborg anlässlich des gerade in Kopenhagen stattfindenden Wirtschafts-Klimagipfels die hinter dem „grünen“ Engagement großer Energiekonzerne stehdnen parasitären Geschäftsinteressen. Lomborg bestätigt alles, was ich selbst seit Jahren zu diesem Thema geschrieben habe.

===================================================================

Die Hitparade der Öko-Profiteure

Die Londoner Sunday Times wartet am 1. März 2009 mit einer langen Liste reicher „Weltbürger“ auf, die es besonders gut verstehen, die von ihnen selbst und ihnen hörigen Massenmedien geschürte Angst vor einer uns angeblich drohenden Klimakatastrophe auf Kosten wirtschaftlich benachteiligter Familien mit hohem Energieverbrauch zu Geld zu machen. Diese Liste ergänzt sehr gut meine eigene Analyse des deutschen Öko-Industrie-Komplexes (ÖIK), die im letzten Spätherbst im Magazin „eigentümlich frei“ erschienen ist:

Die Allparteien-Koalition Grüner Amigos

Über die endliche Erfolgsgeschichte des Ökologisch-Industriellen Komplexes (ÖIK) in Deutschland

von Edgar Gärtner

Das Scheitern der Machtübernahme Andrea Ypsilantis in Hessen an der der schmerzlichen, weil persönlich nachteiligen und deshalb späten Gewissensentscheidung von vier sozialdemokratischen Landtagsabgeordneten hat sicher nicht wenig mit der Entlarvung der Inkompetenz des „Sonnenpapstes“ Hermann Scheer im SPIEGEL 45/2008 zu tun. Zum ersten Mal hat ein führendes deutsches Print-Medium hier den Heiligenschein des Trägers des alternativen Nobelpreises zerrissen, indem sie den Präsidenten des von seiner Ehefrau Irm Pontenagel gemanagten Vereins „Eurosolar“ als ebenso verbohrten wie skrupellosen Lobbyisten für die von der ganzen politischen Klasse Deutschlands zum Heil der Menschheit verklärte und daher hoch subventionierte, in Wirklichkeit aber unzuverlässigste und unwirtschaftlichste Form der Stromerzeugung dastehen lässt. (Vorausgegangen war dem SPIEGEL-Artikel ein Forums-Beitrag des freien Journalisten Jan-Philipp Hein, der am 14. April 2008 in der WELT erschien.) Die Tatsache, dass Scheer nun bei den in Hessen vorgesehenen Neuwahlen nicht mehr dem Schattenkabinett von Ypsilantis Platzhalter Thorsten Schäfer-Gümbel angehört, signalisiert darüber hinaus – allen gegenteiligen Beteuerungen zum Trotz – eine Infragestellung von Scheers Plan, die Stromversorgung des Verkehrsknotenpunktes und Industriestandortes Hessen bis zum Jahre 2025 zu 100 Prozent auf Wind-, Solar-, Biomasse- und Wasserkraft umzustellen.

Schneller als selbst von Skeptikern erwartet, erweist sich der Börsenboom rund ums Themenfeld „erneuerbare Energien“ als eine politischen Signalen folgende Blase, die nun platzt. Vordergründig ist daran die durch das Platzen der US-Immobilienkredit-Blase ausgelöste globale Finanzkrise schuld. Das wegen des Verdachts, auch die Bücher bislang als seriös eingeschätzter Geldhäuser könnten noch viele faule Hypotheken enthalten, verschwundene Vertrauen zwischen den Banken hat zu drastischen Restriktionen bei der Kreditvergabe geführt, die sich bei den stark expandierenden Stars der Solar- und Windbranche als kaum überwindbare Kreditklemme bemerkbar macht. Deshalb sind Werte wie Q-Cells, SMA Solar, Solon und sogar die noch etwas besser dastehende Solarword AG, die den TecDax dominieren, in den letzten Monaten noch viel stärker eingebrochen als Dax und M-Dax. Ein kurzfristiges Hochschießen der Solarwerte anlässlich des Wahlsieges von Barack Obama in den USA hat daran nichts geändert.

Es spricht sich auch herum, dass die Durchschnittstemperatur über den Landmassen der Erde, trotz eines kräftigen Anstiegs der Konzentration des als „Klimakiller“ verteufelten Verbrennungsabgases Kohlenstoffdioxid (CO2), seit zehn Jahren nicht mehr weiter steigt. Angesichts leerer Staatskassen und einer beginnenden Rezession, die höchstwahrscheinlich deutlich länger als nur ein paar Monate anhalten wird, fragen sich immer mehr Investoren, die sich zumindest einen Rest gesunden Menschenverstands bewahrt haben, ob sie sich den Luxus leisten können, in Technologien zu investieren, die CO2 auf die denkbar teuerste Weise einsparen. Wer soll, angesichts der sich abzeichnenden Verarmung ganzer Bevölkerungsschichten und Regionen, die Kosten dieser vermeintlichen „Zukunftstechnologien“ aufbringen? Können wir es uns wirklich noch leisten, die Nutzung des reichlich verfügbaren, leicht transportier- und lagerfähigen und daher konkurrenzlos preisgünstigen Energieträgers Kohle zu verzichten, nur um bei grünen Nihilisten gut Wetter zu machen? Ist nicht der soziale Frieden in höchster Gefahr, wenn den Menschen in Zeiten wachsender Arbeitslosigkeit immer höhere Energiekosten aufgebürdet werden?

Solche Fragen deuten an, dass das Ersatz-Feindbild „Umweltveränderung“ beziehungsweise „Klimawandel“, mit dessen Hilfe es die politischen und wirtschaftlichen Eliten des Westens seit der Entspannungsphase des Kalten Krieges gelang, das Volk einigermaßen bei Stange zu halten, inzwischen auf dem Prüfstand steht. Die Ablösung des Feindbildes „Kollektivismus“ durch das Ersatz-Feindbild „Klimawandel“ bot der herrschenden politischen Klasse den großen Vorteil, die Aufmerksamkeit der Beherrschten auf einen abstrakten, weder mit den fünf Sinnen noch durch den Verstand fassbaren Gegner zu lenken. Doch angesichts der beginnenden Wirtschaftskrise und der wenig dramatischen Entwicklung der Wetterabläufe gelingt es immer weniger, den Menschen damit noch Angst zu machen. Schon ist die Europäische Union dabei, ihr auf Betreiben der deutschen Bundeskanzlerin Angela Merkel angenommenes „Klima-Paket“ (jeweils 20 Prozent CO2-und Energieeinsparung und Steigerung des Anteils „erneuerbarer“ Energien bis zum Jahre 2020) aufzuschnüren und deutlich abzuschwächen. Das muss Auswirkungen auf einen durchwegs politischen Markt haben, auf dem sich in den vergangenen drei bis vier Jahrzehnten staatsmonopolitische Kartellstrukturen besonderer Art, der Öko-Industrie-Komplex (ÖIK), etabliert hatten. Damit wird auch die wirtschaftliche Basis einer historisch einmaligen politischen Allparteien-Koalition in Frage gestellt.

Wie kam es überhaupt dazu, dass sich das im Kern absurde Ersatzfeindbild „Klimawandel“ und das dadurch begründete staatsmonopolitische Industriekartell so rasch auch in der Privatwirtschaft durchsetzten? Dieser Frage möchte ich im Folgenden vorwiegend auf dem Hintergrund eigener Erfahrungen nachgehen und dabei auch andeuten, wo ich noch Klärungsbedarf sehe.

Zur Geschichte des Öko-Industrie-Komplexes

Schon in den Anfängen der um 1970 gestarteten systematischen Umweltpolitik galt für den auf den Bau von Filtern aller Art spezialisierten neuen Zweig des Anlagenbaus der Satz „Gesetze bestimmen die Umsätze“. So der Titel eines Beitrages in einem der damals eigens gegründeten Fachmagazine für Umwelttechnik. D.h. je schärfer die Grenzwerte für Schadstoffe in Abwasser und Abluft, desto besser die Geschäftschancen der Umweltbranche. Das wurde bereits auf der ersten deutschen auf Umwelttechnik spezialisierten Messe, der ENVITEC 1973 in Düsseldorf, thematisiert. Bei dieser vom damaligen Bundesinnenminister Hans-Dietrich Genscher (FDP) eröffneten Ausstellungs- und Kongress-Veranstaltung (auf der ich, nebenbei gesagt, mir meine ersten Sporen und Kröten als Umweltjournalist verdiente) wurde auch deutlich, dass die Branche stark von Konzernen des Militärisch-Industriellen Komplexes (MIK) dominiert wird. Deren Manager waren es seit der nazistischen Kriegswirtschaft (insbesondere in deren Endphase unter Albert Speer) gewohnt, in einer korporatistischen, aber hoch effizienten Form von Vetternwirtschaft auf politisch-bürokratisch bestimmten Märkten zu arbeiten.

Der Begriff „Militärisch-industrieller Komplex“ wurde vom Ex-General und späteren US-Präsidenten Dwight D. Eisenhauer geprägt. Dieser warnte seine Landsleute am Ende seiner Amtszeit vor der Eigendynamik der in der Kriegswirtschaft des Zweiten Weltkriegs aufgebauten kartellartigen Wirtschaftsstrukturen. Der Begriff „Öko-Industrie-Komplex“ wurde bereits im Jahre 1970 vom linksliberalen amerikanischen Publizisten Martin Gellen eingeführt. Dieser sah schon damals deutlich, dass die von US-Präsident Richard Nixon in großem Stil aus der Taufe gehobene Umweltpolitik als relativ eigenständiger Politikbereich zu dem MIK vergleichbaren parasitären Wirtschaftsstrukturen führen muss. Durchaus nicht zufällig ging übrigens der Start der Umweltpolitik einher mit der Abkehr der Nixon-Regierung vom wenigstens noch formalen Gold-Bezug des 1944 in Bretton Woods begründeten internationalen Währungssystems. Seither manifestiert sich die von der wachsenden Staatsverschuldung erzeugte Geldentwertung weniger in einer kontinuierlichen Verteuerung von Waren des täglichen Bedarfs als vielmehr in Form des Platzens politisch erzeugter Spekulationsblasen.

Einer der Vordenker des ÖIK in Deutschland war Ludwig Bölkow, der damalige Vorstandsvorsitzende des Rüstungskonzerns Messerschmidt-Bölkow-Blohm (MBB). Schon 1970 forderte dieser, um angesichts der sich abzeichnenden Ost-West-Entspannung, diversen Nachteilen der einseitig militärischen Ausrichtung seines Geschäfts zu begegnen, eine Ausweitung des zivilen Anteils der Fertigung seines Konzerns auf 50 Prozent. Dabei dachte er hauptsächlich daran, Umweltschutztechniken zum zweiten Standbein des durchwegs politisch bestimmten Geschäfts seines Konzerns zu machen. Neben Bölkow gehörte auch der ehemalige MBB-Manager und spätere „Atomminister“ Prof. Dr. Siegfried Balke zu den Vordenkern des ÖIK. Die Technologieberatungsfirma MBB Systemtechnik in Ottobrunn hat bis heute einen beträchtlichen Einfluss auf die deutsche und zum Teil auch europäische Forschungs- und Technologiepolitik im Bereich Energie und Umwelt – zum Beispiel in Form von Gutachten für Bundesministerien und Enquete-Kommissionen des Deutschen Bundestages. Gleichzeitig fördert die Bölkow-Stiftung, in deren Stiftungsrat Grüne den Ton angeben, gezielt Pioniere „grüner“ Energietechnik.

Zu den Firmen, die das erste Umweltprogramm der deutschen Bundesregierung von 1971 und die darin enthaltenen (und von ihnen direkt beeinflussten!) Emissions-Grenzwerte in Form diverser Filter- und Reinigungstechniken umsetzten, gehörten denn auch fast durchwegs Töchter von Rüstungskonzernen wie Flick (insbesondere Krauss-Maffei), Quandt, Klöckner, Krupp, Haniel, MBB, Rheinstahl und, Siemens. Hinzu kamen Töchter von Metallgesellschaft, Degussa und Hoechst sowie des Energiekonzerns RWE, die (wie auch die meisten der vorgenannten Konzerne) in der Nuklearindustrie eine große Rolle spielten.

Begleitet wurde diese Neuausrichtung des MIK durch die allmähliche Transformation von Massenmedien in eine Angstindustrie. Eine große Gelegenheit dafür bot die Veröffentlichung der Studie „Die Grenzen des Wachstums“ durch den Club of Rome. Das Thema „CO2 und Klima“ spielte dabei in Deutschland jedoch zunächst kaum eine Rolle. Statt in Deutschland spielte die alte, aber im Grunde längst widerlegte Hypothese des schwedischen Chemikers Svante Arrhenius von 1896, der wachsende Ausstoß des Verbrennungsabgases CO2 führe zu einer Verstärkung des „Treibhauseffekts“, zunächst nur in Skandinavien eine Rolle. Vor allem die schwedischen Sozialdemokraten unter Olof Palme erwogen schon im Umkreis der ersten UN-Umweltkonferenz 1972 in Stockholm und des neu gegründeten internationalen Umwelt-Fachmagazins „Ambio“ die Einführung von CO2-Steuern, stießen damit jedoch zunächst in Kontinentaleuropa auf wenig Resonanz. Erst als der Preis des Nordsee-Öls in den 80er Jahren unter 10 Dollar je Barrel absackte und die Erdgasförderung in der Nordsee infolge der Koppelung des Gaspreises an den Ölpreis unrentabel geworden war und es deshalb in Europa nahe lag, in der Wärme- und Stromproduktion massiv zur reichlich vorhandenen billigen Kohle zurückzukehren, starteten die skandinavischen Sozialdemokaten unter der Norwegischen Ministerpräsidentin Gro Harlem Brundtland, später Vorsitzende der nach ihr benannten UN-Kommission für Umwelt und Entwicklung, mithilfe der Sozialistischen Internationale eine europaweite Kampagne für CO2-Steuern, um den Kohle- und Öleinsatz künstlich zu verteuern und die Erdgasförderung in der Nordsee wie später auch in Russland wieder rentabel zu machen.

Das CO2-Thema war aber auch einigen Persönlichkeiten der damals in Bonn regierenden Großen Koalition von CDU/CSU und SPD und der sie ablösenden sozial-liberalen Koalition unter Willy Brandt jedoch durchaus von Anfang an bekannt. Zu diesen Persönlichkeiten zählt der heutige Lord Prof. Ralf Dahrendorf. Der bekannte liberale Soziologe beteiligte sich als Staatssekretär im Bundesaußenministerium aktiv an Debatten über die Ausgestaltung der „Dritten Dimension“ der NATO, wo das Klima-Thema im Wissenschaftsausschuss über den Klimatologen Prof. Herrmann Flohn (Bonn) zu einer Zeit, als die Wissenschaftlergemeinde noch beinahe einhellig vom Herannahen der nächsten Eiszeit überzeugt war, schon mit anthropogenen CO2-Emissionen in Zusammenhang gebracht wurde.

Wichtige Anstöße gingen auch von den US-Wissenschaftlern Roger Revelle und Charles Keeling sowie von dem später zum wichtigsten Kritiker der Klima-Hysterie gewandelten österreichisch-amerikanischen Weltraum-Physiker Fred Singer aus. Im Prinzip war auch Günter Hartkopf, FDP-Staatssekretär in dem damals noch für den Umweltschutz zuständigen Bundesinnenministerium, darüber informiert, hat aber dazu nichts verlauten lassen. Frage: Gab es damals Versuche der Brandt-Regierung, sich in dieser Angelegenheit mit den schwedischen Sozialdemokraten zu verständigen? Ich vermute: Da Umweltschutz Angelegenheit der FDP war, haben sich die Sozialdemokraten um das Thema „Klima“ längere Zeit wenig gekümmert. Wegen ihrer engen Verzahnung mit dem Deutschen Gewerkschaftsbund (DGB) standen stattdessen Probleme der Arbeitswelt im Vordergrund.

In Deutschland war die Zeit nach der Ölkrise von 1973 geprägt von einer wachsenden Konfrontation zwischen der sozial-liberalen Regierung und der erstarkenden Anti-Atom-Bewegung. Beim Abwehrkampf des zuständigen sozialdemokratischen Forschungs- und Technologieministers Hans Matthöfer spielte das Klima-Thema aber so gut wie keine Rolle. Erst nach dem Reaktorunfall von Tschernobyl wurde das Thema auf Betreiben der deutschen Nuklearindustrie und ihr nahe stehender Naturwissenschaftler wie den Bonner Physiker Prof. Klaus Heinloth in Form einer „Warnung vor einer drohenden Klimakatastrophe“ durch die Deutsche Physikalische Gesellschaft (DPG) offensiv in die Medien gebracht.

Diese Kampagne mündete in der Einsetzung der Enquête-Kommission „Schutz der Erdatmosphäre“ durch den 11. und 12. Deutschen Bundestag (BT). Ihr Vorsitzender war der als Lobbyist der Hanauer Nuklearindustrie (NUKEM) bekannte CDU-Abgeordnete Klaus Lippold. Die Kommission forderte schon vor der UN-Konferenz über Umwelt und Entwicklung (UNCED) 1992 in Rio de Janeiro eine Reduktion der CO2-Emissionen der Mitglieder der Europäischen Gemeinschaft (EG) um 20 bis 25 Prozent bis zum Jahre 2005 sowie eine Förderung „erneuerbarer“ Energien. Dem kam der BT erstmals 1991 in Form des „Einspeisegesetzes“ nach, das die Betreiber öffentlicher Stromnetze verpflichtet, jederzeit Strom aus Wasser-, Wind-, Sonnen- und Biomassekraftwerken abzunehmen. Hinter dem Gesetz standen u.a. die Abgeordneten Peter Ramsauer (CSU) und Peter Paziorek (CDU), die beide als Betreiber einer Mühle mit Wasserkraftwerk beziehungsweise als Teilhaber von Windparks ein unmittelbares finanzielles Interesse an der Förderung „erneuerbarer“ Energien hatten. Das Gesetz erregte damals wenig Aufsehen, da es zunächst nur kleine Strom-Mengen betraf. Als der Widerstand gegen die „Verspargelung“ der Landschaft durch riesige Windräder wuchs, hat der Bundestag 1996 noch unter Kohl und quer durch alle Fraktionen einen kleinen Zusatz zum Paragraphen 35 des Baugesetzbuches (BauGB) beschlossen. Dieser macht es möglich, Windräder, die höher sind als der Kölner Dom, schneller genehmigt zu bekommen als eine Frittenbude.

Schon im Vorfeld der Rio-Konferenz gab es Versuche, neben Sozialdemokraten auch die Grünen in den ÖIK einzubinden. Das geschah unter anderem auf einer Serie großzügig gesponserter Konferenzen, an denen neben Wirtschaftsvertretern des In- und Auslandes auch Spitzenpolitiker und bekannte Medienvertreter teilnahmen. (Ich kann mich erinnern an eine Konferenz im Kongresszentrum der Hannover Messe und an eine Konferenz im Hotel Maritim am Timmendorfer Strand mit Patricia Cairncross vom „Economist“, dem Schweizer Großindustriellen Stefan Schmidheiny, Klaus Töpfer usw.) Vermittelt über den Grünen Bundestagsabgeordneten Willi Hoss (eines abtrünnigen DGB-Gewerkschafters und Betriebsrats bei Daimler) finanzierte die Daimler AG einer starken „Delegation“ von Grünen die Reise nach Rio. Als „Gegenleistung“ sollten diese in Europa Positives über die Nutzung von Kokos- und Sisalfasern als nachwachsende Rohstoffe im Daimler Werk bei Bélem berichten.

Im Vorfeld der Rio-Konferenz gab es bei den Grünen und in ihrem Umkreis auch eine wegweisende Debatte im grünen Wirtschaftsinformationsdienst „Ökologische Briefe“ und in der „Frankfurter Rundschau“ (FR) über ein Zusammengehen mit verschiedenen privaten Großkonzernen. Diese Debatte habe ich als damals verantwortlicher Redakteur der „Ökologischen Briefe“ dummerweise selbst angestoßen (Eröffnungsartikel in der FR am 19. November 1991 während der Konferenz am Timmendorfer Strand). Im Rahmen dieser Debatte gab es im Frühjahr 1992 ein wichtiges Treffen in einem Düsseldorfer Nobelrestaurant. Beherrscht wurde dieses Treffen, an dem verschiedene Abgeordnete und Vorstandsmitglieder der Grünen (u. a. die Unternehmensberaterin Ruth Hammerbach) teilnahmen, von Michael Vester, Sohn eines Düsseldorfer CDU-Politikers und später Grüner Bauminister in Nordrhein-Westfalen (NRW). Auch Frank Asbeck, der spätere „Sonnenkönig“ von Bonn, war dabei.

Asbeck kommt aus einer alten Dortmunder Unternehmerfamilie, die mit der Stahlverarbeitung ein Vermögen machte. Er galt nie als typischer Grüner und wäre heute genauso gut in der rheinischen Klüngel-CDU aufgehoben. Außer mit Michael Vester ist Asbeck gut mit einflussreichen Politikern wie Kurt Biedenkopf (CDU), Jürgen Rüttgers (CDU), Gerhard Schröder (SPD), Joschka Fischer und Jürgen Trittin (Grüne) sowie mit dem FDP-Vorsitzenden Guido Westerwelle vernetzt. In seiner Jugend sympathisierte er eine Weile mit der Sozialistischen Deutschen Arbeiterjugend (SDAJ), der Jugendorganisation der Deutschen Kommunistischen Partei (DKP). Er betrieb zunächst ein auf die Reparatur und das Recycling von Industrieanlagen (insbesondere in Entwicklungsländern) spezialisiertes kleines Ingenieurbüro und vertrieb zusammen mit seinem Bruder Ralf gepanzerte Limousinen – ein Geschäft, das vor allem während des Kosovo-Krieges blühte.

Mitte der 90er Jahre baute Asbeck auf dem Dach einer Bonner Industriehalle die damals größte Photovoltaik-Anlage Deutschlands. Die Module dafür lieferte BP Solar, dessen größter Kunde Asbeck damit wurde. 1998 gründete Asbeck die SolarWorld AG, die er 1999 erfolgreich an die Börse brachte. Mit dem eingenommenen Kapital kaufte er zunächst eine schwedische Solarmodulfabrik und übernahm im Jahre 2000 die Solarsparte der BAYER AG im sächsischen Freiberg. Dabei half ihm sein kurzer Draht zu Kurt Biedenkopf. Später tat sich Asbeck mit dem Chemiekonzern Degussa (jetzt: Evonik) zur Joint Solar Silicon GmbH & Co KG (JSSI) zusammen, um ein neuartiges Verfahren zur Abscheidung von Solar-Silizium anwendungsreif zu machen.

In die Zeit zwischen dem Tschernobyl-Unglück und der Rio-Konferenz fällt auch die Gründung des Verbandes EUROSOLAR durch den SPD-Abgeordneten Hermann Scheer und den Grünen-Abgeordneten Hans-Josef Fell (ebenfalls Sohn eines CDU-Politikers). Das Ziel von EUROSOLAR: Die völlige Umstellung der Energieversorgung auf „Erneuerbare“ bis zum Jahre 2050, wenn nicht schon früher. Somit handelt es sich, im Vergleich zum eher pragmatischen und wirtschaftsfreundlichen rheinischen Netzwerk Asbecks, um eine eher fundamentalistische Gruppierung. Beide Strömungen verbanden sich aber im Bundesverband Erneuerbare Energien (BEE) mit CDU/CSU-Politikern zu einer starken Lobby für den Ausbau des „Einspeisegesetzes“ zu einem „Gesetz für den Vorrang Erneuerbarerer Energien“ (EEG), das für 20 Jahre großzügige Einspeisevergütungen für Solar-, Wind- und Biomasse-Strom garantiert. Dessen 1. Fassung wurde im März 2000 unter der ersten rot-grünen Regierung verabschiedet.

Ganovenstück EEG

Als Rot-Grün 1998 die Regierungsverantwortung übernahm, hatte sich rund um die „erneuerbaren“ Energien längst ein dichtes polit-ökonomisches Geflecht ausgebildet, in dem gelten soll: Nicht Angebot und Nachfrage, sondern maßgeschneiderte Gesetze und Paragraphen bestimmen Umsatz- und Gewinnchancen. Die neuen Machthaber der Berliner Republik brauchten also nur konsequent auf dem bereits eingeschlagenen Weg fortzufahren. Das taten sie mit dem EEG. Zu dessen Urhebern zählen der württembergische SPD-Bundestagsabgeordnete Hermann Scheer und sein fränkischer Kollege Hans-Josef Fell von den Grünen. Scheer ist Präsident der Lobby-Vereinigung Eurosolar und Vorsitzender des Weltrates für Erneuerbare Energien. Er dürfte schon mit seinen Bestseller-Büchern über das kommende „Solarzeitalter“ und deren Popularisierung in jährlich etwa hundert bezahlten Vorträgen mehr verdienen als durch sein Bundestagsmandat. Fell war Vorsitzender der deutschen Sektion von Eurosolar, Sprecher der Bundestagsfraktion der Grünen für Forschung Technologie und Geschäftsführer der Hammelburger Solarstrom GmbH.

Die niedersächsische FDP-Bundestagsabgeordnete Angelika Brunkhorst, selbst EEG-Lobbyistin, nannte die Durchschleusung des EEG durch Bundestag und Vermittlungsausschuss ein „Ganovenstück“, das von der Parlamentarier-Gruppe von Eurosolar und vom weitgehend personengleichen Parlamentarischen Beirat des Bundesverbandes erneuerbare Energien (BBE) eingefädelt wurde. Vorsitzender dieses Gremiums war wiederum Hermann Scheer. Stellvertretende Vorsitzende war Michaele Hustedt, damals energiepolitische Sprecherin der Grünen im Bundestag. Neben den Abgeordneten Dietrich Austermann (CDU) und Hans-Josef Fell (Die Grünen) gehörten dem Gremium unter anderen die SPD-Abgeordneten Axel Berg, Marco Bülow und Christoph Matschie, die Unions-Abgeordneten Peter Harry Carstensen, Thomas Dörflinger, Josef Göppel und Peter Paziorek sowie Reinhard Loske, damals umweltpolitischer Sprecher der Grünen im Bundestag, heute Grüner Wirtschaftssenator im Stadtstaat Bremen, an. Loske gehörte gleichzeitig dem Kuratorium der Düsseldorfer Naturstrom AG und dem Umweltrat der Nürnberger Umweltbank an. Dietrich Austermann hatte als Mitglied des Verwaltungsrates der bundeseigenen Kreditanstalt für Wiederaufbau (KfW) direkten Einfluss auf die Unterstützung von Wind- und Solarprojekten durch zinsgünstige Darlehen.

Im Detail legt das EEG fest, wie hoch die Stromnetzbetreiber und im Endeffekt die Verbraucher die gesetzlich erzwungene Abnahme teuren Wind- und Solarstroms vergüten müssen: Für Strom aus kleinen Wasserkraftwerken und Windrädern zum Beispiel bis zu über 9 Eurocent je Kilowattstunde (KWh), das heißt fast dreimal mehr als die durchschnittlichen Stromerzeugungskosten in Deutschland. Es kam zu einem Boom von Windkraftfonds, die bei Gutverdienern mithilfe des Versprechens einer Steuerersparnis von über 100 Prozent für eine absolut saubere, sichere und profitable Geldanlage innerhalb weniger Jahre sieben bis zehn Milliarden Euro mobilisierten und damit in Deutschland über 20.000 WKA gebaut haben. Einige der genannten Parlamentarier verdienen als Teilhaber von Wind- und Solarparks oder (diskreter) als Zeichner „grüner“ Investmentfonds an dem vom EEG ausgelösten künstlichen Boom der „Erneuerbaren“ mehr oder weniger kräftig mit. Dabei halten sich die Mitglieder der Regierungsparteien aus nahe liegenden Gründen eher diskret zurück, während sich Oppositionspolitiker offen als Windmüller zu erkennen geben, um sich als besonders „klimafreundlich“ zu profilieren.

Die Bande zwischen grüner Industrie und grüner Partei sind eng. Im Wahlkampfjahr 2002, als SPD und Bündnis 90/Die Grünen bereits hoffnungslos abgeschlagen schienen, pumpten die Windkraftfirmen großzügig Geld in die Kassen der Umweltpartei. Über die Hälfte (300.000 von 550.000 Euro) der nach dem Parteiengesetz angabepflichtigen Großspenden stammte bei den Grünen im Jahre 2002 von Windkraftfirmen. Zu den Großspendern gehörten der Regensburger Windpark-Projektierer Ostwind-Verwaltungs GmbH mit 71.000 Euro, die beiden Betreiber des Windparks im hessischen Lichtenau mit insgesamt 52.500, die EWO Energietechnologie GmbH und die AGU Elektrotechnik GmbH am gleichen Ort mit 40.000 beziehungsweise 20.000 Euro sowie die inzwischen insolvente Umweltkontor Renewable Energy im rheinischen Erkelenz mit 50.000 Euro. Dass es sich dabei um gezielte Wahlkampfhilfe handelte, zeigt die Tatsache, dass die Grünen in den folgenden Jahren aus dieser Branche keine nennenswerten Spenden mehr verbuchten.

Die Sonnenwelt verfinstert sich

Auslöser des nun zu Ende gehenden Solar-Booms war die Anfang Juli 2004 vom Vermittlungsausschuss von Bundestag und Bundesrat verabschiedete Novelle des EEG. Es gäbe sonst keinen Grund, in unseren von der Sonne nicht gerade verwöhnten Breiten massiv in teure Solaranlagen zu investieren. Bis zu 57,4 Eurocent je Kilowattstunde (KWh) kassierten Hausbesitzer, die sich Photovoltaik-Module auf ihr Dach montieren lassen, wenn sie den dort produzierten Strom ins öffentliche Netz einspeisen. Das ist etwa das 20-fache der Kosten von Strom aus Atom- oder Braunkohlekraftwerken, die in Deutschland etwa 3 Cent je KWh betragen. Selbst Strom aus großen, von kommerziellen Betreibern auf Freiflächen aufgestellten Photovoltaik-Anlagen mussten die Netzbetreiber für 45,7 Cent je KWh abnehmen. Allein für die im Jahre 2007 hinzugebauten Fotovoltaik-Anlagen mussten die deutschen Stromverbraucher und Steuerzahler 7,5 Milliarden Euro für die aufbringen. Der Beitrag der Solarenergie zur deutschen Stromversorgung erreichte zu Spitzenzeiten gerade einmal 0,7 Prozent. Kein Wunder in einem Land, das nicht zum Sonnengürtel des Globus zählt.

Durch die im Mai 2008 vorgenommene Anpassung der EEG-Fördersätze hat sich an diesem Missverhältnis zwischen Aufwand und Ertrag wenig geändert. Statt die Einspeisevergütung für Solarstrom um 30 Prozent zu kürzen, wie von Teilen der CDU und der FDP gefordert, um Innovationsanreize zu geben, sieht das novellierte EEG für die kommenden zwei Jahre nur eine Kürzung um 8 Prozent vor. Die Solarlobby hat sich noch einmal durchgesetzt – und zwar vor allem mit dem Argument, sie schaffe Zigtausende von Arbeitsplätzen in den östlichen Bundesländern. Man braucht keine höhere Mathematik, um die Fadenscheinigkeit dieser Begründung zu erkennen. Nach Berechnungen des Bonner Volkswirtes Dieter Damian, die von Manuel Frondel vom Rheinisch-Westfälischen Institut für Wirtschaftsforschung (RWI) bestätigt wurden, werden die kumulierten Kosten des subventionierten Ausbaus der Fotovoltaik in Deutschland schon im Jahre 2015 die Schallmauer von 100 Milliarden Euro durchstoßen haben, obwohl die blau schimmernden Siliziumscheiben bis dahin höchstens zwei Prozent zur Stromproduktion beitragen werden. Es käme billiger, jedem Arbeitslosen einfach ein Paket 500-Euro-Scheine in die Hand zu geben.

Die Netzbetreiber, das heißt in der Hauptsache die vier großen Energieversorgungsunternehmen E.ON, RWE, Vattenfall und EnBW und die mehr als 1.500 örtlichen Versorger, können diese Zusatzkosten bis jetzt wegen des geringen Wettbewerbs auf dem deutschen Strommarkt problemlos an die Endverbraucher weitergeben und dabei (wie die Kartellbehörden vermuten) sogar noch einiges aufschlagen. Die Stromverbraucher jedoch haben kaum Möglichkeiten, der staatlich verordneten Abzocke zu entgehen. Und die allgemeine Verteuerung des Stroms wird, ganz im Gegensatz zu der Behauptung Jürgen Trittins und Sigmar Gabriels, längerfristig unterm Strich höchstwahrscheinlich viel mehr Arbeitsplätze zerstören als neu schaffen. Neue Arbeitsplätze entstehen durch das EEG hauptsächlich in China und Japan, wo die meisten Solarzellen gefertigt werden.

Ausblick

Die Hinweise auf das näher rückende Platzen der „Erneuerbaren“-Blase dürfen nicht überbewertet werden. Der Öko-Industrie-Komplex wird, wie alle einmal etablierten techno-bürokratischen Strukturen, so schnell nicht verschwinden. Zum Geschäftsmodell des ÖIK gehört neben der massiven Subventionierung „erneuerbarer“ Energien vor allem der internationale CO2-Emissionshandel. Es handelt sich dabei, in den Worten des Wall Street Journal, um den „größten Umverteilungsplan seit Einführung der Einkommenssteuer.“ Davon werden die Banken, Versicherungen, Energie- und Anlagenbau-Konzerne, die sich dafür stark machen, so schnell nicht lassen. Die US-Umweltbehörde EPA schätzt die durch die Versteigerung von „Verschmutzungsrechten“ erzielbaren zusätzlichen Staatseinnahmen auf nicht weniger als 3,3 Billionen Dollar. Zwischen verschiedenen Firmen und Branchen der Privatwirtschaft würde Wertschöpfung in der Größenordnung von Hunderten von Milliarden Dollar umverteilt. Doch könnte die Vertrauenskrise in der Finanzwelt diese Pläne vereiteln, weil die deutlich spärlicher fließenden Kredite für dringendere Probleme wie die Rettung der Automobilindustrie vor dem Zusammenbruch benötigt werden.

Es besteht daher jetzt die Chance, das Ausufern des ÖIK zu stoppen und ihn auf eine einigermaßen erträgliche Größenordnung zurechtzustutzen. Voraussetzung dafür wäre die Popularisierung eines anderen politischen Feindbildes. Dieses könnte „Energieverteuerung“ oder „Versorgungsunsicherheit“ lauten. Eine neue Partei, die sich dieses auf die Fahne schriebe, hätte meines Erachtens durchaus Chancen, die politische Landschaft Deutschlands und der EU aufzumischen.

(veröffentlicht in: eigentümlich frei N° 88)

==================================================================

Das Wind-Erdgas-Kartell

Eigennützige Förderung von Windkraft-Projekten

Von Edgar Gärtner*

Die Hersteller von Gasturbinen und die Förderer von Erdgas profitieren beide davon, wenn Strom aus Windkraft gewonnen wird. Diese Abhängigkeit führt jedoch zu Marktverzerrungen (Red.)

Der 80 Jahre alte texanische Erdöl- und Erdgas-Milliardär T. Boone Pickens möchte sich ein Denkmal setzen, indem er seine Landsleute mit Tausenden von Windrädern beglückt. Nun hat er die ersten 667 Windräder mit einer Gesamtkapazität von 1000 Megawatt (MW) für rund 2 Mrd. $ beim «grünen» amerikanischen Konglomerat General Electric (GE) bestellt. Damit möchte der anscheinend vom Saulus zum Paulus gewandelte Geschäftsmann mithelfen, die hohe Abhängigkeit seines Landes von Erdölimporten zu mindern.

Interessen der Erdgas-Industrie

Was auf den ersten Blick als grössenwahnsinnig anmutet, ist vermutlich Ausfluss einer höchst gerissenen Geschäftsstrategie. Waren frühere Windkraft-Investoren

vielleicht noch wirklich davon überzeugt gewesen, mit ihrer guten Tat die Welt retten zu helfen, so geht es den Heutigen in der Regel um etwas ganz anderes. Es hat sich herumgesprochen, dass jedes Kilowatt installierte Windleistung durch eine entsprechende Leistung eines konventionellen Kraftwerks ergänzt werden muss, um die Unstetigkeit des Windes auszugleichen. Wer sich heute für Windräder stark macht, dem geht es also höchstwahrscheinlich eher darum, Gasturbinen und/oder Erdgas zu verkaufen. In der Tat: Zu Pickens Unternehmens- gruppe gehört die ausserordentlich erfolgreiche Erdgas- Explorationsgesellschaft XTO-Energy.

Auch bei der «Ecomagination»-Kampagne von GE liegt das Erdgas-Interesse auf der Hand. GE bietet inzwischen seine Windenergieanlagen besonders preisgünstig an, um Bestel- lungen von Gasturbinen anzukurbeln. Bei Gasturbinen ist GE unangefochten Weltmarktführer und verdient damit viel mehr als auf dem umkämpften Markt für Windräder. Darüber kann sich selbst Rex Tillerson, der Chef des Erdöl-Giganten Exxon Mobil freuen. Obwohl Tillerson Umweltschützer auf die Palme bringt, weil er nicht viel von Investitionen in erneuerbare Energien hält und fortwährend wiederholt, dass Erdöl sein Kerngeschäft bleibt, hat auch er längst kapiert, dass mit Erdgas viel mehr zu verdienen ist. Dort investiert Exxon Mobil neuerdings kräftig. Sein europäischer Mitbewerber Royal Dutch Shell hat sich, kaum bemerkt von der Öffentlichkeit, längst in einen Erdgas-Konzern verwandelt, der – je nach Standort – eng mit staatseigenen Lieferanten wie Gazprom (Russland) oder Sonatrach (Algerien) kooperiert. Inzwischen sieht sich die EU in der Energiepolitik einer geschlossenen Front von Erdgaslieferanten – einer Art Erdgas-OPEC – gegenüber, zu der neben den genannten Konzernen auch das Emirat Katar und die Erdöl- beziehungsweise Erdgas-Konzerne Chevron, BP und Total gehören.

«Erdgas-Opec»

Kürzlich verlautete am World Petroleum Congress (WPC) in Madrid, über 80 Prozent der in den kommenden 20 Jahren in der EU installierten Kraftwerkkapazitäten entfielen voraussichtlich auf kombinierte Gas- und Dampfturbinen. In Spanien sind solche Turbinen mit 21 Gigawatt (GW) Gesamtkapazität bereits zur wichtigsten Stromquelle geworden. Das ist kein Zufall, denn Spanien ist nach Deutschland das EU-Land mit der höchsten Windkraft-Kapazität. Sie erreichte Ende 2006 rund 11 000 MW. Bei schätzungsweise 2000 Volllast-Stunden im Jahr entspricht das einer Elektrizitäts-Produktion von 23 Terawattstunden. Um diese sehr unregelmässig anfallende Strommenge im Übertragungsnetz abzupuffern, eignen sich am besten rasch an- und abschaltbare Gasturbinen.

Auch in Deutschland, wo über 20.000 Windräder mit einer Gesamtkapazität von 21.400 MW die Landschaft „verschönern“, stieg der Gaseinsatz für die Stromproduktion parallel zum Ausbau der Windkraft, und zwar von 35,9 Mrd. kWh im Jahre 1990 auf 74,5 Mrd. kWh in 2007. Der Anteil von Gas an der gesamten Stromproduktion wuchs von 6,5 Prozent im Jahre 1990 auf 11,7 Prozent in 2007, während der Anteil von Windstrom von Null auf 6,2 Prozent stieg (siehe Grafik)). Das ist sicher nicht ganz zufällig. Bis heute wird in Deutschland allerdings noch immer ein Teil des Windkraft-Backup von alten Kohlekraftwerken übernommen. Diese müssen dann in einem unwirtschaftlichen Stand-by-Betrieb laufen, um bei Bedarf rasch angefahren werden zu können. Die Grünen und auch beträchtliche Teile der Regierungsparteien kämpfen derzeit mit allen ihnen zur Verfügung stehenden Kräften gegen den Bau neuer Kohlekraftwerke. Deshalb ist es absehbar, dass die meisten alten Kohlekraftwerke letzten Endes durch Gasturbinen ersetzt werden.

Einen zusätzlichen Auftrieb erhalten die Verkäufer von Erdgas durch den Handel mit europäischen CO2-Emissionsrechten. Sobald die Emissionsrechte – wie vorgesehen – ab 2013 ersteigert werden müssen, macht der Emissionshandel Investitionen in die energetische Nutzung der reichlich vorhandenen Vorräte an Braun- und Steinkohle uninteressant. Der Vormarsch des Erdgases in der Stromproduktion der EU führt zur fatalen Konsequenz, dass es schon bald keine echte Wahlmöglichkeit zwischen leitungsgebundenen Energieträgern mehr geben wird. Die wichtigste Alternative zum Einsatz von Erdgas in Turbinen ist übrigens Kerosin, das zurzeit, bezogen auf die enthaltene Wärmeenergie, beinahe doppelt so viel kostet wie Rohöl. Dadurch zeichnet sich der Korridor der zukünftigen Entwicklung des Erdgaspreises ab. Es ist zu erwarten, dass der Gaspreis nicht länger vom Rohölpreis abhängen, sondern sich in 5 bis 10 Jahren dem Kerosinpreis angleichen wird. Nur Länder, die wie die Schweiz über große Wasserkraftreserven verfügen, könnten die einseitige Abhängigkeit vom Gas vermeiden.

Erdölländer setzen auf Kohle

Statt in Europa wird die weltweit zu günstigen Preisen verfügbare Kohle nun ausgerechnet in den Erdöl- und Erdgasförderländern verstärkt genutzt. Russland baut zurzeit 30 neue Kohlekraftwerke, um das immer teurer werdende Erdgas für den Export zu reservieren. Auch das Emirat Dubai setzt für die eigene Stromversorgung auf Kohlekraftwerke, weil dessen Wirtschaftsstrategen die eigenen Erdöl- und Erdgasvorräte dafür zu schade erscheinen.

*) erschienen in: Neue Zürcher Zeitung am 7. August 2008

================================================================

Umweltschutz jenseits der Rationalität von Edgar L. Gärtner*)

Jede gesellschaftliche Interessengruppe erzählt die Geschichte ihres Anliegens so, wie es ihr in den Kram passt. Auf Neudeutsch heißt das Story Telling. Wer begreifen will, wie und wann das zunächst vernünftige Anliegen des Umweltschutzes zu einem krankhaft religiösen Weltrettungswahn mit selbstmörderischen Zügen wurde, wer begreifen will, wie bürokratisch-rationale Umweltschützer zu skrupellosen Nihilisten wurden, die nicht davor zurückschrecken, Menschenleben zu opfern, um eine vermeintlich drohende Klimakatastrophe abzuwenden, der ist wohl schlecht beraten, wenn er ausgerechnet jene um Auskunft fragt, die den Umweltschutz – in welcher Form auch immer – zu ihrem Geschäft gemacht haben. Diese schwelgen im Mythos des Sündenfalls der industriellen Revolution bzw. des „Stummen Frühlings“ (Rachel Carson, 1962) infolge der Chemisierung der Landwirtschaft. Dieser Mythos steht auch hinter den „Grenzen des Wachstums“ (1972), deren Entdeckung zu Beginn der 70er Jahre des vergangenen Jahrhunderts eine politische Wende erzwungen habe.

Doch der Start der Umweltpolitik im heutigen Sinne um 1970 hatte wenig mit einer krisenhaften Zuspitzung von Umweltproblemen zu tun, sondern mehr mit einer Anpassung der Strategie des Nordatlantischen Bündnisses an gewandelte Bedingungen des Kampfes gegen den Kommunismus. Zu ihren Hintergründen zählen die Infragestellung der westlichen Lebensweise durch die Studentenrevolte von 1968, die drohende Niederlage der USA im Vietnam-Krieg und das in Form der „Entspannung“ sich abzeichnende Ende des Kalten Krieges. Die Watergate-Affäre brachte zutage, welche Panik unter US-Präsident Richard Nixon im Weißen Haus herrschte. Um davon abzulenken, bot sich der von Denkfabriken wie der RAND Corporation und der Ministerialbürokratie vorgeschlagene neue Politiktypus „Umweltpolitik“ an.

Reaktive ordnungsrechtliche Eingriffe

Auf echte stoffliche Engpässe der industriellen Umweltnutzung und die damit verbundene Verletzung von Eigentumsrechten hatten klassische Industriestaaten wie England oder Deutschland, auf Druck Geschädigter, schon seit dem 19. Jahrhundert fallweise mit durchaus wirksamen ordnungsrechtlichen Eingriffen reagiert.

• Im englischen Parlament gab es heftige Auseinandersetzungen zwischen dem eingesessenen Landadel und Sodafabrikanten, die als Emporkömmlinge einen unsicheren gesellschaftlichen Status innehatten. Der Grund war das für die Sodaherstellung zunächst angewandte Le-Blanc-Verfahren. Dabei wird Salzsäure frei, die die Vegetation in der Umgebung der Sodawerke verätzte. Aufgrund des 1863 erlassenen Alcali Act schickte der Staat Inspektoren in die Sodawerke, um für eine Verminderung der Salzsäure-Emissionen zu sorgen. Der Konflikt wurde aber letzten Endes nicht durch den Alcali Act, sondern durch den Übergang zum umweltfreundlicheren Solvay-Verfahren der Soda-Herstellung gelöst.

• 1869 kam im späteren Deutschland mit der Gewerbeordnung (GewO) des Norddeutschen Bundes die Genehmigungspflicht für alle Industrieanlagen, die Nachbargrundstücke beeinträchtigen können.

• Das deutsche Wasserhaushaltsgesetz (WHG) von 1957 war die Antwort auf die Übernutzung der Selbstreinigungskraft von Bächen, Flüssen und Seen während des Wirtschaftsbooms der Nachkriegszeit.

• Anlass für die Technische Anleitung (TA) Luft von 1964, eine Verwaltungsvorschrift auf der Basis des § 16 der GewO von 1869, war die extreme Belastung der Luft des Ruhrgebietes mit Grob- und Feinstaub sowie mit Schwefel- und Stickoxiden, die zur Abwanderung von Arbeitskräften führte und zum Hemmschuh für die Modernisierung der Industrie durch die aufkommende Elektronik wurde. Der spätere sozialdemokratische Bundeskanzler Willy Brandt hatte 1961 im Wahlkampf gefordert: „Der Himmel über der Ruhr muss wieder blau werden.“ Diese Verwaltungsvorschrift begnügte sich mit der Einführung von Emissionsgrenzwerten für wenige Schadstoffe und von Berechnungsmethoden für die für eine großräumige Verteilung von Abgasen erforderliche Höhe von Fabrikschornsteinen.

Die Bürokratie übernimmt die Führung

Doch dann geht die Bürokratie in die Offensive. Im Jahre 1969 wird anlässlich des 20-jährigen Bestehens des Nordatlantik-Paktes das NATO Committee on Challenges of Modern Societies (CCMS) feierlich aus der Taufe gehoben. Dieses wurde als “dritte Dimension” der NATO bekannt. Sein erklärtes Hauptanliegen war die “Nutzbarmachung wissenschaftlicher Erkenntnisse bei der Entscheidungsfindung”, d. h. die Übertragung betriebswirtschaftlicher und militärisch-logistischer Systemanalyse- und Planungsmethoden in die zivile Verwaltung. Erstmals wurden diese Methoden (mit überwiegend enttäuschenden Ergebnissen) im Rahmen des sozialpolitischen „Great Society“-Programms unter US-Präsident Lyndon B. Johnson erprobt. Als weitaus erfolgreicher (im Sinne der Bürokratie) erwies sich der am 1. Januar 1970 unter Präsident Richard Nixon verabschiedete US National Environmental Policy Act. Darin wurde auch der Begriff „Environmental Protection“ (Umweltschutz) geprägt. In den bis dahin eingeführten fall- und medienbezogenen ordnungsrechtlichen Regelungen wird man den heute gängigen Begriff vergebens suchen. Er tauchte erstmals in dem im September 1970 kurz nach dem US-Umweltprogramm ohne konkreten Anlass beschlossenen „umweltpolitischen Sofortprogramm“ der Bundesregierung auf.

Sehr anspruchsvoll kam dann das 1971 verabschiedete umfassende Umweltprogramm der deutschen Bundesregierung daher. Sein erklärtes Ziel: „Unerwünschte Nebenwirkungen wirtschaftlicher und gesellschaftlicher Entwicklungen sollen rechtzeitig erkannt und durch weit vorausschauende Umweltplanung vermieden werden.“ Voraussetzung dafür sei die Weckung eines „Umweltbewusstseins“ in der breiten Bevölkerung. Implizit ist hier auch schon das erst später so genannte „Vorsorgeprinzip“ angedeutet – und die damit verbundene Angstmache.

Nach dem oft gedankenlos zitierten, aber im Grunde vermessenen Grundsatz „Vorbeugen ist besser als heilen“ soll die so verstandene Umweltpolitik das Übel an der Wurzel packen und sich nicht mit dem Kurieren von Symptomen begnügen. Der gesunde Menschenverstand legt es stattdessen nahe, Probleme immer ein Stück weit auf sich zukommen zu lassen und Vorsorgeaufwendungen von ihrem absehbaren Nutzen abhängig zu machen. Denn wer sich allzu sehr um ungelegte Eier sorgt, der versäumt bekanntlich das Leben. Das „Vorsorgeprinzip“ war schon im WHG in Form des „Besorgnisgrundsatzes“ angeklungen. Im deutschen Bundesimmissionsschutzgesetz (BImSchG) von 1974, einer „ganzheitlichen“ Weiterentwicklung der TA Luft, wurde es dann weltweit zum ersten Mal kodifiziert. Es enthält, wie noch demonstriert werden wird, den Keim des Umschlags der bürokratisch-rationalen Regulierung in eine von irrationalen, nihilistischen Motiven getriebene Bewegung nach dem Prinzip „Selbstmord aus Angst vor dem Tod“.

Bei der Umsetzung des Versuchs, schon im Vorhinein klüger zu sein, setzten Spitzenbeamte des in Deutschland für den Umweltschutz zuständigen Bundesinnenministeriums (BMI), entsprechend des von US-Denkfabriken ersonnenen Modells der „professionalized reform“, von Anfang an auf das „Wadenbeißen“ außerparlamentarischer Gruppen, die heute als Non Governmental Organizations (NGOs) bekannt sind, und auf die Verwandlung der Massenmedien in eine „Angst-Industrie“. Die „Bürgerinitiativen“ wurden von der Ministerialbürokratie, wenn nicht aus der Taufe gehoben, so zumindest gezielt mit Informationen und einer „Anschubfinanzierung“ versorgt. Der damals im BMI für den Umweltschutz zuständige Staatssekretär Günter Hartkopf (FDP) hat das nach seiner Pensionierung in einer Rede auf dem Deutschen Beamtentag 1986 in Bad Kissingen offen ausgesprochen. Außerdem bedurfte die bürokratische Offensive einer Art von Zeigefinger-Pädagogik. Darum kümmerte sich eine elitäre Gruppe mit dunklem Hintergrund: der Club of Rome. Dessen Bericht „Die Grenzen des Wachstums“ (1972) half entscheidend mit, die Idee einer geschlossenen Welt mit absolut begrenzten Rohstoffvorräten bzw. den Mythos „Sündenfall industrielle Revolution“ zu verbreiten.

Bürokratie birgt nihilistische Versuchung

Der Übergang von der rationalen bürokratischen Planung und Regulierung zur Anbiederung an galoppierende Ängste bzw. nihilistische Auslegungen des „Vorsorgeprinzips“ begann schon zu Beginn der 80er Jahre, als die Vergilbung von Nadelbäumen in deutschen Mittelgebirgen als Symptom eines allgemeinen „Waldsterbens“ gedeutet wurde, das nur durch eine Drosselung des Kraftverkehrs und durch Milliarden-Investitionen in Rauchgasreinigungsanlagen aufgehalten werden könne. Kosten-Nutzen-Abwägungen spielten dabei offenbar schon keine Rolle mehr. Später stellte es sich heraus, dass die Entschwefelung der Rauchgase von Kohlekraftwerken zu weit getrieben worden war. Verblasste Rapsblüten auf den Feldern wiesen unmissverständlich auf Schwefelmangel in den Ackerböden hin.

1986 kam das Prinzip „Selbstmord aus Angst vor dem Tod“ vollends zum Durchbruch. Wichtigster Auslöser war die Reaktorexplosion von Tschernobyl in der Ukraine. In Deutschland griff Hysterie um sich. Aus Angst vor einer Kontamination durch den Fall Out der in Tschernobyl aufgestiegenen „Wolke“ mit radioaktiven Spaltprodukten verzichteten viele Menschen auf frische Nahrungsmittel und griffen zu Konserven. Manche retteten sich gar auf ferne Inseln. Unvergessen bleibt die Irrfahrt eines Güterzuges mit „verstrahltem“ Molkepulver kreuz und quer durch Westdeutschland. Um die seit der „Ölkrise“ von 1973/74 getätigten riesigen Investitionen in Kernkraftwerke zu retten, machten sich Ministerialbürokratie und Atomindustrie die Hypothese einer durch übermäßige Kohlenstoffdioxid-Emissionen verursachten Überhitzung der Erde zu Eigen. Dieser erstmals gegen Ende des 19. Jahrhunderts vom schwedischen Chemiker Svante Arrhenius in die Welt gesetzte verstiegene Ansatz für die Erklärung der Eis- und Warmzeiten in der Erdgeschichte (unabhängig von heute bekannten astronomischen und geologischen Zyklen) spielte zwar schon bei der Begründung der „dritten Dimension“ der NATO eine Rolle und war auch von amerikanischen Investoren-Kreisen schon als weit tragende Geschäftsidee erkannt worden, wurde aber bis dato in Europa sowohl in der Wissenschaft als auch in den nationalen Bürokratien zu recht nicht ernst genommen.

Schließlich erklärte der „Erd-Gipfel“ 1992 in Rio de Janeiro das „Vorsorgeprinzip“ in der Rio-Deklaration, in der „Agenda 21“ und in der Klima-Rahmenkonvention zur obersten Richtschnur der Politik. Grundsatz 15 der Rio-Deklaration lautet auf Deutsch: “Drohen schwerwiegende oder bleibende Schäden, so darf ein Mangel an vollständiger wissenschaftlicher Gewissheit kein Grund dafür sein, kostenwirksame Maßnahmen zur Vermeidung von Umweltverschlechterungen aufzuschieben.” Was heißt „kostenwirksam“ (cost effective)? Kosteneffizienz ist damit offenbar nicht gemeint. Denn Kosten-Nutzen-Vergleiche sollen keine entscheidende Rolle spielen, wenn es darum geht, eine hypothetische Klimakatastrophe aufzuhalten. Die Europäische Union bezieht sich im Maastricht-Vertrag von 1992 ebenfalls auf das „Vorsorgeprinzip“, und zwar ohne es zu definieren und ohne klar zu stellen, in welchem Verhältnis dieses zu dem im gleichen Vertrag verankerten Prinzip der Verhältnismäßigkeit steht. Der Versuch einer Klärung erfolgte erst acht Jahre später in einer im Jahr 2000 veröffentlichten „Communication“ der EU-Kommission. Deren Einfluss auf grundlegende politische Entscheidungen hat aber seit der Jahrtausendwende kontinuierlich abgenommen. Vor zwei Jahren forderte der amtierende EU-Umweltkommissar Stavros Dimas offen den Übergang zu einer planmäßigen „Kriegswirtschaft“, um den Klimawandel – koste es, was es wolle – durch eine „ökologische Revolution“ zu bekämpfen.

Eindeutig pathologische Züge trägt der Beschluss Deutschlands und der EU, den CO2-Ausstoß bis zum Jahre 2020 im Alleingang um 20 Prozent zu reduzieren. Überschlägige Berechnungen weisen aus, das die „Maßnahmen-Pakete“, mit deren Hilfe dieser Beschluss in Deutschland umgesetzt werden soll, zwischen 500 und 900 Milliarden Euro verschlingen werden. Auf der Ebene der EU kommt man schnell in die Billionen. Dabei geht es insbesondere um physikalisch oft mehr als fragwürdige Energiesparmaßnahmen. Selbst wer an die CO2-Hypothese glaubt, wird nicht behaupten können, diesem Aufwand stände irgendein messbares Ergebnis gegenüber. Deutschland wird, wenn die Entwicklung „nach Plan“ verläuft, im Jahre 2030 nur noch mit 1,2 Prozent zum weltweiten CO2-Ausstoß beitragen, während allein auf China über ein Viertel entfiele. Selbst das völlige Verschwinden Deutschlands hätte unter dieser Bedingung keinerlei Einfluss auf die globale Durchschnittstemperatur.

Man sieht hier, dass der gefährliche Schwebezustand zwischen einem pervertierten Christentum und dem Glauben an den Übermenschen, den Friedrich Nietzsche als Nihilismus bezeichnete, schlicht mit Dummheit gleichgesetzt werden kann. Um die Dummheit zu verbreiten, bedarf es keiner Verschwörung, denn Dummheit ist von sich aus hoch ansteckend. Wie Dummheit zur Epidemie werden kann, hat Elisabeth Noelle-Neumann mit ihrer Theorie der „Schweigespirale“ gezeigt.

Von einer vagen Hypothese zur totalitären Fiktion?

Inzwischen ist die verstiegene Hypothese eines „Treibhauseffektes“ und dessen Verstärkung durch CO2-Emissionen menschlichen Ursprungs infolge ihrer Verbindung mit einer breiten politischen Bewegung und einem immer mächtiger werdenden „Ökologisch-industriellen Komplex“ (ÖIK) von Profiteuren hoch subventionierter „erneuerbarer“ Energien, des CO2-Emissionshandels und damit verbundener wachsender Erdgasabhängigkeit dabei, sich zu einer gegenüber der Realität abgedichteten totalitären Fiktion zu verselbständigen. Wer heute möglichst viel Erdgas zu möglichst hohen Preisen verkaufen will, der sorgt dafür, dass ganze Länder wie Deutschland oder Spanien voll Windräder gestellt werden. Denn deren unstete Stromproduktion lässt sich am besten mit rasch an- und abschaltbaren Gasturbinen kompensieren. Die Zunahme des Erdgasverbrauchs korreliert in beiden Ländern sehr eng mit der Zunahme der Anzahl von Windrädern. Nur mithilfe marktwidriger staatlicher Vorgaben wie dem deutschen Gesetz über den Vorrang erneuerbarer Energien (EEG) von 2004 bzw. 2008 lassen sich diese parasitären Geschäftsstrategien umsetzen. So entstehen stabile staatsmonopolistische Kartelle.

Die Tatsache, dass die Durchschnittstemperatur über den Landmassen der Erde nun schon ein Jahrzehnt lang, trotz eines vor allem in Asien kräftig gewachsenen CO2-Ausstoßes, nicht mehr steigt, hat deshalb bislang weder in der großen Politik noch in der Wirtschaft dazu geführt, die Stichhaltigkeit der CO2-Erwärmungs-Hypothese in nennenswertem Umfang zu hinterfragen. Im Gegenteil: Es werden CO2-Rationierungs-Pläne auf der Basis persönlicher CO2-Kreditkarten geschmiedet, die bald dazu führen könnten, dass nicht nur Industrien, sondern auch Privatpersonen buchstäblich für jeden Furz CO2-Emissions-Zertifikate erwerben müssen. CO2-Sparen soll zum zentralen Lebensinhalt werden. Ein solches System als „Öko-Faschismus“ zu bezeichnen, wäre ein Euphemismus, denn das Regime Benito Mussolinis erschiene demgegenüber noch beinahe als liberal. Darin, und nicht etwa im islamistischen Terrorismus, sehe ich derzeit die mit Abstand wichtigste Gefahr für die Freiheit.

Als totalitär definierte die große politische Philosophin Hannah Arendt Fiktionen, die aufgrund gewisser politischer und ökonomischer Konstellationen allgegenwärtig und unwiderlegbar werden. Arendt hat das bekanntlich in ihrem Hauptwerk „Elemente und Ursprünge totalitärer Herrschaft“ am Beispiel der Fiktion einer jüdischen Weltverschwörung aufgezeigt. Solche Fiktionen tragen Züge einer self fulfilling prophecy. Hitler konnte nicht widerlegt, sondern nur militärisch besiegt werden, bemerkte Arendt lapidar. Auch wenn der „Krieg der Köpfe“ in der Klimafrage schon längst kaum mehr in Form wissenschaftlicher Dispute ausgetragen wird, besteht aber meines Erachtens noch immer etwas Hoffnung, dass sich auch hier zu guter Letzt die Spreu auf einigermaßen normalem Wege vom Weizen trennt. Gelingt das nicht, müsste man versuchen, die Öko-Nihilisten mit ihren eigenen Waffen zu schlagen – zum Beispiel, indem man Neid gegen die Profiteure des ÖIK schürt. Aber das wäre für anständige Liberale sicher das letzte Mittel…

*) vorgetragen am 13. Juni 2008 auf dem Symposium des Liberalen Instituts, Zürich, zum Thema „Umweltschutz als Freiheitsschutz“

Literatur:

Arendt, Hannah: Elemente und Ursprünge totaler Herrschaft. Antisemitismus, Imperialismus. Totalitarismus. Taschenbuchausgabe, München 2003

Gärtner, Edgar L.: Vorsorge oder Willkür. Kunststoffweichmacher im politischen Kreuzfeuer, Köln 2006

Gärtner, Edgar L.: Öko-Nihilismus. Eine Kritik der Politischen Ökologie, Jena 2007

Gärtner, Edgar L.: Klimaschutzpolitik als Ausdruck des Nihilismus. Ein Plädoyer für gesunden Menschenverstand und Wettbewerb statt Bürokratie und konsensuale Gutheissung, in: Neue Zürcher Zeitung vom 7. Juni 2008

Noelle-Neuman, Elisabeth: Die Schweigespirale. Öffentliche Meinung – unsere soziale Haut. 6. Aufl., München 2001

(Dieser Vortragstext wurde inzwischen veröffentlicht in: Christian Hoffmann/Pierre Bessard (Hrsg.): Natürliche Verbündete. Marktwirtschaft und Umweltschutz. Edition Liberales Institut, Zürich. ISBN 978-3-033-01795-5)

Vom Geist der Freiheit

Hochmut kommt vor dem Fall. Ist es deshalb so abwegig, einen Zusammenhang zwischen dem schrecklichen Erdbeben in Haiti mit Hunderttausenden von Toten und dem geistigen Hintergrund der sozialrevolutionären Ursprünge der Insel-Republik zu vermuten? Immerhin gingen Haitis „schwarze Jakobiner“ im Jahre 1791 in einer Voodoo-Zeremonie einen Pakt mit dem Teufel ein, um die Befreiung von der französischen Kolonialherrschaft zu erlangen.

Freiheit: Auf den Geist kommt es an

Warum Materialismus und Christophobie in die Knechtschaft führen

Nach der Veröffentlichung meines Blogs über die spirituellen Hintergründe des Haiti-Desasters (auf dieser Unterseite weiter unten) an dieser Stelle bin ich von einem Teil der libertären Szene in Deutschland buchstäblich exkommuniziert worden. Es fehlte nur noch die Steinigung. Ich übergehe hier anstandshalber die wohl willentlichen Missverständnisse und die mir gegenüber vorgebrachten absurden Unterstellungen, die im Vorwurf der Scheinheiligkeit gipfeln. Worüber ich mich wundere, wenn nicht ärgere, ist die den meisten Kritiken zugrunde liegende materialistische Weltsicht und die zum Teil offen zutage tretende Christophobie.

Um deutlicher zu werden: Die kontrastierende Geschichte der beiden Teile der Karibik-Insel Hispaniola zeigt meines Erachtens alles in allem, dass es bei der Entwicklung der Wirtschaft und der Entfaltung menschlicher Freiheit weniger auf natürliche als auf geistig-religiöse Voraussetzungen ankommt. „Wo der Geist des Herrn wirkt, da ist Freiheit“, heißt es im zweiten Brief des Apostels Paulus an die Korinther. Wer abstreitet, dass unser abendländischer Humanismus und dessen Freiheitsbegriff nicht nur auf Sokrates, sondern auch auf Jesus von Nazareth und die spätantiken beziehungsweise mittelalterlichen Kirchenlehrer zurückgeht, sieht das freilich ganz anders. Für materialistisch, wenn nicht antichristlich ausgerichtete Libertäre ist der Kolonialismus eine Folge der Verbindung von christlichem Missionseifer mit materieller Gier und nicht Ausdruck der Abkehr Getaufter von der biblischen Botschaft.

Deshalb treffen sich Atheisten bei der Analyse der Hintergründe natürlicher und gesellschaftlicher Kataklysmen auch letzten Endes mit den Marxisten. Schon Fjodor Dostojewskij erkannte in der „Legende vom Großinquisitor“, dass die logische Konsequenz des Atheismus nicht die individuelle Freiheit, sondern die Verabsolutierung der Gleichheitsidee im Sozialismus beziehungsweise Kommunismus ist. Uneingestandenes Ziel des Sozialismus wiederum sei das Nichts, der Tod der Menschheit. Das hat der hoch dekorierte russische Mathematiker Igor Schafarewitsch schon in den siebziger Jahren des vergangenen Jahrhunderts in einem auch im Westen erschienenen bemerkenswerten historischen Überblick unter dem deutschen Titel „Der Todestrieb in der Geschichte“ herausgearbeitet. Schafarewitsch, den ich selbst, angeregt von den Kollegen Fink und Lichtschlag, leider erst Ende 2009 rezipiert habe, bestätigt meine Einschätzung, dass auch der Liberalismus zu einer Form von Nihilismus werden kann, wenn er sich gegen das christliche Gottes- und Menschenbild stellt. ((9. Februar 2010)

Internet

Der Sozialismus: so alt wie die Menschheit

Igor R. Schafarewitsch: Der Todestrieb in der Geschichte. Erscheinungsformen des Sozialismus. Ullstein Verlag, Berlin-Wien 1980

Liberalismus: Eros der Freiheit ohne Gott?

====================================================================================

Haiti: Der Fluch der Blasphemie

Warum US-Fernsehprediger Pat Robertson nicht ganz falsch liegt

Der inzwischen 79-jährige evangelikale Star-Prediger Pat Robertson löste Wellen gutmenschlicher Entrüstung aus, als er das schreckliche Erdbeben auf Haiti am 13. Januar im TV-Sender Christian Broadcasting Network (CBN) auf einen Pakt mit dem Teufel zurückführte, den die aufständischen Negersklaven der einst als „Perle der Karibik“ bekannten Insel im Jahre 1791 im Rahmen einer Voodoo-Zeremonie geschlossen hatten, um die Befreiung von der französischen Kolonialherrschaft zu erlangen. Zweifelsohne eine Provokation für alle Kulturrelativisten, die vielleicht gerade noch die Existenz eines fernen Gottes zugeben, jedoch die Existenz seines Gegenspielers Satan leugnen müssen. Aber ist es tatsächlich so abwegig, einen Zusammenhang zwischen dem aktuellen Desaster mit Hunderttausenden von Toten und dem geistigen Hintergrund der sozialrevolutionären Ursprünge der Republik Haiti zu postulieren?

Viele Touristen werden sich schon darüber gewundert haben, dass die westindische Insel Hispaniola, auf der Christoph Kolumbus und seine Seeleute 1492 erstmals amerikanischen Boden betraten, vom Flugzeug aus auffällig zweigeteilt erscheint. Der etwas größere östliche Teil, die spanisch sprechende Dominikanische Republik, ist satt grün, während der von der französisch sprechenden Republik Haiti eingenommene westliche Teil beinahe so kahl ist wie der Mond. Die Dominikaner leben mehr oder weniger einträglich vom Tourismus, während die Haitianer heute, trotz mehr als großzügiger „Entwicklungshilfe“ der US-Amerikaner in den vergangenen Jahrzehnten, zum allergrößten Teil bettelarm sind. Dieser Kontrast hat offenbar keine natürlichen Ursachen.

Nachdem die wenigen Ureinwohner ausgerottet und die Insel unter französische Herrschaft gelangt war, blühte dort über hundert Jahre lang der Zuckerrohranbau, der mithilfe aus Afrika importierter Sklavenheere betrieben wurde. Haiti wurde zu Frankreichs ertragreichster Kolonie. Als aber im französischen „Mutterland“ die Revolution ausbrach und Robespierre und seine Anhänger die Oberhand bekamen, konnte es nicht ausbleiben, dass einzelne Schwarze, die aufgrund besonderer Umstände eine bessere Bildung genossen hatten, von der in der Metropole herrschenden Gleichheits-Idee angesteckt wurden. Zu ihnen gehörte der als „schwarzer Jakobiner“ bekanntgewordene Toussaint Louverture, der Sohn eines in Benin geborenen freigelassenen Haussklaven. Er wurde zum Führer der weltweit einzigen (vorübergehend) erfolgreichen Sklavenerhebung, erlebte aber nicht mehr deren Sieg über das von Napoleon gesandte Expeditionskorps und die Unabhängigkeitserklärung Haitis im Jahre 1804 unter seinem Genossen und Rivalen, dem „schwarzen Kaiser“ Jean-Jacques Dessalines.

Das heutige, nicht erst durch das aktuelle Erdbeben ausgelöste gesellschaftliche und politische Desaster Haitis nahm seinen Lauf mit der nach der Revolution eingeleiteten egalitären Landreform. Die Besitzer der Zuckerplantagen wurden enteignet. Jede Bauernfamilie erhielt zunächst 15 Hektar Ackerland. Da die meisten Familien sich auf die Befriedigung ihres eigenen Bedarfs konzentrierten, brach die Exportwirtschaft zusammen. Infolge der von der Gleichheits-Idee diktierten Erbteilung des Landes schrumpften die Parzellen mit jeder neuen Generation immer mehr zusammen. Um die rasch wachsende Bevölkerung zu ernähren, wurden nach und nach auch die für den Ackerbau kaum geeigneten steilen Berghänge gerodet. Dennoch verfügte schon im Jahre 1971 jede Bauernfamilie im Schnitt nur noch über anderthalb Hektar karges Ackerland. Heute wird der größte Teil der Agrarfläche, da durch Übernutzung ausgelaugt und durch starke Tropenregen erodiert, gar nicht mehr bestellt.

Revolutionsromantiker und Fair-Trade-Fans sehen das allerdings anders. Um von der verheerenden Wirkung der Gleichheitsideologie abzulenken, verweisen sie auf die der jungen Republik als Gegenleistung für die diplomatische Anerkennung durch Frankreich unter Androhung militärischer Gewalt auferlegte Entschädigungssumme für die Enteignung der Plantagenbesitzer in Höhe von 90 Millionen Goldfranken (heute umgerechnet 17 Milliarden Euro!). Um die Riesensumme einzutreiben und schrittweise abzubezahlen, mussten dem Volk große Opfer und Restriktionen auferlegt und die Ressourcen des kleinen Landes buchstäblich ausgeplündert werden. Dabei erwies es sich als fatal, dass in Haiti der Voodoo-Kult von Anfang an als dem Christentum zumindest ebenbürtig, wenn nicht überlegen angesehen wurde. Das ist eine logische Konsequenz der Gleichheitsideologie beziehungsweise des Kulturrelativismus. Die infantile Gleichsetzung des demütigen Betens um göttliche Gnade mit obskurantistischen Beschwörungen und Zaubereien begünstigte die Machtübernahme durch Dynastien kleptokratischer Diktatoren und die damit einhergehende Vernachlässigung von Vorsorge-Investitionen gegen Hurrikane und Erdbeben. Davon hat sich Haiti nicht mehr erholt. Im Jahre 2003 haben Voodoo-Priester den ausgelaufenen Teufelspakt von 1791 mit Tieropfern ausdrücklich erneuert. Ein halbes Jahr zuvor hatte der damals herrschende Diktator Jean-Bertrand Aristide den Voodoo-Kult zur zweiten Staatsreligion neben dem Katholizismus erklärt.

Ich möchte nicht behaupten, Spezialist für Voodoo zu sein, denn ich kenne dessen Praxis hauptsächlich aus Romanen von Naipaul und anderen literarischen Zeugnissen. Es kommt hier nur darauf an, was diesen Kult von der christlich geprägten abendlänischen Kultur unterscheidet. Das ist in meinen Augen der allegenwärtige Fatalismus. Christen wissen, dass sie sich von Gott entfernen, wenn sie ihre Hände in den Schoß legen. Sie versuchen deshalb, von verschiedenen Seiten drohendes Unheil durch Vorsorgemaßnahmen abzuwenden. Oft tun sie dabei, wie ich an anderer Stelle schon dargelegt habe, sogar des Guten zuviel. Der Gedanke der Vorsorge ist den meisten Haitianern jedoch fremd. Überall in der Karibik wurden inzwischen Bauvorschriften für einigermaßen erdbebensicheres und Hurrikan-resistentes Bauen erlassen. In Haiti wurde das versäumt, obwohl Entwicklungshilfe-Gelder dafür zur Verfügung gestanden hätten.

Was könnte man aus diesem (zugegebenermaßen sehr groben) Einblick in die Probleme Haitis lernen? Die Haitianer mussten wie die Franzosen und später die Russen und Chinesen erfahren, dass blutige Revolutionen – so gut sie auch gemeint sein mögen – alles noch schlimmer machen als vorher. Nur stille und unblutige Revolutionen wie etwa in jüngerer Zeit die Verbreitung des Internet und mehr noch die Verbreitung des Christentums seit fast zwei Jahrtausenden bringen die Menschheit voran. Nach christlichem Verständnis ist jede blutige Erhebung gleichzusetzen mit Blasphemie, der die Strafe Gottes auf dem Fuße folgt. Auch Nichtchristen können kaum darüber hinwegsehen, dass es in der Geschichte keine vergleichbaren Fälle von Hochmut gibt, die nicht im Desaster endeten. Der Spruch „Hochmut kommt vor dem Fall“ bringt das zum Ausdruck. Nur Demut erweist sich als nachhaltig.

So kann ich dem Prediger Robertson zwar nicht folgen, wenn er zum Mord an Venezuelas rotem Diktator Hugo Chavez aufruft. Ich muss ihm aber zustimmen, wenn er die Zurückdrängung des Voodoo-Kultes durch massive Missionsarbeit für wichtiger erklärt als über aktuelle Nothilfe hinausgehende materielle Entwicklungshilfe. Der nicht religiös argumentierende Kolumnist des „Wall Street Journal“ Bret Stephens sieht das übrigens ähnlich. (aktualisiert am 3. Februar 2010)

Internet

Pat Robertson auf Dailymotion

Erdbeben eine Folge vom ‚Pakt mit dem Teufel’?

Haiti Hilflose Perle der Karibik

To Help Haiti, End Foreign Aid

Literatur

C. L. R. James: Die schwarzen Jakobiner: Toussaint Louverture und die Unabhängigkeitsrevolution in Haiti. Pahl-Rugenstein Verlag, Köln 1984. (Nicht mehr lieferbar, weil vom ehemals DKP-nahen Verlag wegen der trotzkistischen Position des Autors wieder aus dem Verkehr gezogen.)

=========================================================================================

Jeder braucht seine Apokalypse von Edgar L. Gärtner

Wer die Johannes-Offenbarung nicht kennt oder ablehnt, braucht die Klimakatastrophe

Wer sich mit der katholischen Liturgie etwas auskennt, der weiß, dass an Allerheiligen aus der Offenbarung des Johannes vorgelesen wird. Ich gestehe, dass ich am Sonntag, dem 1. November 2009, während der Verlesung des Evangeliums meine Gedanken etwas abschweifen ließ – allerdings durchaus nicht zu Dingen, die mit dem Thema nichts zu tun haben. Mir fiel nur ein, dass die Christen mit der Verbreitung der Johannes-Offenbarung seit fast 2000 Jahren doch eigentlich rundum mit apokalyptischen Gewissheiten versorgt sind und keiner weiteren Schreckensbilder bedürfen, um ihren Adrenalinspiegel beziehungsweise Angsthaushalt im Gleichgewicht zu halten. Dabei hatte ich die Theorie der Risiko-Kompensation im Hinterkopf, die der kanadische Psychologe Gerald J.S. Wilde schon vor Jahren in die Diskussion brachte, um die Beobachtung zu erklären, dass zusätzliche Sicherheitsvorkehrungen an Automobilen wie Sicherheitsgurte, Airbags oder ABS nicht unbedingt zu mehr Sicherheit im Straßenverkehr führen, weil sie die Fahrer zu einer riskanteren Fahrweise verleiten können.

Ich musste mich vor einigen Jahren mit dieser Thermostat-Theorie beschäftigen, als ich für die Risiko-Kommission des Bundesgesundheitsministeriums als Redakteur tätig war. Später habe ich einiges davon in meinem Buch „Vorsorge oder Willkür“ verarbeitet. Die Menschen brauchen offenbar einen bestimmten Risiko- und Stress-Pegel, um nicht vor Langweile einzuschlafen oder dem Alkohol zu verfallen. Eine solche Thermostat-Funktion gibt es aber vermutlich nicht nur beim menschlichen Risiko- und Stressbedürfnis, sondern auch bei der Angst vorm beziehungsweise der Lust am Untergang. Menschen, die die Johannes-Offenbarung nicht kennen oder nicht mögen, brauchen dafür vermutlich einen Ersatz. Deshalb greifen sie nach modernen Weltuntergangstheorien, saugen Computer-Hochrechnungen, die die nahende Erschöpfung von Rohstoff-Vorräten oder den drohenden Hitzetod an die Wand malen, begierig in sich auf.

Allerdings bieten diese Projektionen durchaus keinen gleichwertigen Ersatz für die biblische Apokalypse, auch wenn das die postmoderne „Diktatur des Relativismus“ postuliert. Die Johannes-Offenbarung besagt, dass Gott selbst dieser Welt ein Ende setzen wird und nicht wir Menschen. Oder anders herum: Der Weltuntergang wird nicht das Werk der Menschen sein. Wer die Menschen für einen drohenden ökologischen Kollaps verantwortlich macht, begeht also Gotteslästerung. Von daher verwundert es sehr, dass sich die meisten christlichen Kirchen inzwischen zum grünen Apokalypse-Ersatz bekennen. Denn Blasphemie wird bekanntlich nicht erst im Jenseits bestraft.

Für Gläubige ist der Weltuntergang ein Ende ohne Schrecken, weil er gleichbedeutend mit der Wiederkehr des Herrn Jesus Christus ist. Richtig verstandenes Christentum führt zur Gelassenheit. Christen können/dürfen sich gar nicht schuldig fühlen für einen angeblich drohenden Klima-Kollaps. Machtgierige bedienen sich heidnischer Ängste, um die Menschen gefügig zu machen. Wirklich gläubige Christen sollten sich von der Ersatzreligion Ökologismus nicht aus der Ruhe bringen lassen.

Internet:

Über Gerald J.S. Wilde

Target Risk 2

============================================================================

Nachlese zum Darwin-Jahr:

Das Wahrheitsmonopol des Materialismus wankt

Von Edgar L. Gärtner

Hätten der Bundesrat und die Bundesländer einer Petition der naturalistischen (= nihilistischen) Giordano Bruno Stiftung nachgegeben, dann wäre der ohnehin schon unter der Hand zum „Vatertag“ (ohne Väter) umfunktionierte hehre christliche Feiertag „Christi Himmelfahrt“ dieses Jahr erstmals als „Tag der Evolution“ begangen worden. Die Initiative der Bruno Stiftung ist freilich nur eines von zahlreichen Beispielen für den anlässlich des 200. Geburtstages von Charles Darwin im Februar mit großsprecherischer Pose vorgetragenen Anspruch atheistisch ausgerichteter Darwinisten auf das Wahrheitsmonopol des Materialismus. Wer die Entwicklung an der Front naturwissenschaftlicher Forschung verfolgt, fragt sich allerdings unwillkürlich, auf welche neuen Erkenntnisse militante Atheisten wie Richard Dawkins oder Ulrich Kutschera ihre Überzeugung, die Annahme eines göttlichen Ursprungs des Universums sei nicht nur überflüssig, sondern sogar schädlich, denn stützen.

Denn wir sind gerade Zeugen eines fundamentalen Paradigmenwechsels in den Naturwissenschaften. Einsteins Dogma von der Unübertrefflichkeit der Lichtgeschwindigkeit ist im Sommer 2008 in Genf experimentell ins Wanken gebracht worden. Ein Physiker-Team unter Nicolas Gisin konnte zeigen, dass das von Einstein nur als absurde Konsequenz gegnerischer Auffassungen postulierte Verschränkungsprinzip in der Quantenphysik real existiert. Dieses Prinzip besagt, dass zwei Teilchen A und B, die einmal zusammen gehörten, nach der Trennung wie durch Spuk miteinander verbunden bleiben und mit unendlich hoher Geschwindigkeit Informationen austauschen, selbst wenn der Zeitpunkt der Trennung weit in der Vergangenheit liegt oder die Teilchen mittlerweile Lichtjahre voneinander entfernt sind. Es ist somit auch nicht ausgeschlossen, dass Wirkungen in der realen Welt manchmal ihren Ursachen vorauszugehen scheinen oder tatsächlich vorangehen. Scheinbar überirdische Phänomene wie Geistheilung, Telepathie, Homöopathie, Hellsehen oder Liebe auf den ersten Blick werden möglicherweise bald erklärbar, ohne dabei etwas von ihrem Zauber einzubüßen.

Die Vorstellung, ähnlich dem Dualismus von Teilchen und Welle unterliege auch das Verhältnis von Leib und Seele und somit das Bewusstsein den Regeln der Quantenphysik, ist nicht neu. Der australische Hirnforscher John C. Eccles, ein enger Freund des bekannten Wissenschaftsphilosophen Karl R. Popper, gehörte zu den ersten, die eine solche Parallelität postulierten. Popper begründete damit seine Vermutung, das menschliche Wissen sei zu 99 Prozent angeboren und werde durch Lernen nur aktualisiert. Eccles, der 1963 für seine bahnbrechenden Erkenntnissen über die Erregungsübertragung in den Nervenzellen den Nobelpreis für Medizin erhielt, glaubte stets daran, dass es eine vom Körper unabhängige und unsterbliche Seele gibt. Er dachte, der Geist beeinflusse das Gehirn, indem er auf mikroskopisch kleine Strukturen in der Großhirnrinde, die so genannten Pyramidenzellen, einwirkt. Ausgehend davon, versuchten die US-Forscher Stuart Hameroff und Roger Penrose das Bewusstsein durch den Kollaps der Wellenfunktion in den Mikrotubuli des Gehirns zu erklären. Inzwischen ist auch der Frankfurter Physikprofessor Thomas Görnitz überzeugt, dass Gedanken so real sind wie Atome. Stoffe sind nur vorläufige Produkte der Wechselwirkung von Feldern. Die Realität ist primär geistig.

„Über das Verschränkungsprinzip sind wir auf subtile Art und Weise mit jedem x-beliebigen Punkt des Universums verbunden!“, folgert der promovierte Chemiker und Wissenschaftsjournalist Rolf Froböse in seinem neuen Buch. Anhand weiterer Zeugnisse und Beispiele macht er deutlich, dass sich Leben und Bewusstsein nicht hätten entwickeln können, wenn es nicht seit dem Urknall vor 13,7 Milliarden Jahren einen universellen Quantencode gäbe, in dem die Möglichkeit der Lebensentstehung schon angelegt war. Die Wahrscheinlichkeit für die Entstehung des Lebens durch blinden Zufall beträgt nach Berechnung des Karlsruher Makromolekularchemikers Prof. Bruno Vollmert höchstens eins zu zehn hoch tausend. Eher würde ein funktionsfähiger Pentium-Rechner dadurch entstehen, dass man alle seine Elektronikteile in zigtausendfacher Ausführung von der Aussichtsplattform des Eifelturms auf die Straße würfe, meint Vollmert. In der Tat konnte man bei endlosen Wiederholungen des 1953 von Stanley L. Miller zum ersten Mal in Chicago durchgeführten Laborexperiments zur Simulierung der Lebensentstehung aus der „Ursuppe“ immer nur Aminosäuren, aber nicht einmal einfachste Eiweißmoleküle gewinnen. Dafür fehlte die Information, die heute durch DNA und RNA übermittelt wird, nach Ansicht Vollmerts ursprünglich aber von Gott gekommen sein muss.

Darwins Selektionstheorie sei deshalb nicht einfach falsch, meint Froböse, sondern beschreibe nur die Übersetzung des universellen Quantencodes, der sich in der Universalität des genetischen Codes äußert. Dabei beruft er sich auf den US-Biochemiker Lothar Schäfer, der die Auffassung vertritt, bei der Anpassung der Arten an unterschiedliche Lebensbedingungen durch Mutation und Selektion werde nur eine bereits von vornherein gegebene virtuelle Ordnung von Quantenzuständen aktualisiert. Blinden Zufall lasse der Lebenscode des Universums nicht zu.

Internet:

Stiftung fordert Tag der Evolution statt Christi Himmelfahrt

Interview mit Rolf Froböse über Wissenschaft und Religion

Literatur:

Thomas Görnitz: „Der kreative Kosmos. Geist und Materie aus Information. Spektrum Akademischer Verlag, Heidelberg 2006

Lutz Simon (Hrsg.): „Wissenschaft contra Gott? Glauben im atheistischen Umfeld“. Hänssler Verlag, Holzgerlingen 2007

Joachim Bauer: Das kooperative Gen. Verlag Hofmann & Campe, Hamburg 2008

Rolf Froböse: „Der Lebenscode des Universums. Quantenphänomene und die Unsterblichkeit der Seele.“ Lotos Verlag (Random House), München 2009

===========================================================================

Verständigung braucht gemeinsame Werte

Die Macht des Wortes und die Grenzen des Dialogs

Von Edgar L. Gärtner

„Im Anfang war das Wort“, heißt es im Johannes-Evangelium (1,1-2). Die Bedeutung dieses Halbsatzes ist theologisch und philosophisch umstritten und jedenfalls unverständlich ohne dessen Fortsetzung „und das Wort war bei Gott, und Gott war das Wort.“ Wenn die Bibel die Macht des Wortes eindeutig Gott zuordnet, heißt das aber noch lange nicht, dass Worte in ganz irdischen zwischenmenschlichen Angelegenheiten nur Schall und Rauch seien. Im Gegenteil: Die Erfahrung lehrt, dass Worte sogar töten können. Dennoch verlassen sich heute gerade Werbe-Profis aus gutem Grund nicht allein auf Worte.

Sie haben gelernt: Kommunikation, echte zwischenmenschliche Verständigung beruht nur zu einem geringen Teil auf Worten, sondern zu allererst auf dem Austausch von Gebärden, Gesten und manchmal auch Düften. Sonst bliebe es unerklärlich, dass wir uns mit Hunden mitunter besser verständigen können als mit manchen Mitmenschen. Die eher zweitrangige verbale Verständigung bedarf darüber hinaus offenbar einer gemeinsamen Glaubensbasis. Allerdings sprechen die Werbeleute weniger vom Glauben als (neutraler) von zwischen vielen Menschen geteilten Bildern und Mythen. Um ihre Adressaten überhaupt ansprechen zu können, versuchen sie, die Produkt-Botschaft, die sie rüberbringen wollen, einem gängigen Mythos aufzusatteln. Beispiele für solche Mythen und Bilder sind etwa die Suche nach dem heiligen Gral oder der tapfere Kampf Davids gegen den Riesen Goliath.

Umgekehrt bedeutet das aber auch, dass verbale Kommunikation, Dialog zwischen Menschen grundverschiedenen Glaubens nur in sehr eingeschränktem Maße möglich ist. Darauf hat vor kurzem Papst Benedikt XVI. im Vorwort zum neuesten Buch des italienischen Philosophen und Ex-Senatspräsidenten Marcello Pera hingewiesen. Über religiöse Grundentscheidungen könne es keinen wirklichen Dialog geben, „ohne den eigenen Glauben in Klammern zu setzen“, betont dort der Papst. Mit einer „nicht widerlegbaren Logik“ lasse Pera in seinem Buch erkennen, dass der Liberalismus zum Nihilismus wird, wenn er sich gegen das christliche Gottes- und Menschenbild stellt, d. h. den Menschen die Eigenschaft der Gottesebenbildlichkeit abspricht. Europa könne nur dann zu einer „moralischen Gemeinschaft“ werden, wenn es zu seinen christlichen Wurzeln zurückkehrt, betont der Atheist und Popper-Schüler Pera. Als Skeptiker verspricht er sich allerdings nicht viel von Taufe und Wiedertaufe. Er rät den Europäern, zu handeln, „als ob es Christus gebe.“

Alexander Smoltczyk, der Vatikan-Korrespondent des SPIEGEL, berichtete über die päpstliche Klarstellung unter der Überschrift „Schluss mit Lessing.“ In der Tat sieht Lessings Ringparabel, im Lichte der modernen Kommunikationsforschung betrachtet, alt aus.

(Als Gastkommentar veröffentlicht in DIE WELT vom 27. Dezember 2008)

Internet:

Wikipedia: Marcello Pera

Schluss mit Lessing

Interreligiöser Dialog nicht möglich

============================================================

Gibt es Freiheit ohne Geist? Von Edgar Gärtner*)

Neulich stieß ich beim TV-Kanal Phoenix auf die Wiederholung einer Reportage über den St. Jakobs Pilgerweg. Da blieb ich eine Weile hängen. Zwar zieht es mich persönlich längst nicht mehr dorthin, seit es dort, ausgelöst durch den Bestseller von Hape Kerkeling, zu Staus kommt. Aber was ältere und jüngere Pilger den TV-Reportern zu erzählen hatten, interessierte mich schon. Im Gedächtnis haften blieb mir ein junges Ossi-Pärchen aus Magdeburg. Ich möchte den beiden nicht zu nahe treten. Aber was sie als „Ertrag“ ihres Trips festhielten, stimmte mich tief traurig. Für den Geist von Santiago de Compostella hatten sie offenbar weder Auge noch Ohr noch sonst ein Organ. Für sie war die Reise ein touristischer Event neben anderen. Was sie über ihre Empfindungen mitteilten, erschien mir höchst geistlos. Und so wie diese beiden sehen es wohl inzwischen viele Abgänger unseres entchristlichten Erziehungswesens.

Deshalb erscheint es nicht weiter verwunderlich, dass auch bei Debatten über Freiheit und Moral der Begriff „Geist“ oft gar nicht mehr auftaucht. Immerhin gibt es inzwischen, gefördert durch die neuesten Erkenntnisse der Humangenetik, einen weitgehenden Konsens darüber, dass die menschlichen Individuen keine Marionetten ihrer Gene sind, dass sie ihren Erbanlagen gegenüber einen gewissen Entscheidungsspielraum haben. So bringt es auch nicht viel, nach speziellen Genen zu suchen, die jemanden zum Genie, zur Niete, zum Hetero, zum Schwulen, zum Heiligen oder zum Verbrecher machen. Es gibt offenbar so etwas wie Freiheit. Aber worauf beruht und worin besteht diese? Hier scheiden sich die Geister, wenn man so sagen darf. Denn von „Geist“ wollen die meisten Anhänger des bei uns inzwischen zum Mainstream gewordenen Atheismus erst gar nicht reden. Sogar der herkömmliche, auf dem christlichen Menschenbild fußende Freiheitsbegriff ist vielen von ihnen höchst suspekt.

Nach christlicher Auffassung kommt es letzten Endes auf die mit der geistigen Person verbundene Willensfreiheit an. Eine ganze Schule der neurobiologischen Forschung bemüht sich demgegenüber um den Nachweis, dass der Mensch nicht Herr im eigenen Hause ist, dass es im menschlichen Hirn keine Strukturen gibt, die man mit Geist oder Willensfreiheit in Zusammenhang bringen könnte. Aber diese mit großem Eifer ins Werk gesetzte Suche beruht auf einer höchst dürftigen philosophischen Begründung. „Der Tag, an dem die Hirnforschung aufbrach, um die Freiheit zu suchen, ist vergleichbar mit dem Tag, an dem der proletarische Dummkopf Gagarin erzählte, er sei im Weltraum gewesen und habe Gott nicht gefunden“, urteilt der bekannte Psychiater und katholische Theologe Manfred Lütz mit dem ihm eigenen Sarkasmus in seinem Bestseller „Gott. Eine kleine Geschichte des Größten“ (2007).

Wieder und wieder werden Experimente zitiert, die der amerikanische Neurologe Benjamin Libet schon in den 80er Jahren durchführte. Danach entscheidet das Hirn über Handlungen, noch bevor uns ein Entschluss bewusst wird. Genau genommen, bestätigen solche Experimente aber nur Sigmund Freuds Entdeckung, dass der Anteil des Unbewussten an der Persönlichkeit viel größer ist als der des Bewussten. Freud dachte allerdings beim Unbewussten nur an Triebhaftes, vor allem an die Sexualität, und negierte dessen geistig-religiöse Dimension. Neurologen und Philosophen werden sich heute aber nicht einmal darüber einig, was unter Bewusstsein zu verstehen ist.

Konsens besteht nur darüber, dass die Menschen von Natur aus soziale Wesen sind, deren Entfaltung von der Kommunikation mit anderen Menschen abhängt. Materielle Grundlage gegenseitigen Einfühlens und Verstehens (Empathie) sind die so genannten Spiegelneuronen. In der Praxis beschränkt sich der Gefühls- und Gedankenaustausch aber meist auf abgegrenzte Gruppen von Bluts- und Geistesverwandten. Dennoch gibt es auch spontane Manifestationen von Altruismus gegenüber völlig Fremden, deren Wurzeln bis zu unseren behaarten Vorfahren zurück reichen.

Einiges spricht dafür, dass sich altruistische Verhaltensweisen deshalb in der Evolution durchgesetzt haben, weil sie im Hirn mit der Freisetzung des Botenstoffes Dopamin und dem damit verbundenen angenehmen Gefühl belohnt werden. Deshalb kann Freigiebigkeit sogar ein besonders raffinierter Ausdruck von Egoismus sein. Es gibt auch Simulationsexperimente, die darauf hinweisen dass Gesellschaften weltoffener Egoisten friedlicher sind als Gesellschaften gruppensolidarischer Gutmenschen. Menschen mit psychopathischer Veranlagung (immerhin etwa ein Prozent der Bevölkerung) fehlt jedoch die Fähigkeit zur Empathie und zum Lustgewinn durch selbstlose Hilfe. Das heißt aber noch lange nicht, dass sie dazu verdammt sind, auf die schiefe Bahn zu geraten.

Warum aber werden viele Menschen, trotz ungünstiger Erbanlagen, nicht zu Verbrechern? Darauf gibt bislang nur die jüdisch-christliche Lehre von der geistigen Person eine Antwort. Geist ist nach christlicher Auffassung keine Substanz, sondern reine Dynamis (wie Musik), von der sich der freie Wille ableitet. Nach materialistischer Auffassung kann es so etwas überhaupt nicht geben. Freiheit beschränkt sich für Materialisten auf Handlungsfreiheit. Diese besteht darin, im Einklang mit seiner mentalen Disposition (Instinkte, Motivationen, Glaubenssätze, Präferenzen, verbales und nonverbales Wissen) agieren zu können. Es bleibt dabei offen, wie die Disposition zustande kommt. Auch einem Hund dürfte danach das Attribut der Freiheit nicht abgesprochen werden. Es käme lediglich darauf an, ob er an der Kette liegt oder sich artgerecht bewegen kann. Diese Auffassung von Freiheit kann aber schlecht erklären, wie es eine Minderheit von KZ-Häftlingen schaffte, innerlich frei und somit Mensch zu bleiben. Der bekannte Wiener Neurologe und Psychiater Viktor E. Frankl, ein Schüler Sigmund Freuds, hat in der Nachkriegszeit eindrucksvoll geschildert, wie er es kraft eigener Geistesanstrengung schaffte, die Selbstaufgabe zu vermeiden, und es ihm so gelang, die Drangsal der Lager zu überleben.

Frankl erkannte aufgrund seiner Erfahrungen im KZ und in seiner psychiatrischen Praxis: Der Mensch „hat“ einen Charakter – aber er „ist“ eine Person. „Die Charakteranlage ist daher auf keinen Fall das jeweils Entscheidende; letztlich entscheidend ist vielmehr immer die Stellungnahme der Person. (…) Zuletzt entscheidet der Mensch über sich selbst. (…) Der Mensch hat also nicht nur Freiheit gegenüber Einflüssen je seiner Umwelt, sondern auch gegenüber seinem eigenen Charakter. Ja, in gewissem Sinne ist es sogar so, dass die Freiheit gegenüber der Umwelt in der Freiheit gegenüber dem Charakter fundiert ist.“

Frankls Analyse der Wechselwirkungen zwischen Geist und Körper scheint inzwischen in Deutschland leider fast vergessen. In der umfangreichen Bibliografie eines aktuellen Sachbuchs zum Thema unter dem Titel „Die gefühlte Moral“ (2008) aus der Feder des Wissenschaftsautors Frank Ochmann taucht sein Name gar nicht auf. Inzwischen hat aber das australische Wunderkind David Chalmers, dessen Name in Ochmanns Bibliografie ebenfalls fehlt, mit bestechender mathematischer Logik nachgewiesen, dass schon das Bewusstsein, das im jüdisch-christlichen Menschenbild unterhalb des Geistes in der Psychophysis angesiedelt ist, grundsätzlich nicht monistisch, d. h. auch nicht materialistisch, sondern nur mithilfe eines Dualismus von Geist und Körper erklärbar ist.

Immerhin sieht auch Ochmann ganz klar: „Reiner Utilitarismus, der nach dem Prinzip maximalen Glücks für die größtmögliche Zahl vorgeht und fordert, in jedem Fall entsprechend moralisch zu handeln, mag philosophisch richtig oder zumindest nachvollziehbar sein. Trotzdem überfordert er nicht nur die meisten Menschen, sondern offenbar den Menschen an sich.“ Aber was folgt daraus? Darüber schweigt sich der studierte Theologe und ehemalige Priester aus. Könnte es nicht doch sein, dass Viktor E. Frankl recht hat, wenn er gegen die nihilistische Reduktion des Menschen auf Biologisches, Psychologisches oder Soziologisches einwendet: „Die Wesenslehre vom Menschen muss offen bleiben – offen auf Welt und auf Überwelt hin; sie muss die Tür zur Transzendenz offen halten. Durch die offene Tür aber fällt der Schatten des Absoluten“?

Ich bin, angesichts der nun beginnenden Wirtschaftskrise und ihrer absehbaren sozialen Konsequenzen, mehr und mehr davon überzeugt, dass die Fronten in den kommenden gesellschaftlichen Auseinandersetzungen weniger zwischen Liberalen und Autoritären, sondern zwischen Nihilisten und jenen verlaufen, die an einen Übersinn des Lebens glauben. Dabei sollte man aber nicht vergessen, dass ein erfundener „Übersinn“, der sich gegen das wirkliche Leben wendet, nach Friedrich Nietzsche selbst die extremste Form von Nihilismus darstellt. Deshalb sollten islamistische Selbstmordattentäter (wie auch extreme christliche Asketen) nicht als Idealisten gelten, denen man bis zu einem gewissen Grad Verständnis entgegen bringt, sondern als Feinde des Lebens.

(Teilweise abgedruckt in: factum-magazin 8/08, Schwengeler Verlag, CH-Berneck)

============================================================

An Wunder glauben von Edgar Gärtner*)

Warum sind Liberale, wie jetzt durch empirische Untersuchungen bestätigt wurde, im Schnitt deutlich glücklicher, zufriedener und optimistischer als Anhänger des wohlfahrtsstaatlichen Sozialismus? Die Antwort auf diese Frage ist vermutlich einfacher, als viele denken: Liberale glauben an Wunder. Sie tun, was ihnen sichtbar nützt und vertrauen darauf, dass das freie Spiel von Angebot und Nachfrage hinter ihrem Rücken zu Wohlstand und Frieden für die ganze Gesellschaft führt.

Es geht bei diesem Wunderglauben nicht unbedingt um Übersinnliches oder Überirdisches, sondern um durchaus Diesseitiges. Es geht weder um optische Täuschungen noch um fromme oder abergläubische Einbildungen wie Marienerscheinungen, sondern zuallererst um greifbare Vorgänge in Politik und Wirtschaft, für die das deutsche Wirtschaftswunder der Nachkriegszeit als Paradebeispiel dienen kann. Bewusst schreibe ich hier Wirtschaftswunder ohne Anführungszeichen. Denn wie soll man die Tatsache anders benennen, dass schon wenige Tage nach Ludwig Erhards wagemutigen, dem sozialistischen Zeitgeist widersprechenden Beschluss, mitten in der Not des Jahres 1948 gleichzeitig mit der Währungsreform die Rationierung von Gütern des täglichen Bedarfs zu beenden und fast sämtliche Preiskontrollen abzuschaffen, die Geschäfte auf einmal voll Waren aller Art waren und lange Menschenschlangen vor einem knappen Angebot bald der Vergangenheit angehörten.

Bei aller streng evolutionistischen, antiteleologischen Argumentation wies gerade der Erzliberale Friedrich August von Hayek wiederholt auf seine Offenheit Wundern gegenüber hin. Denn es war ihm zutiefst bewusst, dass die Ergebnisse des Handelns der Vielen meist viel intelligenter sind als die Motive der einzelnen Handelnden. Hayek sah darin den eigentlichen Grund für die Borniertheit und Stupidität jeglicher Form von Planwirtschaft. Denn deren Ziele spiegeln nur das beschränkte Wissen der jeweiligen Machthaber wider. „Aus einem gelenkten Prozess kann nichts größeres entstehen, als der lenkende Geist voraussehen kann“, stellte Hayek fest. Er ging sogar so weit, die gewachsene Ordnung und den Zusammenhang großer Gemeinwesen als etwas Geheimnisvolles hinzustellen. „In der großen Gesellschaft profitieren die verschiedenen Mitglieder von den Tätigkeiten aller anderen nicht nur trotz, sondern oft sogar aufgrund der Verschiedenheit ihrer jeweiligen Ziele“, fügte er an anderer Stelle hinzu.

Gegenüber dem Mysterium des gesellschaftlichen Zusammenhalts trotz oder gerade wegen des Pluralismus individueller Motive und Ziele könnten Sozialforscher, wenn sie ehrlich sind, nur die Haltung der Demut einnehmen, meinte Hayek: „Die Erkenntnis von den unüberwindlichen Grenzen seines Wissens sollten den Erforscher der Gesellschaft eigentlich Demut lehren. Diese Demut sollte ihn davor bewahren, Mitschuldiger in dem verhängnisvollen menschlichen Streben nach der Herrschaft über die Gesellschaft werden“, forderte der Wirtschaftsnobelpreisträger von 1974. Demgegenüber gehöre es zum Wesen des Aberglaubens, dass die Menschen sich einbilden, genug zu wissen, um Wunder rational erklären und durch bewusste Maßnahmen ersetzen zu können. Hayek war sich also im Klaren, dass Politik und Ökonomie bis zum heutigen Tag weder in der Theorie noch in der Praxis der Theologie so leicht entgehen können. Und er hat in der Spätphase seines Wirkens selbst Überlegungen über eine Komplementarität von Evolutionismus und christlicher Religion angestellt, was ihn in den Augen der Sozialisten aller Parteien umso verdächtiger machte.

Als weniger suspekt erscheint da vielleicht die politisch eher links verortete große Philosophin Hannah Arendt. Aber gerade bei ihr spielt der Begriff des Wunders eine noch größere Rolle, und zwar gerade in ihrem Meisterwerk, der originellen politischen Theorie des tätigen Lebens. Auch wenn Arendt über das deutsche Wirtschaftswunder anders dachte als Ludwig Erhard oder Friedrich August von Hayek und „Wunder“ immer mit Anführungszeichen schrieb, teilt sie deren Auffassung über die grundsätzliche Beschränktheit der menschlichen Fähigkeit, mögliche Folgen ihres Handelns abzusehen. In Anlehnung an Friedrich Nietzsche, der den Menschen als Tier definierte, „das versprechen darf“, sah Hannah Arendt den Hauptunterschied zwischen freien Menschen und ihren unfreien Vorfahren nicht im größeren Wissen, sondern in der Fähigkeit zu versprechen und zu verzeihen. Gute Taten hängen nicht in erster Linie vom Umfang des Wissens und von den öffentlich proklamierten Absichten einer Person ab, sondern von ihrer Liebe und der Treue zu Mitmenschen gegenüber eingegangenen Verpflichtungen.

Alles wirklich Gute geschieht im Verborgenen, lehrte Jesus von Nazareth. Die rechte Hand soll nicht wissen, was die linke tut. Daran knüpfte Hannah Arendt in „Vita activa“ an und fügte mahnend hinzu: „Güte aber, die, ihrer Verborgenheit überdrüssig, sich anmaßt, eine öffentliche Rolle zu spielen, ist nicht nur nicht mehr eigentlich gut, sie ist ausgesprochen korrupt.“ Das könnte sie heutigen „Gutmenschen“ ins Stammbuch geschrieben haben. Sie selbst hält sich ans Neue Testament: Da die Menschen die ferneren Folgen ihres Handelns nur in sehr geringem Maße im Voraus abschätzen können, machen sie unweigerlich Fehler, fügen anderen Menschen und ihrer Umwelt Schaden zu und laden dadurch Schuld auf sich. Nur durch ihre Fähigkeit, eingegangene Versprechen allen Widrigkeiten zum Trotz einzuhalten und Schuld zu vergeben, kann der soziale Zusammenhalt gewahrt werden. In Arendts Worten: „Dass es in dieser Welt eine durchaus diesseitige Fähigkeit gibt, ‚Wunder’ zu vollbringen, und dass diese Wunder wirkende Fähigkeit nichts anderes ist als das Handeln, dies hat Jesus von Nazareth (dessen Einsicht in das Wesen des Handelns so unvergleichlich tief und ursprünglich war wie sonst nur noch Sokrates’ Einsichten in die Möglichkeiten des Denkens) nicht nur gewusst, sondern ausgesprochen, wenn er die Kraft zu verzeihen, mit der Machtbefugnis dessen verglich, der Wunder vollbringt, wobei er beides auf die gleiche Stufe stellte und als Möglichkeiten verstand, die dem Menschen als einem diesseitigen Wesen zukommen.“

Nicht weniger geheimnisvoll als das Wunder von Versprechen und Verzeihen war für Hannah Arendt ein anderes Band des sozialen und politischen Zusammenhalts: der Gemeinsinn oder gesunde Menschenverstand. Diesen hielt Arendt für die Grundlage des Politischen schlechthin, weil er erst dafür sorgt, dass die Mitglieder einer Gesellschaft in einer gemeinsamen Wirklichkeit leben. Der Gemeinsinn entsteht, wohlgemerkt, gerade nicht durch die Unterordnung aller unter vorgegebene Ziele. Vielmehr genügt es, dass zwei plus zwei für alle vier ist und bleibt. Wie der französische Literaturnobelpeisträger Albert Camus sah die jüdische Philosophin, dass die zunehmende Bürokratisierung des politischen und gesellschaftlichen Lebens im Wohlfahrtsstaat europäischer Prägung den Menschen nicht nur den Wunderglauben, sondern auch den gesunden Menschenverstand austreibt. Ein immer dichteres Geflecht bewusster, oft wissenschaftlich oder pseudowissenschaftlich begründeter administrativer Regelungen tritt an die Stelle von Wundern und Überraschungen. Die offene Welt wird mehr und mehr zu einem Zuchthaus.

Kurz: Wunder gehören ganz einfach zur Realität. Wer nicht daran glaubt, wird am Ende zum Nihilisten. „Der Nihilist glaubt nicht an nichts, sondern nicht an das, was ist“, definierte Albert Camus. Der Gemeinsinn geht gerade am Übermaß „sozial“ begründeter wohlfahrtsstaatlicher Reglementierungen (mit Extrawürsten für alle möglichen lautstarken Interessengruppen) zugrunde. Das zeigt sich m. E. derzeit am deutlichsten am verbreiteten Aberglauben, Staat und Wirtschaft könnten mithilfe von Milliardeninvestitionen in den „Klimaschutz“, durch die Rationierung des Energieeinsatzes über das Europäische Emissionshandelssystem, durch detaillierte Vorschriften für die Heizung und Wärmedämmung von Gebäuden (unter Missachtung von Eigentumsrechten) sowie durch die Gleichschaltung von Forschung und Lehre (alles in guter Absicht, versteht sich) das Wettergeschehen gezielt beeinflussen und den Klimawandel stoppen.

„Ein merkliches Abnehmen des gesunden Menschenverstands und ein merkliches Zunehmen von Aberglauben und Leichtgläubigkeit deuten immer darauf hin, dass die Gemeinsamkeit der Welt innerhalb einer bestimmten Menschengruppe abbröckelt, dass der Wirklichkeitssinn gestört ist, mit dem wir uns in der Welt orientieren“, mahnte Hannah Arendt. Diese Warnung ist aktueller denn je.

*) veröffentlicht in: DIE WELT vom 23. Oktober 2007

Warum der Gärtner keine Chance hat

Salomon Kroonenberg: Der lange Zyklus. Die Erde in 10 000 Jahren. Primus Verlag (Wissenschaftliche Buchgesellschaft). Darmstadt, 2008. Geb. 256 Seiten. € 24,90. ISBN 978-3-89678-362-2

Der lange Zyklus. Die Erde in 10000 Jahren„Die Leser dieses Buches wissen, dass der Gärtner keine Chance hat. Er denkt nur im Rahmen des menschlichen Maßes.“ Nach diesem ernüchternden Resumé könnte der Rezensent, der nicht nur Gärtner heißt und selbst zwei Gärten pflegt, sondern sich auch zu einer Art von Gärtner-Philosophie bekennt, das Buch des niederländischen Geologie-Professors Salomon Kroonenberg gleich wieder aus der Hand legen. Doch was Kroonenberg als Fachmann für langfristige Betrachtungen seinen Kollegen von der unklar umrissenen Disziplin „Klimaforschung“ ins Stammbuch schreibt, sollte meines Erachtens alle naturwissenschaftlich und politisch interessierten zum Nachdenken bringen. Weiterlesen

REACH, a regulation farce

Believing EU officials we have entered, on 1st December 2008, a new era. From now on it will be illegal to manufacture, import, sell, buy or use chemicals that have not been registered or pre-registered following EU’s complicated REACH procedure. Yet experiences during the pre-registration process are rather confirming old fears that REACH does not fundamentally improve chemicals security, but will only increase bureaucratic control over every day’s life.

REACH, a Costly Piece of Theatre?

By Edgar L. Gärtner

Believing EU officials we entered, on December 1st 2008, a new era. After this, it will be illegal to manufacture, import, sell, buy or use chemicals that have not been registered or pre-registered following EU’s REACH procedure. Yet the ongoing pre-registration process is rather confirming the old fears that REACH does not fundamentally improve chemicals security and that the good intentions behind this new regulation initiative would lead to a Babylonian confusion or a costly piece of theatre.

REACH is the paradigm for a new type of regulation that will have a worldwide impact – even if it is not really workable due to its fundamental flaws. For the EU’s new chemicals legislation is thought to fully translate into action for the first time the Precautionary Principle (PP) adopted in 1992 at the “Earth Summit” in Rio de Janeiro. Principle 15 of the Rio Declaration stipulates: “Where there are threats of serious and irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation.” Following the EU’s interpretation of the Rio declaration this wording implies a reversal of the burden of proof between government and industry. Till then government officials had to demonstrate that a product is unsafe before removing it from the market. But following the EU’s interpretation of the PP manufacturers would have to prove that their products are safe before putting them on the market. How, under this condition, is it possible to innovate and introduce new types of products, given the fact that nothing on earth can be considered absolutely safe?

In see behind the dogmatic precautionary approach the mentality of nihilism. What is nihilism? “Nihilists don’t believe in nothing, but do not believe in what is”, declared French literature Nobel Prize winner Albert Camus in 1951. In other words: Nihilists are capable to believe nearly in all but truth: This is that life by itself is very risky and that by tenting to reduce chemicals and other risks we are taking the much greater risk of reducing chances for human life in freedom and dignity (please see my book “Öko-Nihilismus. Eine Kritik der politischen Ökologie”, Jena 2007).

Even the original Rio wording of the PP is leaving lot of questions: How does it relate to Principle 12 of the Rio Declaration on Non-Discrimination? Does “cost effective” also mean “cost efficient” and thus respect the Principle of Proportionality fundamental in the EU’s Maastricht Treaty? This treaty refers in Art. 130r (later 174.2) to the Rio Declaration and doesn’t give a proper definition of the PP. In order to clarify these questions, the EU Commission issued, in February 2000, a special “Communication” précising that the PP applies only to risk management and not to risk assessment. The latter must be based on state-of-the-art scientific methodology. Last but not least the EU Commission’s paper underlined that the PP incorporates the Principle of Proportionality.

Thus, the EU Commission in 2000 clearly rejected definitions of the PP that open the way to different forms of irrationalism, like for instance the NGO’s Wingspread Consensus Statement on the PP which claimed: “When an activity raises threats of harm to human health or the environment, precautionary measures should be taken even if some cause and effect relationships are not fully established scientifically.” Following this, chocolate would need to be banned as even amateur chemists could easily convert it, with the help of ordinary kitchen equipment, into dangerous explosives!

Unfortunately, the EU Commission did not pursue this line in its White Paper “Strategy for a Future Chemicals Policy” published on 27 February 2001: “Whenever reliable scientific evidence is available that a substance may have an adverse impact on human health and the environment but there is still scientific uncertainty about the precise nature or magnitude of the potential damage, decision-making must be based on precaution in order to prevent damage to human health and the environment. Another important objective is to encourage the substitution of dangerous by less dangerous substances where suitable alternatives are available.” This is everything but a clear rejection of nihilism for very few things that have been selected by market competition are easily substituted. The “substitution principle” claimed by NGOs and many members of the European Parliament is based on the belief that political regulators can find a better way to select substance or product alternatives than the traditional trial and error interaction between scientific research, engineers’ creativity and consumer demands.

This belief was already subjacent in chapter 19 of Agenda 21 on waste management adopted 1992 in Rio. For the first time a new hazard based Globally Harmonized System (GHS) of substance classification and characterization, which will be introduced in the EU together with REACH, was proposed there. The nihilistic quest of risk minimizing down to zero became predominant in § 23 of the Action Plan adopted ten years later by the Johannesburg Summit on Sustainable Development (WSSD). The precautionary approach was also chosen by the UNEP-Initiative SAICM (Strategic Approach to International Chemicals Management) which, after some preparatory meetings in 2003, 2004 and 2005, was officially launched at the Dubai Conference in February 2006 with an Action Plan aiming the ban of all potentially dangerous substance uses till 2020. This plan is expressly referring to the Stockholm agreement on phasing out Persistant Organic Pollutants (POPs) whose DDT ban was leading to the rebound of mosquito born malaria causing the death of millions of people, mostly children, in Africa and other tropical regions of the world.

Thus, we were hearing at the Dubai Conference Austria’s environment minister Josef Pröll (at that time in charge of the presidency of the EU’s Environment Council) comment the Dubai Declaration on SAICM as follows: “Dubai is a milestone of global environmental policy. There is a clear commitment to the Precautionary Principle. We don’t need to see a tragedy happen to put safety systems in place. In other words, the Dubai Declaration says that if you’re not sure, don’t do it.” If man had always followed this interpretation of the PP, he would never have tamed fire nor invented the wheel!

Given this background it is not surprising to see the EU courts apply the PP in a very contradictorily and confusing way. US analysts Gary E. Marchant and Kenneth L. Mossmann concluded from a survey published in 2005 that the PP “provides an open invitation for arbitrary and unreasonable decisions by both regulators and judges.” A speaking example of an ill interpreted PP is the EU’s ban of six phthalates in toddlers’ toys and child-care articles which was decided in 2005. Following this decision the EU imposed a total ban on the use in children’s toys of three plasticizers employed in the manufacture of PVC (DEHP, DBP and BBP). It also has prohibited the use of three additional plasticizers (DIDP, DNOP and DINP) in babies’ toys intended to be put in the mouth. Only one of the banned substances (DINP) was currently used in toys. Yet on 11 April 2006 the EU Commission clearly confirmed the EU’s scientific risk assessment from 2003 and stated that “DINP is safe in all applications (toys included) and that there is no need for any further measures to regulate the use of this phthalate.”

Industry has spent over 130 million Euros in total to assess the health and environmental risks of plasticizers such as DEHP and DINP. A core reason for these tests was these plasticizers’ widespread use in medical equipment. All have now been in such longstanding use that if there had been any harmful side effects from their application these would have long since come to the fore. The EU now forces manufacturers of pacifiers, plastic ducks and baby equipment to switch to alternative plasticizers, which have not been investigated as thoroughly, have often not been tested sufficiently for these applications and are often considerably more expensive.

Adipates are one possible substitute. Their possible impact on human health and the environment appear to be slight, but so far they have not been subjected to such exhaustive examinations as have the six banned substances. Other alternatives, although extant for some time, have a high migration tendency, and are clearly much less suitable for these applications.

Citrate esters, touted by environmental groups as more environmentally and health-friendly, migrate from treated materials so quickly that these objects easily become brittle. Toys manufactured using citrate esters as plasticizers will therefore put children at risk of swallowing broken-off fragments. Are we therefore justified in substituting a (theoretical) health risk with the much more concrete risk of a child choking?

Greenpeace activists, on whose arguments the EU’s actions were based, don’t appear to be losing any sleep over such questions. In fact, they are demanding that toy manufacturers abandon the use of PVC altogether. According to them, soft PVCs in toys should be replaced with rubber. However, the effect of heat during the vulcanization process of rubber results in carcinogenic nitrosamines, and the substitution of organic for petroleum-based rubber will simply substitute a new, ‘natural’, set of carcinogens.

The plastics industry currently has great hopes for DINCH, a new substance developed through computer modelling by BASF in co-operation with customers from toys and medical device industry. This substance is only slightly more expensive than DEHP, and it can also be almost seamlessly substituted for DEHP without the need to rebuild production plants. DINCH also does not include any of the aromatic hydrocarbons defined as suspect by toxicologists so we can expect it to have a much more benign toxicological profile. BASF has confirmed this in a far reaching programme of tests. These tests indicate that DINCH does not affect the development of sexual organs or fertility, nor does it harm the environment. DINCH has a rate of migration which is at least 8 times lower than that of DEHP, although it has disadvantages such as higher volatility.

The quest for innovation or substitution in the case of these alternative plasticizers cannot be pursued without consideration of the costs, as we would end up substituting the proven with the unproven through ideologically driven wishful thinking. Society needs to pursue fulfilment of consumer demands in a way that balances benefits against the costs to the economy, the environment, and to health.

This raises the question of who decides which materials may be used: Greenpeace? The EU Commission? Science? Nature? And just who is ‘Nature’? Aren’t humans also part of nature, including the average consumer who weighs up product choices and then consciously chooses for instance PVC plastics? Wouldn’t it be better to choose the winner out of several competing market-based solutions?

Thus the European Parliament’s decision to restrict the use of DINP in spite of a thorough and costly risk assessment opens the way to unfounded black listing. Consumer product and packaging material manufacturers could be tented to ban all substances demonized by NGOs or restricted for use prior to their testing and assessment in line with REACH. This could cause major business disruptions as possible alternatives take years to come to market.

Will the REACH procedures dispel this sort of confusion? When the REACH initiative was started in 1999 its principal aim was to halt unequal treatment of ‘old’ and ‘new’ substances. New chemicals were submitted since 1981 to the registration procedure introduced by the EU directive 548/68/EEC while over 100.000 substances in use prior to 18 September 1981 (listed in the EINECS register at the EU Commission’s Joint Institute in Ispra/Italy) were exempt from registration. Only old substances on a ‘priority list’ established by EU Directive 793/93/EEC, Art. 15 had to undergo an assessment. This was done with 141 substances in 20 years. But only 28 of these have been definitely evaluated. With REACH the EU is trying to evaluate the different uses of approximately 30,000 substances over only 10 years. Doing this the original REACH proposal would have required data generation for the drafting of no less than 100 million safety reports, each containing 20 up to 200 pages (plus translations in some 20 languages). Everybody could see that this approach would create a new tower of Babel.

That is why after an internet consultation with industry and major wrangling between different stakeholders the scope of REACH has partially changed. Now extensive safety reports (and the sometimes costly data generation they suppose) are only required for substances with an annual production volume of more than 10 tonnes. Following the amendments to the EP’s First Reading on 17 November and the Council’s agreement on Common Position on 13 December 2005 (finally adopted by EP and EC in December 2006) the registration procedure has been facilitated while the authorisation process has been in tendency complicated. This could lead to more bureaucracy and create a new potential for arbitrary decisions and thus endanger industry’s innovation capacity. The main problem lies in REACH Art.57 which defines substances of Very High Concern (VHC) targeted by authorisation procedures. The definition of VCH substances has been partially altered. Instead of potentially dangerous substances susceptible to be released from products all potentially endocrine disrupting, persistent, bio-accumulative and carcinogenic chemicals as well as substances “giving rise to a similar level of concern” contained in products are focussed now.

Substances meeting the VHC criteria defined in Art. 57 shall be listed in REACH Annex XIV (pending authorisation procedure). Substances supposed to meet the VHC criteria are listed in Annex XV (‘candidate list’) in order to be examined as soon as possible. This creates a new risk of Black Listing. For manufacturers could be tented to seek out politically correct substances in order to replace VHC and ‘candidate’ substances bad mouthed by NGOs long before their examination has come to final conclusions. This is leading to difficult reporting issues.

For instance REACH, Art.7 stipulates that all VHC substances contained in domestic or imported articles surmounting 1 tonne per annum in total and surpassing concentrations of 0,1 % have to be notified. This is leading to problems like this one: Can an importer of cardboard manufactured and finished in China by using printing ink containing the famous postal yellow pigment lead chromate (PbCrO4), which was voluntarily banned in the EU by the printing ink manufacturers association CEPE, know how much of this substance is produced or imported in total? Another example: According to REACH Art.33 all suppliers of products containing VHC substances above a concentration of 0,1 % are obliged to respond free of charge before 45 days to VHC related requests of their customers. Greenpeace has already prepared post cards for mass requests.

Retailers are responding to this challenge by forming a sort of information cartel. Initiated by the German Retailers’ Federations HDE and BHB as well as by the big retailers Metro and REWE, a common data bank named “REACH Solution” was created. It is provided and operated by the specialised company Chemical Service Compliance AG in Cologne. The internet platform offers two portals: one for suppliers and one for their customers. The access to this data bank is also offered via the federation Eurocommerce to non German suppliers and retailers so that a unified European solution seems to be on the way. This illustrates well the general tendency that strong technical and economic regulation is leading to cartelisation of the private sector of the economy.

In spite of all good intentions REACH will probably not reduce but even enlarge grey or black markets for illegal applications of potentially hazardous substances. For on one hand due to the lack of viable substitutes many of those chemicals will remain for some time officially authorised for specific purposes, “if the risks are adequately controlled”. On the other hand it would be very difficult to avoid illegal applications of the same chemicals. There are still markets for ‘dirty’ products. Even completely forbidden chemicals that are applied only in very small amounts in textiles, printing inks or other consumer products can easily be imported from China via the ports of Naples or Piraeus. We cannot suppress those grey or black markets through more and more bureaucracy for excessive bureaucracy is often the real reason behind their emergence, but only by establishing sound open markets.

Well aware of those problems the EU member states have till now proposed only 15 substances as calling for special attention. Geert Dancet, the Executive Director of the EU’s new Chemicals Agency (ECHA) in Helsinki, is convinced that REACH Annex XIV will show in the first time an even smaller number of suspect chemicals while NGOs are calling for no less than 2,000. The official list of substances subject to authorisation will be updated every two years. It is intriguing to see on ECHA’s first “Candidate List” well proven, yet still controversial plasticizers and flame retardants like DEHP or HBCDD closely associated with clearly dangerous arsenic compounds. We can only hope that EU member states and ECHA will come to rational priorization.

Given these meagre prospects it is our duty to ask if REACH has any chance to become conform to the Principle of Proportionality. When starting the REACH process the EU Commission tried to demonstrate that the benefits of the new chemicals regulation overweigh largely its costs. One of the most quoted cost-benefit-analysis is an impact study done by the London based consultancy RPA Risk and Policy Analysts Ltd. In this study registration costs according to REACH were estimated to reach from 1,7 to 7 bn € till 2018. The expected benefits were estimated at 54 bn € in the next 30 years – due principally to a regression of occupational cancer. Yet Angela Logomasini from CEI (Washington) and German statistician Walter Krämer als well as Michael Nasterlack and Andreas Zober, two industry toxicologists from BASF, have shown in Chemistry World, January 2005 that some 80 percent of all occupational cancer cases in the EU are related to the asbestos legacy and that at most 360 out of 32.331 occupational cancer cases per annum can be imputed to the contact with chemicals. It appears now that chemicals industry represented in the EU by CEFIC had many reasons for its strong opposition against REACH.

Unfortunately pressed by big players on the market for end consumer products like for instance Unilever or Procter & Gamble CEFIC finally gave up its resistance against the new legislation. In 2006 CEFIC declared: “REACH is an opportunity for the chemicals industry to regain public confidence.” Behind this assertion I see the will of established big players to defend their monopoly against newcomers on the market, especially from poorer regions of the world by controlling the whole innovation process along a politically correct corridor. With REACH it is very difficult for players from outside the EU to comply with EU regulations for they are not allowed to pre-register or register substances directly but only with the help of what is called an Only Representative (OR) in the EU. Unfortunately ECHA’s guidance documents on REACH say very little about the legal status and the liability of the OR towards its clients, towards other players in the supply chain, towards possible victims of decision errors, and towards the ECHA (cf. Nicolas Gardères: “The Legal Risks of REACH”, in: Kemia-Kemi Vol.35, 2008, 5). It will be nearly impossible to import preparations or formulations of mixed and partly unknown substances ready to use from outside the EU without risking law suits. These are depending on the national tort and contract laws of each EU member state. Till now there is no tendency to harmonise the national legal conditions that depend on different juridical traditions.

This is worth also for data sharing between competitors in Substance Information Exchange Fora (SIEF) and consortia that are even mandatory in the case of data generation involving tests on vertebrate animals. In order to cooperate companies will have to disclose sensitive data that may let their competitors discover critical trade secrets. Which form of agreement between companies is prohibited depends on national legislation. In short: REACH is primarily an job creation program for lawyers. The new chemicals regulation is probably no more than a costly piece of theatre destined to produce the impression that politics is doing something to calm fearful consumers.

Conclusions

REACH contradicts nearly all we know about intelligent collective decision making and successful innovation (Cf. James Surowiecki: “The Wisdom of Crowds. Why the Many are Smarter than the Few”, Random House, 2004). There is no real alternative to trial and error. Market remains the main information source for decision makers. Bureaucracy needs to support it. The market’s role in experimentation and bureaucracy’s role in maintaining stability should be viewed as complementary. Bureaucracy needs to serve the market economy by assessing and crystallising the results of trial and error learning in order to avoid repeating such mistakes in the future.

In contrast to the position of the Green lobby appears to be that political application of the Precautionary Principle and the aims of sustainable development are core drivers for innovations. But how do they know which materials are inherently safe and which have a lasting impact on the environment … when even water can be deadly under certain circumstances? Do the Greens and their political friends consider themselves better able to judge what will prove itself on the open market than market participants themselves? The Greens seem perfectly happy with the authoritarian undercurrents inherent in their position.

Unfortunately, some people cling to the erroneous belief that the expansion of knowledge implies that there is an end – a point where society has attained ‘ultimate knowledge’. This is not the case. The accumulation of knowledge can even lead to total confusion. However important science may be as a reconnaissance and early warning system for society, the most important source of information in a market economy is not science but the market itself. This information is not transferred without cost, but rather set against the cost of the risks undertaken or refused. I think that Angela Logomasini is right when concluding her analysis quoted earlier: “Rather than following a stagnating precautionary principle, regulators should follow a risk-risk principle, assessing even the risk of regulation. They should also recognize that regulation is the last resort because well-being is best promoted by maximizing freedom, which results in human progress.”

In spite of all this, the REACH approach is spreading around the world like a virus. South Korea has already adopted a chemicals law which is a true copy of REACH. Japan is going to do the same. It is expected that under newly elected president Barack Obama even the US will follow the EU. Thus we are risking extending bureaucratic control of energy and substance use (via climate and chemicals policy) all over the world.

(Extended version of a speech presented, on 25 November 2008, at the LVMI’s conference on „Better Regulation“ in Brussels.)

Ressourcenschutz von unten

Der Wirtschaftsnobelpreis ging im Jahr 2008 an Elinor Ostrom und Oliver Williamson. Ostrom, die als erste Frau überhaupt die begehrte Auszeichnung erhielt, hat gezeigt, dass die nachhaltige Nutzung knapper Ressourcen nicht zentraler staatlicher Vorgaben und Kontrollen bedarf. Die Selbstorganisation der Ressourcen-Nutzer vor Ort erweist sich als viel effizienter. Eine Ohrfeige für die CO2-Rationierung durch die UN?

Ressourcenschutz von unten (Teil II)

Warum Almweiden nichts mit dem „Klimaschutz“ zu tun haben, die FAS aber Planwirtschaft gut findet

Von Edgar L. Gärtner

Es gibt Wirtschaftsjournalisten, die meine hier vorgetragene Schlussfolgerung, die diesjährige Verleihung des Wirtschaftsnobelpreises an Elinor Ostrom könne als Ohrfeige für die „Klimapolitik“ interpretiert werden, ganz und gar nicht teilen. Es geht dabei nicht nur um ein paar positive Bemerkungen der Preisträgerin über die „Klimapolitik“, es geht um Grundsätzliches. So schreiben Alexander Armbruster und Christian Siedenbiedel in der „Frankfurter Allgemeinen Sonntagszeitung“ (FAS) vom 18. Oktober 2009: „Was haben Bauern, die sich eine Alpen-Alm teilen, und Staaten, die den Klimawandel bremsen müssen, gemeinsam? Sie stehen im Grunde vor demselben Problem. Denn so, wie nicht jeder Bauer so viele Kühe, so lange er will, auf die Wiese drängeln darf, kann auch nicht jeder Kohlendioxid-Emittent ohne Ende Treibhausgas in den Himmel blasen.“

Dieser Satz enthält gleich mehrere ungeprüfte Behauptungen. Wieso müssen sich Staaten dem Klimawandel entgegenstellen? Und warum sollen sie sich dann ausgerechnet darauf konzentrieren, den Ausstoß des Atemgases Kohlendioxid zu verringern? Wäre es nicht besser, sich von vornherein mit der Frage zu beschäftigen, wie sich die Menschen am besten an Veränderungen ihrer Lebensbedingungen, die unabhängig von ihren Wünschen und Handlungen ohnehin stattfinden, anpassen können? „Die Wissenschaft geht momentan davon aus, dass bis zum Jahre 2050 noch rund 750 Gigatonnen Kohlendioxid (in der Atmosphäre) abgelagert werden können, wenn es nicht mehr als zwei Grad wärmer werden soll“, berichten die beiden Wirtschaftsredakteure. Auf welches wissenschaftliche Experiment stützt sich diese Aussage? Und auf welche historischen und prähistorischen Forschungen stützt sich die im FAS-Artikel zitierte Auffassung des Evolutionsbiologen Jared Diamond, die vollständige Entwaldung der Osterinsel sei ein Beispiel für die „Tragik der Allmende“? Man wird auf keine dieser Fragen eine Antwort erhalten.

Die Legenden, die Jared Diamonds in seinem Bestseller „Collapse“ weiterstrickte, wurden übrigens von Julian Morris, Wolfgang Kasper und Benny Peiser schon vor Jahren Punkt für Punkt widerlegt. Die Auslöschung der Osterinsel-Kultur ging, wie es scheint, mehr auf Invasionen von Sklavenhändlern denn auf selbstmörderische Ressourcenübernutzung zurück. Vermutlich wird man in der ganzen Weltgeschichte kaum ein Beispiel dafür finden, dass Menschen, obwohl zum vorausschauenden Denken und hinweisenden Kommunizieren befähigt, sehenden Auges den Ast absägten, auf dem sie saßen. Es bedurfte in der Regel äußeren Zwanges durch Naturkatastrophen oder fremde Eroberer oder aber innerer Repression durch religiös beziehungsweise pseudoreligiös begründete Diktaturen, um ganze Gesellschaften in den Selbstmord zu treiben. Das scheint beim Untergang der Maya-Kultur in Mittelamerika der Fall gewesen zu sein.

Wer den „Klimaschutz“ in Zusammenhang bringt mit der Abwendung eines „Kollapses“ durch Ressourcen-Rationierung, hat in Wirklichkeit weniger ein Problem mit dem Klima, sondern mit der menschlichen Freiheit. Angstkampagnen haben immer dazu gedient, Einschränkungen, wenn nicht schlicht die Abschaffung der Freiheit zu rechtfertigen. Derzeit gibt es für eine Begründung der globalen Rationierung des CO2-Ausstoßes nicht einmal den Schein eines wissenschaftlichen Arguments. Zwar wissen wir, dass die Erhaltung der Lebensbedingungen auf dem Planeten Erde von einem empfindlichen Gleichgewicht der Luftzusammensetzung abhängt. Das gilt aber nur für den Sauerstoff. Stiege dessen Konzentration in der Atmosphäre um nur ein, zwei Prozentpunkte, ginge die Erde spontan in Flammen auf. Wegen dieser und anderer Sauerstoff verbrauchender Prozesse ist die Sauerstoffkonzentration über Jahrmillionen annähernd konstant geblieben. Sie könnte allerdings durchaus von etwa 21 auf 16 Prozent sinken, ohne dass uns der Atem ausginge. Demgegenüber war die Konzentration des als Kohlenstoffquelle für die pflanzliche Fotosynthese unabdingbaren Spurengases CO2 in der Erdgeschichte großen Schwankungen unterworfen, die ganz unterschiedliche Ursachen haben können. Würde man den CO2-Gehalt der Atmosphäre, der heute bei gerade einmal 385 ppm (parts per million) liegt, verzehnfachen, würde mit Sicherheit kaum etwas passieren – außer dass ein Teil der Pflanzen ihre Fotosyntheseleistung deutlich steigern könnte, was zur Verbesserung der Welternährung führen würde. Die Menschen würden den höheren CO2-Gehalt jedenfalls nicht negativ wahrnehmen. Die von der Arbeitsmedizin festgelegte zulässige maximale Arbeitsplatzkonzentration (MAK) von CO2 liegt bei 5.000 ppm, früher sogar bei 10.000 ppm. (Diese Werte sollte man im Hinterkopf behalten. Sollte an der gängigen Vorstellung über die Rolle des CO2 bei der Klimaentwicklung etwas dran sein, müsste der CO2-Ausstoß in den kommenden Jahren kräftig erhöht werden, um eine Kleine Eiszeit zu verhindern.)

Das Beharren von Berufspolitikern und Spitzenbürokraten auf strengen CO2-Obergrenzen kann deshalb nur den Zweck haben, von folgender Binsenweisheit abzulenken: Klimawandel hat es immer gegeben. Perioden der Abkühlung stellten die Menschen vor viel größere Probleme als Warmphasen. Setzte man statt auf die (unnötige) Bekämpfung der vermeintlich CO2-gesteuerten globalen Erwärmung auf die flexible Anpassung der Menschen an den ohnehin ständig ablaufenden Klimawandel, dann würde offenkundig, dass zentralistische Vorgaben nicht weiter helfen. Vielmehr käme es darauf an, die Menschen vor Ort selbst frei entscheiden zu lassen, in welcher Form sie dem Klimawandel individuell und/oder gemeinschaftlich begegnen wollen. (20. Oktober 2009)

Internet:

Teil I: Eine Ohrfeige für den „Klimaschutz“

Alexander Armbruster/Christian Siedenbiedel: Auf der Alm, da gibt’s nur selten Streit

Jared Diamond: „Collapse. How Societies Choose to Fail or Survive”

Kollaps. Warum Gesellschaften überleben oder untergehen

Julian Morris: How Jared Diamond fails to convince

Wolfgang Kasper: Human Progress and Collapse

Benny J. Peiser: From Genocide to Ecocide

Interview mit Elinor Ostrom zur Kopenhagen Konferenz

Was würde Ostrom sagen, wenn sie davon ausginge, dass an der CO2-Treibhaus-Hypothese nichts dran ist?

Teil I:

Wirtschaftsnobelpreis 2009 an Elinor Ostrom und Oliver Williamson

von Edgar L. Gärtner

Eine Ohrfeige für den „Klimaschutz“?

Ob die Schwedische Akademie auch bei der Auswahl der diesjährigen Träger des Alfred-Nobel-Gedächtnispreises für Ökonomie politische Hintergedanken verfolgte, steht nicht fest. Es scheint eher, als sei dem Nobel-Komitee die Tragweite seiner Entscheidung nur halb bewusst gewesen. Denn insbesondere die Arbeiten der inzwischen 76-jährigen Politikwissenschaftlerin Elinor Ostrom, die die begehrte Auszeichnung als erste Frau überhaupt erhielt, lassen die offiziell als alternativlos dargestellte „Klimapolitik“ nach dem Muster des Kioto-Protokolls in einem ungünstigen Licht erscheinen. Sie hat die Frage, wie gemeinschaftlich genutzte knappe Ressourcen vor der Erschöpfung bewahrt werden können, durch empirische Beobachtung von Fischern und anderen Nutzergruppen ganz anders beantwortet als die UN und ihre Bürokratien.

Seit den Anfängen der Umweltpolitik in den USA ist die von Ostrom untersuchte Problematik unter dem Schlagwort „Tragik der Allmende“(Tragedy of the Commons) bekannt. Sie gilt noch heute als wichtigster Ausgangspunkt umweltökonomischer Überlegungen. Das Schlagwort wurde in einem Aufsatz geprägt, den der amerikanische Mikrobiologe Garret Hardin 1968 in „Science“ veröffentlichte. Hardin behauptete darin, auf eine entsprechende Theorie des reaktionären englischen Landgeistlichen Thomas Robert Malthus (1766-1834) verweisend, die Weltbevölkerung lasse sich mit Bakterien vergleichen, die sich in einer Kulturflüssigkeit so lange exponentiell vermehren, bis ihre Population infolge von Nährstoffmangel zusammenbricht. Die größte Gefahr für die Umwelt geht, so gesehen, von der menschlichen Freiheit aus. Denn freie Menschen, so die Vorstellung Hardins, werden in egoistischer Manier versuchen, ein möglichst großes Stück des Kuchens zu ergattern. Almbauern werden danach trachten, auf der Gemeindeweide (Allmende) den Viehbestand zu maximieren, bis kein Gras mehr wächst. Fischer werden versuchen, ihre Fangflotte und ihre Netze zu vergrößern beziehungsweise deren Maschen zu verkleinern, bis die Fischgründe leer gefischt sind.

Hardin beschreibt die Problematik in folgenden Worten: „Als rational denkendes Wesen strebt jeder Viehhalter danach, seinen Gewinn zu erhöhen, … mehr oder weniger bewusst stellt er sich die Frage: Was nützt es mir, wenn ich meiner Herde ein weiteres Stück Vieh hinzufüge. Diese Nutzung hat eine positive und eine negative Komponente.

1. Die positive Komponente besteht in der Funktion der Hinzufügung eines Stückes Vieh. Da der Viehhalter den ganzen Erlös vom Verkauf eines zusätzlichen Tieres erhält, beträgt der positive Nutzwert fast plus 1.

2. Die negative Komponente besteht in der Funktion der zusätzlichen Abgrasung durch ein weiteres Stück Vieh. Da nun die Auswirkungen des Abgrasens alle Viehhalter betreffen, beträgt der negative Nutzwert für den einzelnen Viehhalter nur einen Bruchteil von minus 1.

Wenn er die anteiligen Nutzwerte addiert, wird der rational denkende Viehhalter zu dem Schluss kommen, es sei für ihn das einzige Vernünftige, seiner Herde ein weiteres Tier hinzuzufügen und noch eins und so weiter. Aber zu diesem Schluss wird jeder rational denkende Viehhalter bei freier Nutzung der Allmende kommen, und darin liegt die Tragödie.“

Von diesen Überlegungen ausgehend, scheint die Lösung auf der Hand zu liegen: Der Geist Adam Smiths muss aus der Wirtschaft verbannt werden. Der Staat muss eingreifen und die knappen Ressourcen rationieren, zum Beispiel durch die Zuteilung oder Versteigerung einer streng begrenzten Zahl handelbarer Nutzungsrechte. Diese Hauruck-Methode liegt dem Kioto-Abkommen über die Reduktion von „Treibhausgasen“ und dem darauf aufbauenden Handel mit CO2-Emissionsrechten zugrunde.

Elinor Ostrom zeigte demgegenüber in ihrem bekanntesten Werk „Governing the Commons“, dass Almbauern, Fischer oder Wassernutzer durchaus in der Lage sind, die Verwertung ihrer Ressourcen ohne staatliche Auflagen und Eingriffe selbst zu regulieren – und zwar viel effizienter als der Staat das könnte. Weit davon entfernt, sich so stur egoistisch zu verhalten wie Hardins Modell-Strichmännchen, reden Menschen aus Fleisch und Blut, also auch Viehzüchter, Ackerbauern und Fischer nämlich miteinander, handeln gemeinsame Nutzungsregeln aus und überwachen deren Einhaltung selbst, wenn sie ein Problem auf sich zukommen sehen. Gesunder Menschenverstand ist unter einfachen Menschen offenbar viel weiter verbreitet, als es sich viele Wirtschaftstheoretiker vorstellen können. Dafür gibt es eine Fülle historischer Beispiele. Probleme der Übernutzung von Ressourcen traten meist nur in der Folge von Naturkatastrophen, Kriegen oder Revolutionen auf. Althistorikern ist zum Beispiel bekannt, dass die Versalzung von Ackerböden im Zweistromland keine unausweichliche Konsequenz Jahrtausende währender intensiver Bewässerungslandwirtschaft war, sondern die Folge von Kriegen und gesellschaftlichen Umbrüchen. In diesen Zeiten wurde die Unterhaltung der Kanäle vernachlässigt, so dass das labile Gleichgewicht zwischen Wasserzu- und –abfluss gestört wurde. Ähnlich kam es in Europa in der Regel nicht deshalb zu wiederholten Hungersnöten, weil die Menschen zu viele Kinder in die Welt setzten und zu viel aus ihren Böden herauszuholen versuchten, sondern weil die Ertragskraft der Äcker infolge der „Kleinen Eiszeit“ deutlich abnahm oder weil Konflikte wie der 30-jährige Krieg eine ordentliche Bestellung der Äcker nicht mehr zuließen.

Im Kioto-Prozess versuchen Berufspolitiker und Bürokraten diese historischen Erfahrungen in den Wind zu schlagen, indem sie von vornherein ausschließen, dass die arbeitenden Menschen Probleme ein Stück weit auf sich zukommen lassen und selbst überlegen können, wie sie Ihnen als Einzelne und als Angehörige von Kollektiven begegnen wollen. Die Menschen sollen dazu erzogen werden, ihren fünf Sinnen zu misstrauen, ihren Verstand abzuschalten und nur offiziellen Modellrechnungen Glauben zu schenken. Eine selbst ernannte Elite von Weltrettern rechnet den zu Untertanen degradierten Menschen gerade im Vorfeld der Kopenhagen-Konferenz über eine Fortschreibung und Verschärfung des Kioto-Protokolls vor, dass weltweit nur noch 750 Milliarden Tonnen CO2 in die Atmosphäre freigesetzt werden dürfen, wenn der Anstieg der bodennahen Durchschnittstemperatur auf zwei Grad Celsius begrenzt werden soll. Dieser Vorgabe sollen sich die Menschen fügen.

Um uneinsichtige Erdbürger gefügig zu machen, gilt der Handel mit rationierten Emissionsrechten als Mittel der Wahl. Gegenüber dem spontanen Aushandeln von Regeln der Ressourcennutzung vor Ort zeichnet sich der Handel mit „heißer Luft“ durch maximale Intransparenz aus. Er wird im Unterschied zu den bewährten Formen lokaler Selbstorganisation mit ziemlicher Sicherheit nicht die an ihn geknüpften offiziellen Erwartungen erfüllen, sondern vor allem eines bewirken: eine gigantische Umverteilung von Geldern von unten nach oben, d.h. in die Kassen eines internationalen Finanzkartells. Um dessen Interessen und nicht um das (ohnehin nicht definierbare) Weltklima geht es offenbar beim „Klimaschutz“. Elinor Ostroms starkes Plädoyer für die Anwendung des Subsidiaritätsprinzips beim Ressourcenschutz könnte durchaus helfen, diesen Schwindel auffliegen zu lassen.

Auch die Arbeiten Oliver Williamsons liegen, soweit ich das einschätzen kann, nicht gerade auf der Linie des derzeitigen Mainstreams rein theoretischer Modellspielereien, sondern beschäftigen sich mit konkreten Problemen der Corporate Governance. So zum Beispiel mit dem Problem der Transaktionskosten in Unternehmer-Netzwerken und der damit zusammenhängenden Frage nach der geeigneten Unternehmensgröße in Abhängigkeit vom jeweils gewählten Geschäftsmodell. Auch mit der oft überlebenswichtigen Entscheidung für oder wider den Aufbau eigener Entwicklungsabteilungen hat sich Williamson auf undogmatische Weise beschäftigt. Wie Ostrom geht auch er davon aus, dass der Markt beim Versuch, Probleme der Ressourcenknappheit zu lösen, nicht vergötzt werden darf. Beide begreifen den Markt vielmehr als eine Institution neben anderen, die sich im Laufe der Geschichte bewährt haben. Gerade damit rücken sie in die Nähe der österreichischen Schule der Politischen Ökonomie mit dem Wirtschaftsnobelpreisträger Friedrich August von Hayek und der Public Choice Theorie von Wirtschaftsnobelpreisträger James Buchanan. Denn die österreichische Schule hat sich, aufbauend auf der subjektiven Wertlehre, nie mit Modellmenschen wie dem berühmt-berüchtigten Konstrukt Homo oeconomicus beschäftigt, sondern mit den mehr oder weniger vernünftigen Entscheidungen von Individuen mit Leib und Seele. (veröffentlicht in: WirtschaftsBild 59. Jg. November 2009)

Internet:

Die Tragik der Allmende

Wofür Ostrom und Williamson geehrt wurden

Literatur:

Garret Hardin: The Tragedy of the Commons. In: Science. 162/1968. S. 1243-1248 (deutsch in: Michael Lohmann (Hrsg.): Gefährdete Zukunft. Hanser, München 1970, S. 30-48 und dtv Bd. 920, München 1973, S. 29-46)

Elinor Ostrom: Governing the Commons: The Evolution of Institutions for Collective Action. Cambridge University Press, Cambridge 1990, ISBN 0-521-40599-8, deutsch.: Die Verfassung der Allmende. Mohr, Tübingen 1999, ISBN 3-161-46916-X

=================================================================================

Ein Nobelpreis für nichts? von Edgar L. Gärtner

Vermutlich bekommt Barack Obama den Friedensnobelpreis nicht unbedacht

Nachdem bereits Polit-Gauner wie Yassir Arafat und Al Gore mit der begehrten Auszeichnung bedacht wurden, konnte man sich kaum noch vorstellen, dass es dem Osloer Nobel-Komitee noch gelingen würde, seine Fehlentscheidungen noch zu toppen. Doch mit der Wahl des 44. US-Präsidenten Barack Hussein Obama zum diesjährigen Träger des Friedensnobelpreises scheint das den Juroren gelungen. Denn um jetzt ausgezeichnet zu werden, muss Obama bereits am 1. Februar 2009, kaum 12 Tage im Amt, auf der Kandidatenliste für den Preis gestanden haben. Selbst Anhänger Obamas diesseits und jenseits des Atlantik gaben sich daher höchst verwundert über die Entscheidung des Osloer Komitees. Einige Freunde haben Obama nahegelegt, den Preis abzulehnen. Der Ausgezeichnete selbst konnte sich der Lächerlichkeit nur durch ein Lippenbekenntnis zur Demut entziehen.

Kaum jemand behauptet, Obama habe die Auszeichnung verdient. Über Versprechen und Ankündigungen sind seine Friedensinitiativen bisher in der Tat nicht hinausgelangt. Vielmehr wurde ein neuer, die vorsorgliche Kapitulation des Westens nicht ausschließender Ton in der US-Außenpolitik mit Vorschuss-Lorbeeren bedacht. Obamas Freunde fürchten (wohl nicht zu Unrecht), diese Lorbeeren könnten schon bald zur Hypothek der gerade erst begonnenen Amtszeit ihres Lieblings werden. „Mehr Bürde als Ehre“, überschreibt Obama-Fan Claus Christian Malzahn seinen Kommentar auf SPIEGEL-online.

Worum es dem Osloer Nobel-Komitee wohl in Wirklichkeit ging, offenbart ein Vergleich zwischen Obama und der Frau, die genau 30 Jahre vor ihm mit dem Friedensnobelpreis ausgezeichnet wurde: Mutter Teresa. In ihrer noch heute zu Tränen rührenden Dankesrede erklärte die inzwischen selig gesprochene, wenn auch nach wie vor umstrittene katholische Ordensschwester am 10. Dezember 1979 in Oslo: „Der größte Zerstörer des Friedens ist heute der Schrei des unschuldigen, ungeborenen Kindes. Wenn eine Mutter ihr eigenes Kind in ihrem eigenen Schoß ermorden kann, was für ein schlimmeres verbrechen gibt es dann noch, als wenn wir uns gegenseitig umbringen?“ Eine der ersten Amtshandlungen des 44. US-Präsidenten bestand demgegenüber darin, ein Gesetz außer Kraft zu setzen, das es der US-Regierung verbot, Entwicklungshilfeleistungen an Empfängnisverhütungs- und Abtreibungs-Kampagnen zu koppeln. So gesehen, erscheint die diesjährige Entscheidung des Nobel-Komitees als durchaus gewollte Korrektur der Wahl, die es vor drei Jahrzehnten traf. Obama bekommt den Nobelpreis also nicht für nichts, sondern für das Nichts, für praktizierten Nihilismus, der in den vergangenen Jahrzehnten unter Synonymen wie „Null-Emission“, „Nachhaltigkeit“ und „Klimaschutz“ die Weltarena erobert hat. (10. Oktober 2009)

Internet:

Obama schon nach 12 Tagen Amtszeit in der engeren Auswahl

Mehr Bürde als Ehre

Mutter Teresa bei der Entgegennahme des Friedensnobelpreises 1979

================================================================================

Der größte Mensch, der je gelebt hat, erntet Undank

Dankbarkeit scheint in der heutigen Welt, in der so vieles knapp wird, zu einer der seltensten Gemütsregungen zu werden. In meiner frühen Kindheit in der Nachkriegszeit war es noch keineswegs selbstverständlich, dass zu den Mahlzeiten immer genügend Essen auf dem Tisch stand. Deshalb empfand ich es, auch ohne den Katechismus gepaukt zu haben, als selbstverständlich, dass jedes Essen mit einem Dankesgebet begann. Heute gilt das tägliche Brot den Bürgern von Wohlfahrtsstaaten als „Commodity“, auf die sie einfach einen Anspruch haben. Man bittet nicht darum und dankt auch niemandem dafür. Erst recht verschwendet man keinen Gedanken an die menschlichen Leistungen und institutionellen Bedingungen, denen wir unsere Nahrungsmittelüberschüsse verdanken.

„Undank ist der Welten Lohn“, lautet ein oft zitierter Spruch. Auch Norman Borlaug, der als Vater der „Grünen Revolution“ 1970 mit dem Friedensnobelpreis geehrt wurde und am 12. September 2009 in Dallas/Texas im biblischen Alter von 95 Jahren an Krebs gestorben ist, kannte wahrscheinlich diesen Spruch beziehungsweise dessen amerikanische Entsprechung. So hat er sich wohl nicht sonderlich darüber geärgert, dass sein Name am Ende seines langen, erfüllten Lebens sowohl in seiner amerikanischen Heimat als auch in Europa beinahe in Vergessenheit geraten war. Die Auskünfte, die die Online-Enzyklopädie Wikipedia über ihn gibt, passen bequem auf eine Druckseite. Und doch galt dieser Mann, in den Worten des bekannten US-Comedian Penn Jilette, einmal als „der größte Mensch, der je gelebt hat.“ Nach Jesus Christus, sollte man wohl hinzufügen. Aber dieser war ja nicht nur Mensch, sondern Gottessohn. Das US-Magazin „Atlantik Monthly“ schätzte 1999, dass Borlaug durch die Züchtung widerstandsfähiger Hochleistungs-Getreidesorten nicht weniger als eine Milliarde Menschenleben gerettet hat.

Norman Ernest Borlaug wurde 1914 als Sohn eines kleinen Farmers in Iowa geboren. Nach dem Studium der Agrarwissenschaften arbeitete er zunächst im Forschungslabor der DuPont de Nemours Foundation und fand dann 1943 einen Job in einem kleinen Pflanzenzüchtungsinstitut der Rockefeller Foundation in Mexiko. Dank Borlaugs bahnbrechenden Erfolgen bei der Züchtung neuer Getreidesorten wuchs dieses Institut zum Internationalen Mais- und Weizen-Zentrum CIMMYT von Weltbedeutung heran. Borlaugs Erfolgsserie begann mit der Einkreuzung eines von einer japanischen Weizensorte stammenden Zwergwuchs-Gens in mexikanischen Weizen. Nach weiteren geduldigen Kreuzungsversuchen entstand eine robuste Hochleistungssorte, deren kurze, kräftige Halme besonders schwere Ähren tragen konnten. Seit 1962 wird dieser Weizen in Indien angebaut. Innerhalb eines einzigen Jahrzehnts stiegen die landwirtschaftlichen Erträge auf dem zuvor von chronischen Hungersnöten geplagten Subkontinent Dank des besseren Saatguts auf fast das Dreifache. Das Land wurde zum Weizenexporteur. Später erzielte Borlaug in China ähnliche Erfolge mit Reis.

Vor allem Dank dieser „Grünen Revolution“ stieg die Kalorienaufnahme je Kopf der Weltbevölkerung zwischen 1965 und 2005 von 2.065 auf 2.798. Trotz der in diesem Zeitraum abgelaufenen Bevölkerungsexplosion konnte die Welternährungsorganisation FAO den Hunger im Jahre 2006 für beinahe besiegt erklären. Seither hat sich die Situation aus ganz anderen Gründen leider wieder verschlechtert. Jedenfalls war Borlaugs Landsmann Paul Ehrlich, der die Welt 1968 in seinem Bestseller „Die Bevölkerungsbombe“ mit düsteren Prognosen in Angst und Schrecken versetzt hatte, von der Wirklichkeit gründlich widerlegt worden.

Doch beeinflussten Ehrlichs Weltuntergangs-Prognosen und nicht die 1970 mit dem Friedensnobelpreis gekrönte erfolgreiche Arbeit Borlaugs seit den 70er Jahren mehr und mehr die öffentliche Meinung. Borlaug hätte später nicht mehr die geringste Chance gehabt, mit einem Nobelpreis geehrt zu werden. Stattdessen musste er sich immer häufiger wegducken, um nichts von den Schmutzkübeln abzubekommen, die „grüne“ Misantropen über ihm ausgossen. Diese warfen ihm vor, die Bauern in die Anhängigkeit der Saatgut-, Pestizid- und Kunstdüngerkonzerne zu treiben und eine Klimakatastrophe heraufzubeschwören. In Indien versuchte die Oberkasten-Angehörige Vandana Shiva den armen Bauern die Anwendung von Hochleistungs-Saatgut auszureden, insbesondere solches, das mithilfe der Gentechnik erzeugt wurde.

Norman Borlaug hat sich im „Unruhestand“ in der Tat ganz selbstverständlich für die Grüne Gentechnik stark gemacht, weil er auch darin einen viel versprechenden Weg sah, die weiter wachsende Weltbevölkerung auf der vorhandenen Ackerfläche zu ernähren. Wäre es in der Nachkriegszeit nicht zu den zitierten Produktivitätssteigerungen gekommen, rechnete er vor, hätten längst die letzten Wälder der Erde in Äcker verwandelt werden müssen. Er befürwortete die Grüne Gentechnik gerade auch aus Gründen des Naturschutzes. Doch damit konnte er sich in seinen letzten Lebensjahren keine Sympathie erwerben.

Nahe liegender Schluss: Wer heute auf den Friedensnobelpreis aus ist, der sollte es tunlichst vermeiden, etwas für die Menschen Nützliches zu erfinden. Als nobelpreiswürdig gelten vielmehr Studien, die den Menschen Angst und Schuldkomplexe einjagen. Das zeigt die Ehrung Al Gores und des „Weltklimarates“ IPCC vor zwei Jahren. Als besonders aussichtsreich erscheinen heute Studien, die zeigen, dass es für das Weltklima besser ist, die Menschheit zu verkleinern als sich um die Ernährung der weiter wachsenden Menschenzahl zu kümmern. Studien, die aufzeigen, wie die Menschen mithilfe ihres Erfindergeistes sich an wärmere oder kühlere Zeiten anpassen können, haben eine schlechte Presse. Dank Norman Borlaug hatte Paul Ehrlich mit seiner Prognose zum Glück nicht recht. George Orwell dagegen leider doch.

Internet:

Norman Ernest Borlaug auf Wikipedia

Michael Miersch über den Mann, der Millionen Menschenleben rettete

Gregg Easterbrook about the Man who defused the ‚Population Bomb’

Paul Driessen: Adapting to climate change through technology

Contraception cheapest way to combat climate change

(4. Oktober 2009)

===========================================================================

Deutsche Waldwirtschaft auf dem Wege zur Nachhaltigkeit?

Etwa ein Vierteljahrhundert ist es nun her, da schienen die Tage des deutschen Waldes gezählt. Im Schwarzwald und in anderen deutschen, ostfranzösischen und schweizerischen Mittelgebirgen war Förstern und Spaziergängern eine Häufung vergilbter und kahler Nadelbäume ins Auge gesprungen. Da bekannte Ursachen der Austrocknung von Baumkronen wie etwa die Verbreitung des Borkenkäfers ausschieden, belegte die Bürokratie das Syndrom kurzerhand mit dem wenig phantasievollen Begriff „neuartige Waldschäden“. Umso mehr Phantasie entwickelte dagegen die seit der Gründung der Partei „Die Grünen“ im Jahre 1980 erstarkte Öko-Bewegung. „Erst stirbt der Wald, dann der Mensch“, sagt ein Sprichwort, von dem man nicht genau weiß, ob es schon älter ist oder eigens erfunden wurde, um auf das „Waldsterben“ als vermeintlich objektive Begründung der in Deutschland sich ausbreitenden Endzeitstimmung aufmerksam zu machen. Verschiedene Naturschutzverbände und Bürgerinitiativen hatten diesen Spruch im Herbst 1983 auf einer „Aktionskonferenz gegen das Waldsterben“ in Freudenstadt im Schwarzwald aufgegriffen und dafür gesorgt, dass die an die Wand gemalte Gefahr eines „ökologischen Holocaust“ zum dominierenden Thema des damals gerade laufenden Bundestagswahlkampfes wurde.

Schon 1981 hatte der Göttinger Bodenkundler Bernhard Ulrich prophezeit, in spätestens fünf Jahren würden ganze Wälder absterben. Der Hauptgrund dafür sei der „saure Regen“ infolge des massiven Ausstoßes von giftigem Schwefeldioxid (SO2) durch die hohen Schornsteine von Kohlekraftwerken. Das Schreckensbild kahler deutscher Mittelgebirge, bedeckt von eintönigen Grasflächen, in der kein Baum mehr Wurzeln fasst und kaum noch ein Vogel singt, schien in rasendem Tempo von der Wirklichkeit eingeholt zu werden. In den Kammlagen des Erzgebirges, an der Grenze zwischen den heute schon beinahe vergessenen sozialistischen Volksrepubliken DDR und CSSR, konnten die wenigen, die damals dorthin kamen, diese Zukunft bereits besichtigen. Doch das Absterben ganzer Baumbestände hatte dort greifbare Ursachen. Sozialistische Mangelwirtschaft hatte dazu geführt, dass große Kohlekraftwerke ihren Rauch völlig ungefiltert in Rübezahls Heimat bliesen.

Die im Westen beobachteten Symptome erwiesen sich als vorübergehend und hatten mit der großflächigen Waldzerstörung im Osten nichts zu tun. Das belegten in den folgenden Jahren vor allem schweizerische und französische Fortwissenschaftler, während ihre deutschen Kollegen mit der bürokratischen Zeremonie der jährlichen Waldschadenserhebung fortfuhren. Es gelang einer Initiative von privaten Waldbesitzern und Umweltverbänden, die vom Staat Schadensersatz für forstwirtschaftliche Ertragsausfälle durch das „Waldsterben“ gefordert hatte, nicht zu belegen, dass sich der Zuwachs der Holzvorräte in Deutschland verlangsamte. Wie auch: Die in größeren Abständen durchgeführten Bundeswaldinventuren zeigten, dass sich das Baumwachstum im Gegenteil beinahe explosionsartig beschleunigte. Die Förster mussten die ihren Planungen zugrunde liegenden Ertragstafeln deutlich nach oben korrigieren.

Die Bundeswaldinventur von 2004 förderte zutage, dass Deutschland heute mit fast 3,4 Milliarden Kubikmetern über die mit Abstand größten Holzvorräte in Europa verfügt. Es stellt damit selbst die „klassischen“ Waldländer Finnland und Schweden in den Schatten. Seit 1960 hat die Waldfläche in Deutschland im Schnitt in jedem Jahr um 10.000 Hektar zugenommen. Ob die Ende Februar 1983 eilig verabschiedete Großfeuerungsanlagen Verordnung bzw. der darin vorgeschriebene Bau riesiger Rachgasentschwefelungsanlagen dazu nennenswert beigetragen hat, blieb höchst umstritten. Jedenfalls wachsen bei uns heute in jedem Jahr auf jedem Hektar Wald mehr als 12, auf dem „grünen Drittel“ (d.h. etwa 31 Prozent) Deutschlands also insgesamt über 120 Millionen Kubikmeter Holz nach. Davon wird bislang nur etwas mehr als die Hälfte wirtschaftlich genutzt. Erheblich mehr, nämlich etwa 80 Millionen Kubikmeter, gilt aber als problemlos nutzbar.

Die deutsche Forstwirtschaft entspricht also formal durchaus dem Kriterium der Nachhaltigkeit, nicht mehr Holz zu schlagen als nachwächst und verfügt sogar noch über einen beträchtlichen Sicherheitsabstand. Dieser Abstand ist erst in jüngster Zeit durch die verstärkte Nutzung von Brennholz kleiner geworden. Hintergrund ist der starke Anstieg der Heizöl- und Gaspreise. Bei der Brennholzgewinnung auf eigene Faust kommt es nicht selten auch zu Freveltaten wie dem Fällen von kräftigen Randbäumen, die für den Windschutz von Baumbeständen wichtig sind. Alles in allem kann sich die deutsche Waldwirtschaft heute aber zu recht rühmen, das zu beherzigen, was der sächsische Oberberghauptmann Carl von Carlowitz, stark beeinflusst von der Romantik, schon im Jahre 1713 in seiner „Sylvicultura oeconomica“ forderte, nämlich „den Anbau des Holzes so anzustellen, dass es eine continuierliche, beständige, nachhaltige Nutzung gebe.“

Bis zur systematischen Umsetzung dieser Forderung ging aber noch mehr als ein Jahrhundert ins Land. Das ganze 18. Jahrhundert war gekennzeichnet durch einen sich zuspitzenden Holzmangel – eine Folge Jahrhunderte währender Übernutzung des Waldes als Brennholz-, Baumaterial- und Streulieferant sowie als Viehweide. Es war paradoxerweise die im 19. Jahrhundert mit der Erfindung der Dampfmaschine einsetzende industrielle Revolution, die den deutschen Wald vor dem weiteren Niedergang rettete. Dampfgetriebene Pumpen und Aufzüge machten den Kohlebergbau in großem Stil möglich. Durch den zunehmenden Einsatz von Kohle als Brennmaterial sank der Brennholzbedarf. Die aufkommenden Industrien benötigten statt des Knüppelholzes, das die heruntergekommenen Wälder vielerorts gerade noch lieferten, jede Menge gutes Stammholz. So brauchte man z.B. für den Bau der ersten Eisenbahnen ironischerweise doppelt so viel Holz wie Eisen.

Die Holzproduktion konnte nicht mehr dem Zufall überlassen bleiben, sondern musste so weit wie möglich auf eine rationale betriebswirtschaftliche Grundlage gestellt werden. Zu den noch heute zitierten Begründern der wissenschaftlichen Forstbetriebslehre zählen Heinrich Cotta, der in Tharandt bei Dresden lehrte, und der preußische Oberlandforstmeister Georg Ludwig Hartig, der in Berlin wirkte. Anders als von Carlowitz waren diese weniger von der Romantik als vielmehr von den liberalen Ideen des schottischen Moralphilosophen Adam Smith, dem Begründer der Nationalökonomie, beeinflusst. Um eine Nation auf den Weg zum Wohlstand zu führen, kommt es danach lediglich darauf an, dem Gewinnstreben und dem gesunden Menschenverstand der Einzelnen freien Lauf zu lassen. „Denn“, so Smith, „verfolgt er sein eigenes Interesse, so fördert er das der Gesellschaft weit wirksamer, als wenn er dieses wirklich zu fördern beabsichtigte.“

Smith hatte in seiner „Untersuchung über Wesen und Ursachen des Reichtums der Nationen“ (1776) hergeleitet, dass Arbeit, Kapital und Boden ebenbürtige Quellen für Lohn, Zins und Rente sind. Als Kapital der Forstwirtschaft erscheint danach der Holzvorrat lebender Bäume, als dessen Zinsen der jährliche Zuwachs. Folglich müsse die Forstwirtschaft danach trachten, von den Zinsen zu leben und ihr Kapital zu pflegen und zu mehren. Während Cotta in seiner „Bodenreinertragslehre“ den Nutzen forstwirtschaftlicher Investitionen allein aus der erforderlichen Umtriebszeit errechnete und somit der Kahlschlagswirtschaft mit schnell wachsenden Baumarten wie Pappeln, Fichten oder Kiefern Vorschub leistete, legte Hartig in seiner „Waldreinertragslehre“ mehr Gewicht auf die längerfristige Entwicklung des Überschusses der Einnahmen über die Ausgaben der Betriebe. Dadurch schlugen auch die deutlich höheren Verkaufspreise langsam wachsender Buchen und Eichen sowie die größere Widerstandsfähigkeit von Mischwäldern gegenüber Stürmen und Schädlingsbefall positiv zu Buche. So wurde Hartig zum eigentlichen Vater der auf Nachhaltigkeit bedachten Forstbetriebslehre.

Hartig riet den Förstern im Jahre 1795: „Jede weise Forstdirektion muss daher die Waldungen … ohne Zeitverlust taxieren lassen, und sie zwar so hoch als möglich, doch zu nutzen suchen, dass die Nachkommenschaft wenigstens ebenso viel Vorteil daraus ziehen kann, als sich die jetzt lebende Generation zueignet.“ An diesem Verständnis von Nachhaltigkeit knüpfte 1987 die UN-Kommission für Umwelt und Entwicklung (Brundtland-Kommission)an, wobei sie allerdings nicht klärte, wieweit das betriebswirtschaftliche Konzept überhaupt auf gesellschaftliche Entwicklungen außerhalb der Forstwirtschaft sinnvoll anwendbar ist. Als nachhaltig definierte die Kommission eine „Entwicklung, die den Bedürfnissen der heutigen Generation entspricht, ohne die Möglichkeiten künftiger Generationen zu gefährden, ihre eigenen Bedürfnisse zu befriedigen und ihren Lebensstil zu wählen.“ Im Jahre 1992 wurde diese Definition auf dem „Erd-Gipfel“ von Rio de Janeiro von allen vertretenen Staaten einstimmig als weltweit gültiges Leitbild angenommen. Im Jahre 2007 schließlich verabschiedete die UN-Vollversammlung in New York ein spezielles Waldabkommen, das die Erhaltung der Wälder durch die in Richtung von Schutzzonen und eine nachhaltige Bewirtschaftung fordert.

Um dieses Leitbild in der Waldwirtschaft umsetzen zu können, müssen vor allem die Eigentumsverhältnisse geklärt sein, was in vielen Gegenden der Welt bis heute leider nicht der Fall ist. Nicht zufällig befinden sich heute unsere schönsten Mischwälder mit den ältesten Bäumen und den größten Holzvorräten seit Jahrhunderten im Besitz adliger Familien, während die Pflege von Staatswäldern nicht selten kurzfristigen kriegs- oder devisenwirtschaftlichen Interessen geopfert wurde. Deshalb gelten inhabergeführte Familienbetriebe zu Recht als das Rückgrat einer am Leitbild der Nachhaltigkeit orientierten Forst- und Holzwirtschaft. In Deutschland erzielten im Jahre 2004 insgesamt 185.000 Betriebe der Forst- und Holzwirtschaft (einschließlich der Papierverarbeitung und des Druckereigewerbes) einen Jahresumsatz von über 180 Milliarden Euro und beschäftigten mehr als 1,3 Milliarden Menschen. Das sind nach EU-Kriterien mehr als in der Automobilindustrie!

In der EU gelten die sechs allgemeinen Kriterien für eine nachhaltige Waldwirtschaft, die die europäische Ministerkonferenz zum Schutz der Wälder im Jahre 1993 in Helsinki beschlossen hat. In Deutschland werden diese Kriterien durch die Waldgesetze des Bundes und der Länder sowie in Form freiwilliger Zertifizierungen umgesetzt. Dabei konkurrieren zurzeit zwei Systeme: das Programme for the Endorsement of Forest Certification Schemes (PEFC) und das etwas strengere System des Forest Stewardship Council (FSC). Rund 65 Prozent (über 7 Millionen Hektar) der deutschen Waldfläche wurden nach dem PEFC-System zertifiziert. Den konkurrierenden FSC-Kriterien entsprechen zurzeit weniger als 600.000 Hektar.

Das deutet an, dass auch in Deutschland durchaus noch einiges zu tun bleibt, um den Leitbild der Nachhaltigkeit noch näher zu kommen. Zum Beispiel ist der Anteil der Nadelwälder mit 59 Prozent noch immer deutlich größer, als es im Sinne der Steigerung der Widerstandsfähigkeit gegenüber Witterungsunbilden, Krankheiten und Schädlingsbefall wünschenswert erscheint. Der begonnene Umbau des deutschen Waldes in Richtung auf eine stabilere Baumartenzusammensetzung wird wohl noch Jahrzehnte in Anspruch nehmen. Dabei sind Rückschläge nicht ausgeschlossen. Erfahrene Förster wissen wie die Gärtner und die Bauern, dass sie sich nie zu früh freuen dürfen…

Edgar Gärtner (erschienen in: WirtschaftsBild 58.Jg. August 2008, UBG Rheinbach)

Ist REACh bereits am Ende?

Mitten in der schwersten Wirtschaftskrise der Nachkriegszeit müssen viele Unternehmen erhebliche Kosten für die Umsetzung von REACh aufwenden. Doch kaum ein Beteiligter hat den Eindruck, das bringe einen Nutzen. Nun warnt ein Toxikologe vor dem vorzeitigen Scheitern des ehrgeizigen Unterfangens wegen eines zu hohen Versuchstierbedarfs. Vielleicht ist das eine Chance für alternative Testverfahren.

Chemiepolitik: Steht REACh schon vor dem Aus?

Wie alle Toxikologen gehört auch der aus Konstanz am Bodensee stammende und nun an der John Hopkins Universität in Baltimore/Maryland lehrende Professor Thomas Hartung, ein Pionier der Suche nach tierversuchsfreien Methoden zur Prüfung der Chemikaliensicherheit, grundsätzlich zu den glühenden Befürworten der Verbesserung des Verbraucherschutzes durch die systematische toxikologische Prüfung aller „Altstoffe“ mithilfe der EU-Chemikalienverordnung REACh. Doch Ende August 2009 warnte Hartung zusammen mit der italienischen Chemikerin Constanza Rovida in einem Meinungsbeitrag unter dem Titel „Chemical regulators have overreached“ im britischen Wissenschaftsmagazin „Nature“ (Vol. 460/27 August 2009) eindringlich vor einer Fortsetzung des mit REACh eingeschlagenen Weges. Die beiden beziehen sich darin auf eine von ihnen durchgeführte detaillierte Abschätzung des Testbedarfs, die zur gleichen Zeit im Fachorgan „ALTEX“ (Jahrgang 26) erschien. Hartung, der als Erfinder eines tierfreien Pyrogentests und als Leiter des europäischen Zentrums für Alternativen zu Tierversuchen ECVAM in Ispra am Lago Maggiore bekannt geworden ist, hält der EU vor, den zweiten Schritt vor dem ersten getan zu haben, indem sie (implizit) eine Riesenzahl aufwändiger Stoffprüfungen vorschrieb, ohne über einigermaßen zuverlässige Hochdurchsatz-Prüfmethoden zu verfügen.

Die EU-Kommission war bei der Abschätzung der Kosten von REACh davon ausgegangen, dass bis Ende 2008 etwa 27.000 Firmen etwa 180.000 Vorregistrierungen für ungefähr 30.000 Stoffe bei der ECHA in Helsinki einreichen würden. Bekanntlich sandten stattdessen 65.000 Unternehmen insgesamt 2,75 Millionen Vorregistrierungen von fast 150.000 Subtanzen nach Helsinki. Nach einer ersten Bereinigung blieben in diesem Jahr immerhin 143.835 Substanzen auf der ECHA-Liste, davon 54.686 mit einem Produktionsvolumen von über 1.000 Jahrestonnen. Diese müssten schon bis Ende 2010 registriert sein, was kaum vorstellbar ist. Die Europäische Chemikalienagentur ECHA in Helsinki geht davon aus, dass die unerwartet hohe Zahl von Vorregistrierungen durch Fehler der Anmelder (siehe Kasten) zustande gekommen ist. Wie in der zur Verfügung stehenden kurzen Zeit die Spreu vom Weizen getrennt werden kann, ist aber noch immer nicht ersichtlich.

Nach den Schätzungen der ECHA müssten bis Ende 2010 statt über 50.000 „nur“ etwa 8.700 Substanzen (davon 3.500 bekannte „Großstoffe“, die höchsten Testanforderungen unterliegen, plus eine noch unbekannte Zahl von „Problemstoffen“, die verdächtigt werden, krebserregend, erbgutschädigend, reproduktionstoxisch oder besonders umweltbelastend zu sein) samt einer Liste vorgeschlagener Tierversuche registriert werden. Nur bei einem kleinen Teil der betroffenen „Großstoffe“ dürften die bereits vorhandenen Daten für die Registrierung ausreichen. In den meisten Fällen bleibt offen, wie die nötigen Tierversuchsdaten in der bleibenden kurzen Zeitspanne generiert werden können. Als Flaschenhals erweist sich die vorgeschriebene Untersuchung der Reproduktionstoxizität, die nach den bislang gültigen Vorschriften in Zwei-Generationen-Studien an Ratten getestet werden muss. Jeder Zwei-Generationen-Test kostet über 300.000 Euro und nimmt fast zwei Jahre in Anspruch. In den vergangenen 28 Jahren wurden in Europa jährlich nur etwa zwei bis drei Stoffe so aufwändig gestestet. Hartung und Rovida schätzen, nun müssten jedes Jahr einige Hundert solcher Tests durchgeführt werden. Dafür gebe es bei weitem nicht genügend Laborkapazitäten und erst recht nicht genug Toxikologen.

Nach Ansicht Hartungs und Rovidas geht die starke Unterschätzung des Testaufwandes durch die EU-Kommission vor allem darauf zurück, dass ihr Produktionsdaten der Jahre 1991 bis 1994 zugrunde liegen, das heißt aus einer Zeit, in der die EU lediglich 12 Mitgliedsstaaten zählte. Seither habe sich aber das Produktionsvolumen der chemischen Industrie im alten Europa mehr als verdoppelt und sei durch die Erweiterung der EU durch osteuropäische Länder mit bedeutenden Kapazitäten in der Grundstoffchemie zusätzlich gewachsen. Selbst wenn man wie die ECHA annehme, dass die Zahl der vorregistrierten Stoffe durch Mehrfachmeldungen oder die vorsorgliche Anmeldung des ganzen EINECS-Altstoffregisters (aus Angst, den Marktzugang zu verlieren) künstlich aufgebläht wurde, müsse man realistisch von einer mittleren Zahl von 68.000 Stoffen ausgehen, die unter REACh fallen – zumal der Geltungsbereich von REACh in der Rangelei kurz vor der Verabschiedung der Verordnung auch noch auf Zwischenprodukte ausgedehnt wurde. Auch unter sehr optimistischen Annahmen wie der Anwendung computerbasierter Testmethoden wie (Q)SAR und der Vermeidung von Testwiederholungen gelange man zu einem Bedarf von mindestens 54 Millionen Wirbeltieren und einem finanziellen Aufwand von 9,5 Milliarden Euro in den kommenden zehn Jahren. Das ist das Sechsfache der von der EU-Kommission offiziell geschätzten Kosten! Zum Vergleich: Bislang wurden in der EU jedes Jahr etwa 900.000 Versuchstiere für die Prüfung neuer Chemikalien „verbraucht“, was die Industrie etwa 600 Millionen Euro kostete.

Die ECHA hat, wie erwartet, sofort in Form einer umfangreichen Pressemitteilung auf den in „Nature“ veröffentlichten Warnruf reagiert. Sie geht darin von 34.000 von REACh betroffenen Stoffen aus und beharrt auf der offiziellen Schätzung von 9 Millionen Versuchstieren und Kosten in Höhe von 1,3 Milliarden Euro. Sie verweist dabei auf eine Auftragsarbeit des deutschen Bundesinstituts für Risikobewertung (BfR) aus dem Jahre 2004 (T. Höfer und andere). Darin war allerdings ein fünfmal höherer Versuchstierbedarf nicht ausgeschlossen worden.

Prof. Hartung wies die Kritik seitens der ECHA gegenüber der CR zurück, indem er betonte: „Es geht uns nicht primär um den Tierschutz oder um die hohen Kosten der Tierversuche, sondern um die Durchführbarkeit von REACh. Wir möchten darauf hinweisen, dass REACh in der jetzigen Form in eine Sackgasse führt, die nur durch einen anderen Ansatz vermieden werden kann.“ Werde nur jeder der von der ECHA geschätzten 3.500 „Großstoffe“ nach den OECD-Vorschriften TG 414 und 416 getestet, entstehe bereits ein Bedarf von 13 Millionen Versuchstieren, deren Kosten mit 1,4 Milliarden Euro veranschlagt werden könnten. Schon dadurch werde also der für das Gesamtprojekt offiziell geschätzte Kostenrahmen gesprengt. Der Aufwand für die Prüfung der unbekannten Zahl besorgniserregender Chemikalien niedrigerer Tonnage (CMR-Stoffe und besonders umweltbelastende Stoffe) ist dabei gar nicht berücksichtigt.

Da aber schon bei der Prüfung bekannter „Großstoffe“ mit Sicherheit viele falsch positive Befunde auftauchen werden und es kaum denkbar sei, allein deshalb bewährte Allerweltschemikalien aus dem Verkehr zu ziehen, sieht Hartung hier die Chance für einen Neuansatz in der Toxikologie. In einem Aufsatz in „Nature“ (Vol 460/9 July 2009) hat er skizziert, wie er sich die Toxikologie des 21. Jahrhunderts vorstellt. Dass die Aussagekraft von Tierversuchen zu wünschen übrig lässt, ist Fachleuten schon lange bekannt. Bei Zwei-Generationen-Tests muss mit über 60 Prozent falsch positiven Befunden gerechnet werden. Dennoch erwies es sich in den vergangenen vier Jahrzehnten als unmöglich, die Testverfahren auf der Basis der Verabreichung hoher Dosen der Prüfsubstanzen an Nagern (vor allem Ratten) zu verändern, sobald sie einmal in einem mühsamen internationalen Abstimmungsverfahren standardisiert waren, weil die Industrie darauf achten musste, ihre Produkte überall auf der Welt vermarkten zu können.

REACh biete nun die Chance, alternative Testverfahren weltweit durchzusetzen, zumal die US National Academy of Sciences und die US-Umweltagentur EPA, die ein ähnliches Regelwerk wie REACh anstreben, in einem 2007 erschienen Report eine Kombination verschiedener In-vitro-Tests anstelle klassischer Tierversuche empfehlen. In ihrem Tox Cast Programm verspricht sich die EPA viel von Tests an Zellkulturen, darunter insbesondere an menschlichen Stammzellen, von der Anwendung biotechnischer und bioinformatischer Auswertungsmethoden sowie von Genomik und Proteonomik. Diese ermöglichen die Entwicklung computerisierter Hochdurchsatz-Verfahren, mit deren Hilfe gezielt nach bekannten „Signaturen“ toxischer Effekte gesucht werden kann.

Thomas Hartung versteht seine Warnung nicht als Ruf nach einem REACh-Moratorium. Es gehe lediglich darum, REACh entsprechend den neuesten Erkenntnissen der Forschung nachzubessern. Nur einer von 17 verschiedenen Tier-Tests, der allerdings 90 Prozent des Versuchstierbedarfs verursacht, müsse ersetzt werden. Ohnehin stehe zurzeit in der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) die Entscheidung über die Zulassung des erweiterten Ein-Generationen-Tests anstelle des Zwei-Generationen-Tests der Reproduktionstoxizität (TG 416) an. Allein dadurch könne ein Fünftel der Versuchstiere eingespart werden. Hartung gibt sich hier optimistisch: „Die Gesetzgebung ist sperrangelweit offen für solche Änderungen. Meine Hoffnung: Problem erkannt – Problem gebannt.“

Edgar L. Gärtner (veröffentlicht am 9. Oktober 2009 in: Chemische Rundschau Nr. 10/2009, VS-Medien, CH-Solothurn)

KASTEN: Durcheinander in den SIEF

Kaum dass sie ihre Vorregistrierung nach einigen Geduldsproben über REACH-IT nach Helsinki übermittelt hatten, erhielten viele der zuständigen Mitarbeiter von Unternehmen eine Flut von e-Mails, in denen sich Consulting-Firmen unter allen möglichen Fantasie-Namen als SIEF Facilators (SFF) aufdrängten, aber nach einiger Zeit nichts mehr von sich hören ließen – offenbar, weil sie merkten, dass für sie dort nichts zu holen war. Daneben haben viele Firmen Vorregistrierungen eingereicht, obwohl sie gar nicht die Absicht haben, irgendetwas definitiv zu registrieren, weil sie allein schon durch die automatische Einladung zu SIEF an wichtige Informationen über potenzielle Kunden und Wettbewerber gelangen. Im Ergebnis hat sich in etlichen SIEF, an denen im Extremfall mehrere Tausend Firmen teilnehmen, ein heilloses Durcheinander ausgebreitet. Die meisten haben bis heute noch keinen „lead registrant“ benannt und sind weit von einer Regelung der Kostenteilung entfernt. Wie unter diesen Umständen die Zahl vorregistrierter Stoffe bereinigt werden kann, ist nicht absehbar. Immerhin finden sich unter den 143.835 vorregistrierten Substanzen über 22.000, die weder über die CAS-Nummer noch über die EC-Nummer identifizierbar sind. EG

KASTEN: REACh und der Mittelstand

Die Schwierigkeiten kleiner und mittlerer Unternehmen mit REACh beginnen schon mit der Sprache. Bekanntlich gab es die REACH-IT für die Vorregistrierung von Stoffen nur auf Englisch. Und nur die englischen Stoffbezeichnungen konnten auch angemeldet werden. Das war wohl eine der wichtigsten Fehlerquellen beim Start von REACh. Viele Mehrfachregistrierungen ein und desselben Stoffes sollen darauf zurückzuführen sein. Nun kranken die obligatorische Bildung von Substance Information Exchange Fora (SIEF) durch Firmen, die den gleichen Stoff registrieren wollen, sowie darauf aufbauende Anläufe zur Bildung von Registrierungs-Konsortien oft daran, dass viele Vertreter südeuropäischer Firmen kein verhandlungssicheres Englisch mitbringen. Die Annahme von Verträgen verzögert sich, weil teilnehmende Firmen mangels ausreichender Sprachkenntnisse nachträglich Übersetzungsbüros mit der Überprüfung ausgehandelter Texte beauftragen.

Anlass zu Zweifeln an der Durchführbarkeit von REACh geben aber auch andere ungelöste Probleme. Zurzeit haben etliche KMU an der Entscheidung des Europäischen Gerichtshofs (EuGH) unter Generalanwältin Juliane Kokott vom 7. Juli 2009 (EUR-Lex-62007J0558) zu kauen. Darin legt der Gerichtshof die sehr spät in die EG-Verordnung 1907/2006 aufgenommene Meldepflicht für Monomere in importierten Polymeren sehr restriktiv aus. Mittelständische Firmen des Chemiehandels aus Frankreich, England und Deutschland hatten in der Meldepflicht für Monomere, die zu mindestens 2 Masseprozent in Polymeren enthalten sind, die in Mengen über einer Jahrestonne importiert werden, eine Verletzung des Grundsatzes der Verhältnismäßigkeit gesehen, da es in der Praxis kaum möglich ist, die Einhaltung der Vorschrift mit vertretbarem Aufwand zu überprüfen. Nach der Abweisung der Klage durch den EuGH bleibt europäischen KMU, die sich gesetzeskonform verhalten wollen, nichts anderes übrig, als auf Importe von Polymeren zu verzichten. Es dürfte aber kaum möglich sein, illegale Importe und graue Märkte zu verhindern, weil die Zollämter dafür nicht gerüstet sind.

Obendrein obliegt die Umsetzung, das „enforcement“ von REACh, bekanntlich den Nationalstaaten. Selbst ECHA-Chef Geert Dancet weist darauf hin, derselbe Regelverstoß könne in einem EU-Mitgliedsstaat als schweres Vergehen geahndet werden, während er in einem anderen EU-Land als Kavaliersdelikt durchgeht. Dr. Alex Föller, der Hauptgeschäftsführer des Verbandes TEGEWA in Frankfurt am Main, fordert deshalb mehr Kompetenzen und Kapazitäten beim Zoll. Dass das bei Stoffen, die in kleineren Mengen gehandelt werden, nur sehr begrenzt hilft, ist ihm auf dem Hintergrund der Erfahrungen mit dem Drogenhandel wohl bewusst. Ungelöste Probleme sieht Föller auch in den Stoffverwendungsbeschreibungen. Den Herstellern ist es nach wie vor kaum möglich, sich einen einigermaßen realistischen Überblick über kleinvolumige Stoffverwendungen zu verschaffen. Denn auf diesem Feld stehen viele KMU ganz unterschiedlicher Branchen in einem heftigen Ideen-Wettbewerb und lassen sich folglich nicht gerne in die Karten schauen. Eine realistische Risikobewertung ist unter diesen Umständen schwierig. Überdies werden die technischen Anleitungen für die Anwendung der REACh-Bestimmungen (RIB) laufend geändert, so dass vor allem kleinen Stoffanwendern oft nicht klar ist, welche Bestimmungen für sie gelten. Manche Anwender ahnen wohl gar nicht, dass sie bei strenger Auslegung von REACh schon mit einem Bein im Gefängnis stehen. In der Praxis werden diese Probleme in Netzwerken mit kurzem Draht zur EU-Bürokratie durch pragmatische Festlegungen aus der Welt geschafft. Aber wehe dem, der nicht mitspielt! Von der Rechtssicherheit, die REACh der Wirtschaft bringen sollte, kann jedenfalls bislang nicht die Rede sein. EG

==============================================================================

REACH: Babylon lässt grüßen

Die Chemiepolitik der EU schafft nur Datenfriedhöfe von Edgar L. Gärtner

Die am 1. Dezember 2008 zu Ende gegangene erste Phase der Umsetzung der neuen EU-Chemikalienverordnung gilt als großer Erfolg. Doch weist die überraschend hohe Zahl von insgesamt 2,75 Millionen Vorregistrierungen von sage und schreibe 150.000 Stoffen (im Vergleich zu 30.000 Substanzen, mit denen gerechnet worden war) durch insgesamt 65.000 Unternehmen auf erhebliche Startprobleme bei der obligatorischen Bildung von Substance Informations Exchange Fora (SIEF) hin. Hinzu kommt Ärger mit der Registrierungs-Software REACH-IT.

Nach dem Abschluss der Vorregistrierung scheint höchste Eile geboten. Denn Stoffe mit einem Produktionsvolumen von über 1.000 Jahrestonnen müssen bereits bis Ende November 2010 ordnungsgemäß registriert sein. Dabei müssen Daten vorgelegt werden, die in manchen Fällen schon irgendwo, aber oft auf verschiedene Eigentümer verteilt vorhanden sind, in manchen Fällen aber erst mithilfe aufwändiger Tierversuche generiert werden müssen. Da bleibt nicht viel Zeit für das Zusammentrommeln und das Management der Substance Informations Exchange Fora (SIEF), die vom Gesetzgeber vorgeschrieben wurden, um die Zahl der Tierversuche und die Gesamtkosten von REACH erträglich zu halten. Bei manchen Stoffen sind, bei Eibeziehung des Chemiehandels, mehrere Tausend Firmen betroffen, die von den „SIEF Formation Facilators“ zusammengebracht und animiert werden müssen.

Doch wer sich zu Beginn dieses Jahres bei REACH-IT einloggen wollte, stieß auf der Homepage der ECHA) auf die folgende Meldung:

“The number of concurrent REACH-IT users is high and the system is exhibiting slow behaviour.

ECHA is monitoring the system performance and making improvements to its robustness.”

Wer es dennoch endlich geschafft hatte, sich einzuloggen, flog oft wieder raus, bevor er alle ihn betreffenden Meldungen studiert hatte. Wer sich darüber beschweren oder beim Help Desk der ECHA um Rat fragen wollte, landete in der Regel in einer Sackgasse. Stunden um Stunden vergingen mit neuen Versuchen, sich einzuloggen. Einige europäische Firmen versuchten mithilfe ihrer amerikanischen Töchter oder Niederlassungen, sich außerhalb der europäischen Geschäftszeiten Zugang zum Server der ECHA in Helsinki zu verschaffen. Am 19. Januar meldete sich schließlich ECHA-Exekutivdirektor Geert Dancet und kündigte an, in den kommenden Monaten würden verschiedene Schritte zur Verbesserung der REACH-IT unternommen.

Darüber entrüstete sich in einem Schreiben vom 21. Januar CEFIC-Generaldirektor Alain Perroy. Die von der deadline 30. November 2010 betroffenen Firmen könnten keineswegs noch Monate lang warten, sondern befänden sich bereits im Endspurt. Nur über die REACH-IT könnten sie erfahren, mit welchen Firmen sie Kontakt aufnehmen müssen, um ein SIEF zu bilden, dort dann die Identität (sameness) der registrierpflichtigen Stoffe zu prüfen, Stoffdaten auszutauschen, Wissenslücken auszumachen und Teststrategien und deren Finanzierung festzulegen, um fehlende Daten zu generieren.

Die überraschend große Zahl von Vorregistrierungen stellt an sich schon ein organisatorisches Problem dar. Es wird vermutet, dass viele Stoffanwender vorregistriert haben, obwohl sie gar nicht die Absicht haben, etwas zu registrieren. Vielmehr scheint es ihnen darum gegangen zu sein, über die automatische Einladung zur Teilnahme an SIEFs Informationen über potenzielle Kunden und Wettbewerber zu erhalten. Wegen der bei vielen Anwendern herrschenden Verunsicherung wurden auch viele Substanzen vorangemeldet, deren Jahresproduktion unterhalb der für REACH gültigen Mengenschwelle von einer Jahrestonne liegt. Außerdem finden sich auf der Liste etliche Endprodukte, die nicht unter die Stoffdefinition von REACH fallen. Die lange Liste der Vorregistrierungen muss deshalb aufwändig bereinigt werden. So gehen Monate ins Land, bevor die SIEF sich im Detail um die Datenlage der registrierpflichtigen Stoffe kümmern können, zumal es nach wie vor eine Menge rechtlicher Probleme zu klären gibt. Bis schließlich ein „lead registrant“ am Ende die Registrierung durchführt und deren Kosten auf die einzelnen SIEF-Mitglieder umlegt, können weitere Monate vergehen. Deshalb kommen immer mehr Zweifel auf, ob die Fristen für die Registrierung überhaupt eingehalten werden können. Manche Industrievertreter halten es (hinter vorgehaltener Hand) nicht für ausgeschlossen, dass die Umsetzung von REACH schon in der ersten Etappe stecken bleibt. Leben könnten sie damit ganz gut, denn die Vorregistrierung verschafft vielen von ihnen erst einmal eine Atempause.

Zu den ungelösten juristischen Problemen der SIEF zählt der Status der Only Representatives (OR) für die Registrierung von Stoffen, die in die EU importiert werden. Das gilt insbesondere für Stoffe, die in China und Indien produziert werden. Nach Ansicht von Nicolas Gardères, Anwalt in der Pariser Kanzlei Denton Wilde Sapte, ist es nach wie vor unklar, wie weit die OR bei eventuellen Schadensersatzansprüchen strafrechtlich zur Verantwortung gezogen werden können, zumal etliche EU-Mitgliedsstaaten, wie die ECHA im Dezember meldete, ihr Strafrecht noch immer nicht um die mit REACH verbundenen Verpflichtungen und Straftatbestände ergänzt haben.

Kommen schon die obligatorischen SIEF kaum ohne detaillierte anwaltliche Beratung aus, so ist der juristische Beratungsbedarf, wie Gardères unterstreicht, bei der Bildung freiwilliger Registrierungs-Konsortien noch erheblich größer. Nach dem geltenden Kartellrecht dürfen Konsortien unter keinen Umständen dazu dienen, ihren Mitgliedern einen wirtschaftlichen Vorteil gegenüber Wettbewerbern zu verschaffen oder bestimmte Marktteilnehmer zu diskriminieren. Das ist im Konfliktfall schwer zu beweisen.

Inzwischen hat die ECHA eine vorläufige Liste von sieben Stoffen veröffentlicht, die in einer öffentlichen Stakeholder-Anhörung aus der Ende Oktober 2008 veröffentlichten „Kandidatenliste“ besonders bedenklicher Substanzen ausgewählt wurden, um sie für den Anhang XIV der Liste zulassungspflichtiger Stoffe vorzuschlagen. Dabei handelt es sich um den synthetischen Duftstoff Moschus Xylen, um kurzkettige chlorierte Paraffine, um das Flammschutzmittel Hexabromcyclododecan (HBCDD) und seine Isomere, um 4,4’-Diaminodiphenylmethan (MDA) sowie um die als Kunststoff-Weichmacher verwendeten Phthalate DEHP, BBP und DBP. Dass sich das in Medizinprodukten wie Blutbeuteln oder Magensonden nur schwer ersetzbare DEHP auf der Liste befindet, wird nur auf dem Hintergrund der seit Jahren von Greenpeace und anderen Interessengruppen gegen den bewährten, aber toxikologisch nicht abschließend beurteilten Weichmacher geführten Kampagne verständlich. Über entsprechende Web-Formulare kann diese vorläufige Liste bis zum 14. April kommentiert werden.

Industriechemiker, die zurzeit buchstäblich Tag und Nacht mit der REACH-IT kämpfen, fürchten, dass ihre aufopferungsvolle Arbeit letztlich nicht mehr bewirkt als einen riesigen Datenfriedhof zu erzeugen, der die Illusion nährt, durch das bürokratische Monster REACH werde das tägliche Leben der EU-Bürger etwas sicherer.

Edgar Gärtner (erschienen in: CR-Chemische Rundschau Nr. 1-2/2009)

=============================================================

REACH – Wende in der Stoffbewertung oder teures Theater?

Die neue Europäische Umweltagentur (ECHA) in Helsinki hat am 1. Juni 2008 mit dem Beginn der Vorregistrierung von Stoffen nach einer einjährigen Vorbereitungszeit offiziell ihre operative Tätigkeit begonnen. Zwar erreicht die Zahl der fest eingestellten qualifizierten Mitarbeiter der Agentur mit etwas über 200 noch längst nicht das ursprünglich einmal ins Auge gefasste Niveau. Doch der Agenturchef Geert Dancet gibt sich zuversichtlich, dass die Mitarbeiterzahl bis 2010 auf 450 (davon zwei Drittel Wissenschaftler) ansteigen wird. Auf den ersten Blick erscheint der Start der Agentur durchaus gelungen. Über 9.000 Firmen haben sich beim REACH-IT-System der Online-Registrierung angemeldet. (Das ist allerdings nur etwa ein Viertel aller europäischen Chemiefirmen.) Bis Mitte September waren bereits 352.641 Vorregistrierungen eingegangen. Davon allein 141.185 aus Deutschland und 138.434 aus Großbritannien. An dritter Stelle folgen die Niederlande mit 17.356 Vorregistrierungen, danach Italien mit 13.989 und Frankreich mit 9.945. Ende September 2008 erreichte die Gesamtzahl der Vorregistrierungen nach Angaben Dancets schon 402.584. Allerdings wies ein Teil davon Formfehler auf (siehe Kasten) und zwei Firmen haben sogar das ganze EU-Verzeichnis EINECS von über 100.000 Altstoffen vorangemeldet.

Deshalb fleht Dancet alle betroffenen Firmen an, doch bitte nur Substanzen voranzumelden, die sie später auch tatsächlich registrieren wollen. Andernfalls werde die Arbeit der Substance Exchange Fora (SIEF), zu denen die Vorregistrierer nach der Einreichung ihres Dossiers automatisch geladen werden, unnötig erschwert, wenn nicht völlig sabotiert. „Die vorregistrierende Firma kann dann zum einen unmöglich an allen SIEFs teilnehmen, zu denen sie geladen wird. Zum andern fehlt den nachgeschalteten Anwendern die Möglichkeit, zu überprüfen, welche der von ihnen dringend benötigten Roh- und Hilfsstoffe vorregistriert wurden, und können die ECHA nicht auf Stoffe aufmerksam machen, die auf der Liste fehlen“, erklärt Dancet.

Anna-Liisa Sundquist, die Vorsitzende des Ausschusses der EU-Mitgliedsstaaten bei der ECHA, weist zudem mit Nachdruck darauf hin, dass Hersteller außerhalb der EU Stoffe nicht unmittelbar, sondern nur mithilfe eines Alleinvertreters (Only Representative) in der EU registrieren können. „Das hat sich zu unserer Überraschung in vielen Teilen der Welt noch nicht herumgesprochen“, gibt Sundquist zu. Gleichzeitig räumt sie ein, dass auch viele kleine und mittlere Unternehmen in der EU mit den komplizierten Bestimmungen von REACH schlicht überfordert sind. Nina Mähönen-Antink vom bekannten, auf die Kommunikation in der Lieferkette spezialisierten finnischen IT-Beratungsunternehmen REACHWAY Oy bestätigt, dass viele kleine und mittlere Unternehmen in der EU sich noch gar nicht ernsthaft mit REACH beschäftigt haben und keine Anstalten machen, ihre Stoffe zu registrieren, weil sie entweder davon ausgingen, das bürokratische Monstrum werde ohnehin nicht funktionieren oder eine Geschäftsaufgabe vor Ablauf der Registrierungsfrist in zehn Jahren ins Auge fassen. Anna-Liisa Sunquist räumt ein, es sei noch völlig unklar, wie verfahren werden könne, sollte es sich gegen Ende dieses Jahres herausstellen, dass wichtige Substanzen gar nicht auf der Liste der vorregistrierten Stoffe erscheinen.

Ohnehin, so Sundquist weiter, müsse man sich nicht nur auf das Fortbestehen großer rechtlicher Grauzonen, sondern auch auf die Entstehung eines grauen Marktes für nicht registrierte und/oder nicht zugelassene Substanzen einstellen. Denn die Überwachung der Einhaltung der REACH-Vorschriften obliege nationalen Behörden. Zwar versuche die ECHA das Monitoring durch die Erarbeitung von Leitlinien zu harmonisieren. Doch niemand könne garantieren, dass diese in allen EU-Mitgliedsstaaten gleich streng befolgt werden. Außerdem werde wohl auch eine Reihe als potenziell gefährlich erkannter Chemikalien mangels verfügbarer Alternativen mit offizieller Genehmigung im Gebrauch bleiben. Bislang haben die EU-Mitgliedsstaaten nur 16 Stoffe für die so genannte „Kandidatenliste“ bedenklicher Substanzen nach REACH Art. 57, Anhang XV vorgeschlagen. Der Ausschuss der Mitgliedsstaaten wird demnächst die inzwischen zu den einzelnen Stoffen eingegangenen Kommentare im Detail diskutieren und voraussichtlich Ende Oktober 2008 die erste offizielle „Kandidatenliste“ vorlegen. ECHA-Chef Geert Dancet schließt nicht aus, dass diese sogar weniger als 16 Stoffe enthalten wird. Und nur ein Teil davon werde wohl im Anhang XIV der genehmigungspflichtigen Stoffe landen. Die Anhänge XIV und XV sollen alle zwei Jahre aktualisiert werden. Umweltverbände fordern dagegen, bis zu 2.000 Stoffe vordringlich unter die Lupe zu nehmen und auf „schwarze Listen“ zu setzen.

Auch Geert Dancet gibt offen zu, dass sich die Umsetzung der REACH-Verordnung am Rande der Legalität bewegt. Denn REACH schafft keinen neuen Rechtsrahmen, die Verordnung darf dem Maastricht-Vertrag der EU wie den nationalen Bestimmungen des Zivil- und Strafrechts über Wettbewerb, geistiges Eigentum und die Gültigkeit von Verträgen nicht widersprechen. So bewegen sich die von den europäischen Gesetzgebern und der ECHA erwünschten Konsortien für die gemeinsame Nutzung von Stoffdaten von Wettbewerbern zur Vermeidung unnötiger Tierversuche hart am Rande des nach dem Kartellrecht noch Erlaubten. Schon in den SIEFs gibt es Probleme mit der Geheimhaltung vertraulicher Geschäftsinformationen und mit der gerechten Aufteilung der Kosten – zumal, wie zu hören ist, etliche der beteiligten Firmen versuchen, selbst alte Tierversuchsdaten zu Geld zu machen. Einige dieser Probleme lassen sich durch Einschaltung neutraler Berater lösen, wodurch allerdings zusätzliche Kosten entstehen.

Geert Dancet weist in diesem Zusammenhang auf Folgendes hin: „In einigen Fällen kann die freie Verwendung von Daten durch das Gesetz oder durch Entscheidungen der Regulierungsbehörden erlaubt sein, z.B. im Rahmen der so genannten 12-Jahres-Regelung. Nach den Bestimmungen von REACH kann jede Studie beziehungsweise robuste Zusammenfassung von Studien, die im Rahmen einer Registrierung vor mindestens 12 Jahren eingereicht wurde, für die Registrierung nach REACH von jedem anderen Hersteller oder Importeur verwendet werden. Der Nachweis des rechtmäßigen Besitzes ist nicht notwendig für Daten, die vor mindestens 12 Jahren registriert wurden. Das gilt unter gewissen Umständen auch bei Anfragen oder wenn Parteien, wie im Leitfaden über das Data-Sharing beschrieben, sich in einem SIEF nicht über die gemeinsame Nutzung von Daten einigen. Unter gewissen Umständen kann die ECHA die Erlaubnis zur Verwendung von Daten erteilen.“

Dancet hält aber die besonders in der mittelständischen Wirtschaft verbreitete Angst vor dem Verlust geistigen Eigentums für unbegründet: „Wir versichern, dass REACH keine negativen Auswirkungen auf das Urheberrecht haben wird. REACH verlangt in der Tat, dass die Registrierer in der Regel im legitimen Besitz von Summaries auf der Grundlage vollständiger Studien oder eines legitimen Zugangs zu Robust Study Summaries sind, der in den Registrierungsunterlagen belegt werden muss. Das gilt auch für Robust Study Summaries aus dem Internet (z.B. aus dem OECD/ICCA HPV Programms oder dem US HPV Chemical Challenge Program). Darüber hinaus sollte man beim Herunterladen öffentlich zugänglicher Studien sorgfältig prüfen, ob deren Verwendung Urheberrechte verletzt.“ Wird das die Adressaten beruhigen?

Ungeklärt sind auch der rechtliche Status und die strafrechtliche Verantwortung der für die Anmeldung importierter Stoffe obligatorischen Alleinvertreter in der EU. „Hände weg vom Import fertiger Zubereitungen!“, rät deshalb Liisa Rapeli-Likitalo der europäischen Industrie. Da stehe man gleich mit einem Bein im Gefängnis. Die kleine, aber energische Frau ist zurzeit bei dem auf die Wasser- und Holzchemie spezialisierten finnischen Konzern Kemira Tag und Nacht damit beschäftigt, Stoffe ordnungsgemäß voranzumelden. Dabei machen ihr nicht nur Probleme mit der Registrierungs-Software IUCLID 5 und dem universellen Identifizierungscode UUID zu schaffen, sondern auch rechtliche Grauzonen. „REACH ist vor allem ein Arbeitsbeschaffungsprogramm für Anwälte und nichts für Menschen, die nicht gelernt haben, mit Ungewissheit zu leben“, resümiert sie ihre Erfahrungen.

ECHA-Chef Dancet gibt denn auch zu: „Uns bleibt noch viel zu tun, um zwischen unserer Behörde, der Industrie, den Gewerkschaften sowie den Umwelt- und Verbraucherverbänden eine transparente Vertrauensbasis aufzubauen und die ECHA zur wichtigsten Quelle für wissenschaftlich verlässliche Stoffinformationen zu machen.“ Nach der für Ende 2008/Anfang 2009 vorgesehenen Publikation der Liste vorregistrierter Stoffe wird die ECHA mit der Registrierung der großvolumigen Stoffe beschäftigt sein. Dancet erwartet, dass im Jahre 2010 nicht weniger als 20.000 Registrierungs-Dossiers bearbeitet werden müssen. Sollte es sich am Ende herausstellen, dass REACH, statt eine neue Ära der harmonisierten Stoffbewertung einzuleiten, vieles beim Alten lässt, wird das aber vermutlich weder in Brüssel noch in Helsinki jemand zugeben wollen. Die EU-Bürokratie wird sich wohl mit den Anspruchsgruppen darauf einigen, den Verbrauchern und Steuerzahlern ein Theater vorzuspielen. Darin fehlt es den EU-Behörden nicht an Übung.

Edgar Gärtner

===========================================================

Die fünf häufigsten Gründe für die Zurückweisung von Registrierungsdossiers durch die ECHA:

• Die im Einreichungsformblatt angegebene UUID (Identitätsnummer) stimmte nicht mit dem UUID des eingereichten IUCLID 5 Dossiers überein;

• Das Unternehmen hat sich nicht vorher bei REACH-IT angemeldet oder die Unternehmens-UUID falsch angegeben;

• Es wurde keine digitale Fassung des Einreichungsformblatts und/oder IUCLID 5 Dossier vorgelegt;

• Das eingereichte Dossier entsprach nicht dem XML Format;

• Das Bestätigungsfeld am Ende des Einreichungsformulars wurde nicht angeklickt.

===========================================================

(veröffentlicht in: Chemische Rundschau Nr. 10/2008, VS-Medien, CH-Solothurn)

Precaution or Arbitrariness?

The “precautionary principle” leaves open the question of whether preventive measures are also subject to cost-benefit criteria or not. Even non-monetary evaluations of the costs and benefits of actions to prevent hypothetical threats appear all too often more than doubtful, especially when they show that screening is only available at the cost of individual freedom. In real life people often have to decide between two evils. Which one is the lesser?

Prevention is not Always Better than The Cure

by Edgar L. Gärtner

Lessons about Precaution from the Swine Flu Vaccine Fiasco

The French government under the ever-energized President Nicolas Sarkozy became aware at the beginning of the year that it was threatened to sit on more than 90 million doses of Swine flu vaccine, hastily ordered last year to face an allegedly advancing pandemic. Only five out of currently more than 60 million French people got vaccinated to date against the exaggerated threat of a planetary swine flu pandemic. According to estimates by physicians, at the same time more than 20 million French people got immunized against the new flu variant free of charge, i.e. by responding to infection with barely perceptible slight flu symptoms. More than one billion euros seemed to be set in the sand. In the German federal states, the situation is similar but not quite as bad as in France. Since the ordered batches are in part not yet produced, France and Germany managed to cancel at least part of their orders. Especially in France the following questions remain unanswered: Why almost 100 million vaccines were ordered – three times more than what would have been necessay for a reasonable coverage of the population? Why did the government invest simultaneously on a vast storage of the controversial flu drug Tamiflu (one third of total world reserves!)? Why were expensive gas masks purchased, but only available for top officials and managers?

I’m not looking for responses like those given by libertarians and conspiracy theorists, whereby the virus itself H1N1 and his propagation is imputed to worldwide machinations of pharmaceutical companies GlaxoSmithKline (GSK), Sanofi-Pasteur and Novartis. I restrict myself rather to the official justification of action by the “precautionary principle”. This decision scheme was invented in Germany at the beginning of the 70s and became known worldwide after the 1992 “Earth Summit” in Rio de Janeiro under the following definition: “Where there are threats of serious or irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation.” (Principle 15 of the Rio Declaration). Subsequently, this principle was introduced into the Maastricht Treaty, the Lisbon Constitutional Treaty and the French Constitution. As Nicolas Sarkozy has himself set upon overrun the Germans with preventive rhetoric, he gave his officers orders to try hard to follow the principle consistently. But just by doing that they have created the problems they are now facing. Because unlimited provision is an absurd idea. Those who constantly concentrate on precaution, forget to live. The precautionary principle is useful only insofar as it is not consistently applied. Healing is much more important than prevention, even though the welfare state’s advertising is mindlessly repeating the opposite.

The above-quoted definition of the “precautionary principle”, namely, leaves open the question of whether preventive measures are also subject to cost-benefit criteria or not. Widespread is the view that cost considerations are not justified when it comes to human life. If this argument was valid, there would be neither life nor accident insurance. Underlining this I do not deny that the monetary evaluation of life issues must remain very restricted. But even non-monetary evaluations of the costs and benefits of measures to prevent hypothetical threats appear all too often more than doubtful, especially when they show that screening is only available at the cost of freedom. There are exceptions like private retirement plans or provisions for maintenance and repair costs, as well as precaution measures against harmful events, whose probability can be realistically estimated. But even in these cases it is often not enough to weigh between the advantages and disadvantages of economically justifiable protection measures. In real life instead, people often have to decide between two evils. Which one is the lesser?

Such decisions, if they are not spontaneously taken from the gut, can in general not be justified without any reference to religious belief. As long as Christianity was prevailing in Europe this was no problem. Later, Christian Humanism was successively replaced by Ecologism, a synthetic mix of knowledge and unfounded beliefs with a clear misanthropic, if not nihilist tendency. No wonder that allegedly preventive actions and investments, justified by the “precautionary principle” more and more turn out to be economically disastrous.

Internet:

Revisiting the Swine flu lies and hysteria

France’s Swine Flu Fiasco

Financial Time on France’s Vaccine Flop

The Rio Declaration on Environment and Development (15 January 2010)

==========================================================================================

Precaution or Arbitrariness?

Plasticizers in Political Crossfire

By Edgar Gärtner

This study has been made possible by the financial support of the AgPU – Working Group on PVC and the Environment, Bonn

The EU ban on plasticizers in toys

Despite the enormous health benefits brought by the use of DDT, which provided an extremely effective insecticide and was instrumental in the fight against malaria, a total ban was imposed on its use in 1972 on the basis of unsubstantiated health and environmental threats. International bans have since been introduced on other substances and, once in place, they are virtually impossible to reverse.

Similarly, unfounded suspicions and accusations led the EU to impose a total ban on the use in children’s toys of three plasticizers employed in the manufacture of PVC (DEHP, DBP and BBP). It also has prohibited the use of three additional plasticizers (DIDP, DNOP and DINP) in babies’ toys intended to be put in the mouth. This is not the EU’s first attempt to impose a substance ban motivated primarily by politics – as opposed to a decision made on sound scientific principles. Yet this case forms a precedent which would serve to create lasting, fundamental, and possibly irreversible flaws in EU policies on technology and the environment.

Only one of the substances, DINP, is currently in general use in children’s toys. This material has been subjected to a thorough risk assessment in the EU and again in the US, and has been found to be quite safe. Industry has spent over 130 million Euros in total to assess the health and environmental risks of plasticizers such as DEHP. A core reason for these tests was these plasticizers’ widespread use in medical equipment. All have now been in such longstanding use that if there had been any harmful side effects from their application these would have long since come to the fore. The EU now forces manufacturers of pacifiers, plastic ducks and baby equipment to switch to alternative plasticizers, which have not been investigated as thoroughly, have often not been tested for these applications and are often considerably more expensive.

Adipates are one possible substitute. Their possible impact on human health and the environment to appear to be slight, but so far they have not been subjected to such exhaustive examinations as have the six banned substances. Other alternatives, although extant for some time, have a high migration tendency, and are clearly much less suitable for these applications.

Citrate esters, touted by environmental groups as more environmentally and health-friendly, migrate from treated materials so quickly that these objects easily become brittle. Toys manufactured using citrate esters as plasticizers will therefore put children at risk of swallowing broken-off fragments. Are we therefore justified in substituting a (theoretical) health risk with the much more concrete risk of a child choking?

Greenpeace activists, on whose arguments the EU’s actions were based, don’t appear to be losing any sleep over such questions. In fact, they are demanding that toy manufacturers abandon the use of PVC altogether. According to them, soft PVCs in toys should be replaced with rubber. However, the effect of heat during the vulcanization process of rubber results in carcinogenic nitrosamines, and the substitution of organic for petroleum-based rubber will simply substitute a new, ‘natural’, set of carcinogens.

This raises the question of who decides which materials may be used: Greenpeace? The EU Commission? Science? Nature? And just who is ‘Nature’? Aren’t humans also part of nature, including the average consumer who weighs up product choices and then consciously chooses PVC? Wouldn’t it be better to choose the winner out of several competing market-based solutions?

As I see it, the debate over the advantages and risks of plasticizers boils down to one question: “Can safe and sustainable solutions be developed through the interaction between inventors and the needs and wishes of consumers?”

Mankind has been using plasticizers since the Stone Age, when plant oils were worked into stiff animal pelts to make soft leather. With the advent of different types of soft PVC in the twentieth century, researchers found that PVC performed better when combined with phthalates than with other materials on the market. Plasticizers are used to achieve desired qualities such as flexibility, flame retardation or low-temperature resistance.

In hindsight, it is clear that modern industry would not have been able to develop without both the development of synthetic plastics, and, secondly, inexpensive plasticizers that improve the processing ability and durability of natural materials. However, this development required a long and somewhat painful process of trial and error. And, had this been hampered by bureaucratic ‘precautionary measures’, it simply would not have taken place.

PVC began to lose its innocence in 1961 as experiments carried out on rats in the US showed clear indications of the highly carcinogenic potential of the vinyl chloride monomer (VCM), used to manufacture PVC. Even in low concentrations, VCM provoked a rare form of liver cancer. In the early 1970s, numerous workers exposed to VCM developed various conditions including liver cancer. Strict measures and exposure limits were immediately introduced. However, an undercurrent of fear took hold in the public’s mind that PVC products could leech out insidious poisons. And this same fear has most probably since attached itself to plasticizers as well.

In subsequent decades, this undercurrent grew. In the American biologist Barry Commoner’s book The Closing Circle – Nature, Man, and Technology (1971), PVC plasticizers play a similar villainous role to the (unfounded) accusations weighed against the insecticide DDT in Rachel Carson’s Silent Spring (1962). Pressure from environmentalists came to a head following the escape of the ‘super-poison’ dioxin into the environment at the chemical plant at Seveso, Northern Italy in July 1976.

The accusation of being carcinogenic has been levelled in general against plasticizers used in PVC, and particularly against DEHP. In the early 1980s, DEHP was classified as ‘potentially carcinogenic’ by the International Agency for Research on Cancer (IARC) on the basis of experiments on rodents which showed a tendency to develop liver tumours following exposure to high doses. It was later proven that humans and higher mammals are not at risk because they metabolize DEHP differently. The IARC has since reclassified DEHP as “not classifiable as to its carcinogenicity to humans.”

The German Parliament created a special Enquete Commission to investigate the influence of chemicals on humans and the environment. The Commission also covered chlorine and PVC. The findings from the first phase were published in 1994 (pages 362–364):

„…following years of intensive debate, PVC is today far and above the most researched materials in respect of its environmental impact. (…) the commission cannot recommend the substitution of other materials for PVC without sound economic or ecological reasons to support this. Any such substitution would carry the risk of creating new problems – and would possibly lead to a worsening of the overall situation vis-à-vis the present.“

How risk assessment became a political issue

In 1993, the EU issued the 793/93/EEC Directive analyzing the risks associated with around 100,000 ‘old’ chemicals – substances registered prior to September 1981 in line with the (then) EEC’s Dangerous Substances Directive (67/548/EEC). In 793/93/EEC, Article 15 now called for the testing of substances arousing particular suspicion. Later that year, they also published a priority list of 134 substances. This list included phthalates used as plasticizers for PVC. Four further PVC plasticizers appeared in the two subsequent priority lists. If decades of suspicion had not already fallen on these substances, then nobody would have been able to fathom just how phthalates found their way onto this list. It would suggest that their inclusion owed less to scientific scrutiny than it did to political pressures.

Given that environmental groups and political parties were already on the warpath; firms, industry associations and scientists targeted in this attack had no other choice but to play ball. They were confident, though, that the toxicological and ecological risk assessments would bear out their own conclusions. However, well before the risk assessment had been completed, the debate on these materials was forced by pressure from media campaigns and the protestations of environmental groups.

The health and environmental risks for Di-butyl-phthalate (DBP) were tested by the EU in 1994. DBP is only used in small quantities as a plasticizer in PVC. The toxicologists found that DBP posed no health risk to consumers, even when it was smeared directly on the skin. In test-tube experiments (though not in animal experimentation) DBP showed a weak oestrogen-producing effect (‘feminizing’) and was therefore characterized as “possibly affecting fertility” and given a Category Two (“harmful to fertility”) rating. In addition, DBP was found to cause potential harm to vegetation.

In 1995, the EU tested Di(2-ethylhexyl)phthalate (DEHP) which had previously been the standard plasticizer for PVC, which had appeared in the second list of high-risk chemicals (noted above). This risk assessment has only recently been completed and has proven a tug of war between the various stakeholders. During this assessment process, a group of doctors specializing in occupational and community medicine published new research findings which suggested a completely new assessment of the legacy of DEHP in the broader population. The German Federal Institute for Risk Assessment’s (BfR) and the CSTEE’s (European Commission Scientific Committee on Toxicity, Ecotoxicity and the Environment) conclusions from this study, needed to be revised on the back of studies conducted in Erlangen on volunteers, even before the CSTEE’s published its findings.

CSTEE’s final Risk Assessment Report does not exclude the possibility that DEHP absorption could have a potential impact on occupational health. Both adults and children could theoretically suffer health damage as a result of the use of DEHP in medical apparatus. Toddlers are put at risk through sucking toys containing DEHP. On these grounds, the report supports the EU’s pronounced ban on materials and calls for strict workplace protection measures. And on the back of experiments on rats, DEHP joined DBP in being designated as “impairing fertility” and was also given a Category Two rating, and has been totally banned from use in toys.

In 1995, it was the turn of Diisononyl phthalate (DINP) and Diisodecyl phthalate (DIDP) to be assessed. Both were increasingly important standard plasticizers for PVC also placed on the EU’s second priority list. However, the risk assessment of these materials was much less controversial than that of DEHP, and the political conclusions drawn from this study seem all the more baffling as a result. The EU toxicologists have not found the slightest exposure risk for these substances – not even in their use in babies’ toys. In the case of DIDP, they only found a theoretical risk for its universal use in children’s toys. This conclusion was confirmed in April 2006 by the EU Commission in the EU’s Official Journal. The EU has nevertheless imposed a ban on the use of both plasticizers in children’s toys.

In 1997, Butylbenzyl phthalate (BBP) was assessed. This plasticizer is used in tubes, cables, artificial leather and food packaging. On the results of animal experiments, it was given a Category Two “harmful to fertility” rating. The obligatory fish test used in assessing environmental risks had to be abandoned as BBP proved to biologically degrade much more rapidly in the environment than other phthalates discussed. That these plasticizers find their way into the food chain is a myth. The opposite is the case: the concentration of these phthalates declines as organisms higher in the food pyramid break these substances down in their digestive systems and excrete them.

In order to understand the dichotomy between the scientific risk assessments and their political evaluation we have to look back once again to the 1990s. In November 1997, well before the EU completed its risk assessments, Greenpeace published the following warning:

Greenpeace has carried out random tests on 23 toys manufactured by Mattel, Fisher Price, Tyco and Safety First. In 12 of these toys, the amount of plasticizers given off exceeds the recommended limit of 3mg per cm2 surface area as set by the Federal Institute for Consumer Health Protection and Veterinary Medicine (BgVV).

The Working Group on PVC and the Environment (AgPU), in conjunction with Mattel, and three recognized independent analysis institutes, set out to refute Greenpeace’s findings. It quickly became clear that Greenpeace had not been able to measure any phthalate emissions but instead has measured the total amount of volatile organic compounds (TVOC). Greenpeace was tacitly going on the assumption that the amount of TVOC was equivalent to the phthalate emissions. It was however known that TVOC normally stems from solvent emissions. But the laboratory contracted by Greenpeace had not even set this according to the then valid measurement standards.

All three of the laboratories commissioned by AgPU and Mattel established that the amount, if any, of DEHP and DINP emissions from children’s toys was too small to be measured. It was also evident that the EU had no generally accepted method to simulate the sucking out of phthalates from babies’ toys. However, the offer by the PVC and toy industries to develop a joint verification process was met with the following reply by Greenpeace spokesperson Judit Kamthak:

„in your communication of 28 January 1998 you suggest a joint verification process. In our opinion this is not necessary and would take the discussion backwards. In addition, we do not believe that this path would corroborate Greenpeace’s migration findings.“

Not just the toy industry but also a significant section of the press shook their heads at this.

Greenpeace continued its reply with a big campaign, timed to interfere with the pre-Christmas sales period, using the slogan “no environmental poisons in our babies’ mouths”. Parental concern for their children’s wellbeing turned broader segments of the population against PVC and its additives. To this end, activists for the fundraising organization even dug up the IARC’s carcinogenic suspicions regarding phthalates made in 1982 – although these had long since been refuted.

Unfortunately, they managed to impress the health authorities of a number of EU member states and parts of the EU Commission. The Bundesanstalt für gesundheitlichen Verbraucherschutz und Veterinärmedizin (BgVV), predecessor of the German Federal Institute for Risk Assessment, warned in December 1997 against babies’ toys containing plasticizers, without concrete evidence of these exceeding the designated exposure limits. Scandinavian countries and Austria demanded an immediate ban on phthalates. In Germany, many major department stores removed toys made from soft PVC from their shelves. The following year, much of Europe introduced national bans on soft PVC in babies’ toys.

The EU Council for Consumer Protection ordered the CSTEE to establish scientifically-based limits for the Tolerable Daily Intake (TDI) for phthalates for both adults and children. The CSTEE established the NOAEL (No Observable Adverse Effect Level) for the six most often used phthalates and determined their TDI, for which they set the baseline for the safety margin at 100. For DINP, the plasticizer most often used in PVC toys, CSTEE set the TDI at 0.15 milligrams a day per kilogram of body weight. Toxicologists in the Netherlands attempted to estimate if this level could be reached by toddlers weighing 8 kg chewing and sucking on a ten cubic centimetre piece of soft PVC for three hours a day. This proved difficult; as discussed there was no EU-wide established methodology to measure plasticizer migration. The permitted safety margin between the NOAEL and the TDI was only 75 for DINP and not 100. For DEHP, which is not permitted for use in toys, it only reached 19. In April 1998, the CSTEE could not exclude the possibility that the TDI could be significantly exceeded given unfavourable circumstances (particularly active toddlers who get poor quality PVC between their teeth).

CSTEE took the view that this did not pose a serious threat. Following a proposal from the Health Ministry of the Netherlands, the committee supported tackling the issue of the compromised safety margin through introducing limits on plasticizer migration for various types of PVC. The EU States’ universally-accepted Risk Assessment Report set the safety margin at 220 and did not believe any threat was posed.

The European Parliament and the relevant EU Directorate General took quite a different view and chose to adopt the Precautionary Principle. In April 1999, the EU amended the EU Directive 76/769/EEC to include a ban on phthalates in toys for children under the age of three. The EU Committee for Product Safety decided, after fierce debate, in December 1999 (right in the midst of the pre-Christmas sales) to adopt Greenpeace’s arguments. The Committee recommended that the EU Commission impose an immediate ban, in the form of an Emergency Decree, on all toddlers’ toys containing phthalates. In line with this, the DINP, DEHP, DBP, DIDP, DNOP or BBP content has been limited to 0.1% of their weight in toys which are designed for toddlers up to the age of 36 months.

These emergency measures were limited to three months and were supposed to bridge the gap prior to appropriate amendments to the EU Directive 76/769/EEC being brought in. That there was no scientific basis for this action did not stop this Emergency Decree being renewed every three months right up to Summer 2004, a total of nineteen times. In the meantime, the EU’s Joint Research Centre (JRC) carried out a risk assessment. This established no discernible risks for either DINP or DIDP that would warrant any restrictions on their use – not even in toddlers’ toys. Only DBP came out of the study badly. But this substance is not used in toys.

In 2003, the JRC’s Institute for Health and Consumer Protection wrote:

„The end products containing DINP (clothes, building materials, toys and baby equipment) and the sources of exposure (car and public transport interiors, food and food packaging) are unlikely to pose a risk for consumers (adults, infants and newborns) following inhalation, skin contact and ingestion.“

In September 2004, the EU Council on Competition decided to go along with the Dutch proposal to ban DINP, DIDP and DNOP from all toys and objects that children under three years could put in their mouths; and to impose a total ban on the use of DEHP, DBP and BBP in toys. This was a big step up from the Commission’s original decision which was only aimed at toys such as babies’ soothers or pacifiers which are intended to be put in the mouth. Through this action, the EU Council on Competition had put one over on the European Parliament. On 6 July 2005, the proposal had the second reading in the European Parliament (five years after the first reading!). MEPs voted with an overwhelming majority in favour of the commission’s tighter proposals. If the EU Council does not stop the procedure, the new Directive will come into force in autumn 2006. Since the EU Commission itself has in the meantime, in a communication published on 11 April 2006, confirmed the conclusions that the JRC drew in 2003, it seems difficult to explain to the public why a substance classified as safe can nevertheless be mandatory excluded from certain applications.

The European Council for Plasticizers and Intermediates (ECPI) sees the decision to also include the extensively researched plasticizer DINP in the ban, a dangerous parallel in REACh (Registration, Evaluation and Authorization of Chemicals). The risk assessment for DINP, which cost the industry more than 10 million Euros, was simply ignored. ‘Intrinsic’ characteristics of these materials served as the deciding factor and assumptions were extrapolated from this, but real appraisals were not conducted. Through this, the EU Commission, either deliberately or otherwise, encouraged the blanket demonisation of an entire group of substances. And, in doing so, it encouraged those who believe that they can improve the world through outlawing all materials and production methods that do not fit in with their narrow and ultimately religious-based concept of nature.

If they don’t stop it, they’ll go blind…

As was to be expected, this ban on phthalates escalated into calls for further bans. TV and mass circulation magazines brought out sensationalist reports on the supposed health dangers of plasticizers.

In 2001, Stern magazine carried a cover story on blow up dolls and other sex toys made from soft PVC. Author Gerd Schuster put forward that those men who used these phthalate-containing products to achieve sexual satisfaction were putting their potency at risk.

The Frankfurt based Öko-Test Magazin really took the prize for running scare stories on plasticizers. Almost every month, the magazine’s editors discovered suspect phthalates in everyday objects and ran a consumer scandal story on these, often taken up by other media. In July 2002, the summer-themed headline “throwing the baby out with the bath water” threw the spotlight on children’s paddling pools. Of course, the laboratories which undertook this analysis found high concentrations of phthalates in all the brands they examined, and in some they also found organotin compounds. According to the editors, that should have been enough to put the children and their parents off playing in paddling pools.

The Vienna-based cancer researcher Professor Wilfried Bursch examined the published findings of the Öko-Test under the worst case scenario of young children drinking the paddling pool water or sucking and chewing on the sides of the paddling pool to see if these posed a serious health risk to children. Bursch came to the conclusion that reaching the current TDI limits would be highly unlikely. He reproached the Öko-Test editors with having contented themselves with the very presence of suspect substances and to not have actually considered if the amounts found actually posed a health risk. The industrial study group AgPU and the VKE German Plastics Manufacturers Association calculated that a 1 year old child weighing 10kg would have to drink at least 167 litres of pool water per day for an entire lifetime to approach the TDI level for DEHP.

In January 2003, the Federal Institute for Risk Assessment (BfR) officially confirmed this estimate. “The BfR has found that the levels of phthalates, butyltins, tributyltins and other organotin compounds contained in plastic found by Öko-Test through the normal use of paddling pools represent no health threat to small children.”

In August 2002, Öko-Test played the same game with inflatable arm bands and also plastic beach sandals (‘flip-flops’). Once again, the magazine contented itself with the presence of the substances demonized by Greenpeace, and did not attempt to ascertain at the outset whether these substances could be taken up into the human body in amounts which would give rise to concern – despite the fact that a calculation model for the take up of DEHP into the human body through skin contact had already been established in the US in 1984. Dr. Sabine Lindner of AgPU performed calculations using the American model as a basis and employing the figures published by Öko-Test in 2002. Her conclusion: “A person would need to walk around in flip flops for 15,000 hours a day in order to absorb the lifetime TDI through their skin.”

A scientific study on 20 adolescents led by Khodayar Rais-Bahrami appeared in Environmental Health Perspectives. These adolescents had been born prematurely and had been placed on respirators and fed artificially through soft PVC tubes and thus had come into contact with high doses of DEHP. This study came to the following conclusion:

„Our results imply that adolescents who have been exposed to considerable amounts of DEHP as premature babies show no discernible influences on their growth rate and sexual maturity as a result of this exposure. (…) Their male and female sexual functions showed no deviation from the norm.“

A study by the University of Rochester, also published in Environmental Health Perspectives (May 2005), claimed that there was a clear link between the concentration of plasticizer-metabolites in the urine of 85 pregnant women one (possible) predictor of later male infertility noted in their male offspring. However, these metabolites did not include those for DEHP, and the Statistical Assessment Service (STATS) at George Mason University in Washington DC found serious flaws in the research methodology and the statistical analysis of University of Rochester’s findings.

Disempowering the consumer

The refusal to recognize that almost nothing in this world is gained for free has taken widespread hold of the EU powers-that-be in their interpretation of the Precautionary Principle. They have interpreted the Precautionary Principle similarly to the universally adopted “Rio Declaration” made at the end of the UN Conference on Environment and Development in 1992. This is the source of oft quoted “Where there are threats of serious and irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation.”

This is surely going too far. Even the old proverb “an ounce of prevention is worth a pound of cure” implies curbs on preventive measures: the seventeenth ounce of prevention will be a wasted effort. This prevention-cure calculation becomes even more difficult when, as is often the case in science, the costs of the cure are far from certain. Taken to extremes, Rio’s Precautionary Principle would condemn us to inertia in order to avoid all risks. Indeed, shortly before the Rio Summit numerous Nobel Prize winners warned in the ‘Heidelberg Appeal’ against a surge in irrationalism.

Above all, environmental and other groups wanted the application of the Precautionary Principle to not only be limited to cases where full scientific certainty regarding environmental threats had not been established, but to have the Principle used in a way that would reverse the burden of proof. The 1992 UN report did not establish just how serious a threat needs to be in order to justify draconian measures. Suspicion alone counted in principle as sufficient reason to justify costly precautionary measures or production bans. Using that logic, chocolate would need to be banned – any competent chemist could combine chocolate with everyday ingredients to manufacture dangerous explosives.

As a reaction to this illogic, the EU Commission issued a paper in 2000 indicating that the Precautionary Principle should not be involved in risk assessment, but rather should play a part in the decision-making processes for risk management. The Principle should not be subverted either through vague suspicions, or through capricious misrepresentations with protectionist ulterior motives.

But the Commission could not establish in which cases the Precautionary Principle should be applied and in which it should not. The Commission’s papers said simply:

„An assessment of the potential consequences of inaction and of the uncertainties of the scientific evaluation should be considered by decision-makers when determining whether to trigger action based on the Precautionary Principle.“

Taken to extremes, the Precautionary Principle contradicts the age old insight that all human behavioural choices imply an element of risk and incur costs. Therefore the good needs to be weighed up against the bad. If an individual, a company, or the state decides against particular actions on the grounds of caution, or chooses to prohibit such actions, that does not mean that in doing so they are reducing the risks and the costs. Taking any particular risk out of an equation necessarily means accepting another one; someone who decides to stay home for fear of having an accident on the way to work has decided to accept the risk losing his job. A person who tries to avoid all risk will wrap themselves in a cocoon, and miss out on life altogether.

The lesser evil is most often evident only in hindsight. Whether or not someone agrees with (or likes), the idea, the fact remains that the discovery process is affected by market forces – i.e. we need to include market forces in our approach, even if we find the idea abhorrent. This does not, however, mean that we must, or indeed should, remove the Golden Rule from our decision making processes.

Risk assessments cannot be divorced from prevailing cultural, socio- economic and political contexts: your attitude to risk will depend on whether you are a man or a woman, young or old, living in poverty or extremely wealthy, an individualist or a collectivist. However, even with these caveats, the weighing up of good and bad consequences leads to an assessment according to clear criteria. By comparison, the strategy of minimizing evils is not based on rational thinking.

Should the EU Commission’s decision regarding the ban on the use of plasticizers in babies’ toys, which largely disregards both scientific fact and reason, become the accepted principle behind new legislation, then the EU would undoubtedly shift further towards the behaviour of an authoritarian state – where scientific research and findings are overruled by political pressure.

Fortunately, the Treaty of Maastricht already requires that all EU Directives are subjected to a comprehensible cost/benefit analysis to establish whether they are commensurate with the underlying legal principles. This was reinforced in February 2000, when, in order to avoid market intrusions prompted by arbitrary suspicions and the bad-mouthing of products and materials, the European Commission stated that employing the Precautionary Principle would always require a sound scientific risk assessment.

In 2001, the EU published a White Paper which set out the blueprint for a new Chemicals Policy. Among other things, the White Paper decided to call a halt to the separate treatment for Old and New substances. The Paper also examined their unprecedented regulations project REACh (Registration, Evaluation and Authorization of Chemicals), which applies to millions of substance applications and tried to determine, on a cost/benefit basis, whether REACh was actually justified.

The EU Commission ordered a study by the London-based consultancy Risk and Policy Analysts, which predicted that REACh would cost between 1.7 and 7 billion Euros in the first eleven years of its introduction, but that the EU stood to gain a possible cost saving (following the expected fall in occupation-related cancers) of up to 54 billion Euros over the next 30 years. However, these figures appear to be plucked from thin air, as around 80% of all occupation-related cancers in the EU stem from the asbestos legacy. This example shows the importance to effective risk management of input from occupational health specialists and other experts.

The position of the Green lobby appears to be that political application of the Precautionary Principle and the aims of sustainable development are core drivers for new innovations. But how do they know which materials are inherently safe and which have a lasting impact on the environment … when even water can be deadly under certain circumstances? Do the Greens and their political friends consider themselves better able to judge what will prove itself on the open market than market participants themselves? The Greens seem perfectly happy with the authoritarian undercurrents inherent in their position.

Unfortunately, some people cling to the erroneous belief that the expansion of knowledge implies that there is an end – a point where society has attained ‘ultimate knowledge’. This is not the case. The accumulation of knowledge can even lead to total confusion.

However important science may be as a reconnaissance and early warning system for society, the most important source of information in a market economy is not science but the market itself. This information is not transferred without cost, but rather set against the cost of the risks undertaken. Both PVC and tested plasticizers have not proven themselves to be harmful, while their attractive cost / price ratio means they have won in a fiercely competitive market. Millions of consumers who, on the basis of sound human reason freely weigh up costs and benefits, could scarcely be wrong. Clearly, putting pressure on the market by pushing forward alternative materials on the back of product bans or market subsidies constitutes a clear case of consumer disempowerment.

The average consumer from the silent majority does not need such incentives or help with decision-making in an open marketplace. This is demonstrated by the fact that in open competition PVC has easily won through on a number of sustainability criteria such as durability, energy and resources efficiency according to 21 key indicators of the German National Environmental Sustainability Plan set out in 2002. (This is far from my endorsement of this plan; as this cannot be sustainable as long as it fails to include, except for liberalization of international trade barriers, any further moves towards the development of economic freedom.)

Future perspectives

When discussing innovations through the filter of sustainable development, we need to ask if there are any sound reasons not to use proven products. As we have already indicated, innovation cannot be a goal in and of itself. In evolution in the natural world, attributes that have proven useful are not abandoned unless dictated by need; there are many cases of survival features that have remained unaltered over millions of years existing alongside far more recent developments. This is true not least of the genetic code which has been maintained virtually unchanged over the course of evolution from the simplest micro-organisms right up to the most highly developed land plants and mammals.

Today there are many interesting alternatives to phthalate plasticizers such as adipines and alkyl sulfonic acid. These materials are already often mixed with phthalates used in various products, as they improve specific qualities such as flame retardation, or flexibility at cold temperatures. But these substances do not necessarily present fewer problems than phthalates. A few of these such as chlorinated paraffins are even poisonous or carcinogenic. For example, DEHA, used in food packaging and regarded as harmless, has been replaced by some adipates which demonstrate a higher degree of volatility and migration. Similarly, citric acid esters and their derivatives have been increasingly used in toys and food packaging, despite the disadvantages of their higher price and lower microbial resistance.

The plastics industry currently has great hopes for Di-isononyl-cyclohexan-1.2-dicarboxylat (DINCH) a substance developed through computer modelling by BASF in co-operation with customers from other industries. This substance is somewhat more expensive than DEHP, and it can also be almost seamlessly substituted for DEHP without the need to rebuild production plants. DINCH also does not include any of the aromatic hydrocarbons defined as suspect by toxicologists so we can expect it to have a much more benign toxicological profile. BASF has confirmed this in a far reaching programme of tests. These tests indicate that DINCH does not affect the development of sexual organs or fertility, nor does it harm the environment. DINCH has a rate of migration which is 8 times lower than that of DEHP, although it has disadvantages such as higher volatility.

The quest for innovation or substitution in the case of these alternative plasticizers cannot be pursued without consideration of the costs, as we would end up substituting the proven with the unproven through ideologically driven wishful thinking. Society needs to pursue fulfilment of consumer demands in a way that balances benefits against the costs to the economy, the environment, and to health.

Our proven sound basis for rational decision-making would clearly be lost if materials or indeed entire product lines and production methods were to be condemned lock, stock and barrel without a rational cost / benefit analysis.

The history of technology shows us that we can seldom regard any solution to a problem as permanent; legs were complemented by horses, then wheels, then rail. It goes without saying that “good will be superseded by better” in the case of plasticizers. Already it has been demonstrated that in the near future the manufacture of not only hard PVCs but a very broad range of soft PVCs will be possible without the use of special plasticizers.

The American research company Teknor Apex has succeeded in manufacturing polyolefin elastomers. These compounds can be used to make highly elastic and soft PVC manufactured parts without the addition of plasticizers, but are 80% more expensive. Their use will initially be limited medical or specialized technical applications, where the use of plasticizers is a disadvantage and cost is not the deciding factor. Should it become possible to manufacture these compounds more cheaply, then they could take over in a number of markets. However, there is no reason for the artificial acceleration of their market introduction as long as they prove themselves sufficiently against market competition. In short: Current standard plasticizers will probably be replaced one day. What is important is that they are replaced by something really better and not by something declared political correct before being tested by the competition between different solutions on the market.

Conventional plasticizers could also see possible competition from nanotechnology. Nanotechnology has already proved itself in number of cases as a cost-effective physics-based replacement to existing chemical solutions. It is not inconceivable that nanotechnology could soon provide original proposals to solve the problem of plasticizers that we could scarcely dream of today. The name “nanotechnology” also highlights the fact that new solutions to problems could also carry new risks, as nanotechnology is already primarily regarded in the media as “the technology of risk”. No such intelligent technology would free humans from the torment of choice – the weighing up of relative evils.

(Translated by Amanda Oliver, London)

Ist „Bio“ wirklich besser?

Alex A. Avery: Die Wahrheit über Bio-Lebensmittel. Verlag Thuss & van Riesen, Jena 2008. € 24,50. ISBN 978-3-940431-01-1

Die Wahrheit über Bio-Lebensmittel.: Alex AveryBio-Lebensmittel sind „in“. Selbst bei großen Discounter-Ketten wie „Lidl“ oder „ALDI“ gibt es inzwischen ein reichhaltiges Sortiment an Obst und Gemüse aus ökologischem Anbau. Bei Früchten wie Bananen oder Zitronen haben die Kunden oft gar keine andere Wahl mehr, als zu deutlich teurer Öko-Ware zu greifen. Solange man für sein Geld eine überzeugende Qualität bekommt, ist das kein grundsätzliches Problem. Sind Bio-Produkte aber im Hinblick auf den Geschmack, den Nährwert und ihren Gehalt an Giftrückständen wirklich durchgängig besser? Dieser Frage geht der US-Biochemiker Alex A. Avery in einem gut dokumentierten Sachbuch nach, das in den USA zum Bestseller wurde. Der Jenaer Kleinverlag Thuss & van Riesen hat das Buch jetzt ins Deutsche übersetzen lassen. Das lag insofern nahe, als darin auch die Wurzeln und die Praxis des Öko-Landbaus in deutschsprachigen Ländern eine bedeutende Rolle spielen. Dabei wurden leider einige Flüchtigkeitsfehler übersehen. Weiterlesen

Kein Treibhaus ohne Dach

Hartmut Bachmann: Die Lüge der Klima-Katastrophe. Frieling-Verlag, Berlin 2007. 254 Seiten. EUR 17,80. ISBN 978-3-8280-2521-9 (erschienen in: eifrei 76/Oktober 2007)

Die Lüge der Klimakatastrophe. Das gigantischste Betrugswerk der Neuzeit. Manipulierte Angst als Mittel zur MachtHartmut Bachmann, Jahrgang 1924, weiß als ehemaliger Flugzeug-Pilot und Skipper offenbar mehr über Wetter und Klima als viele der vom Staat bzw. von den Steuerbürgern bezahlten Wissenschaftler, die ihre Computerspielereien als „Klimaforschung“ ausgeben. Als Unternehmer in den USA hat er selbst erlebt, wie die New Yorker Schickeria die Angst vor einer „Klimakatastrophe“ als Chance für das große Geschäft mit dem Ablasshandel entdeckte. Dabei überschreitet Bachmann leider die Grenze zur Verschwörungstheorie. Die UNO und ihr Klimarat IPCC ein Instrument des US-Imperiums? (Schön wär’s!) Da bedarf es wohl einiger Differenzierung, um die heftigen Auseinandersetzungen um ein Folgeabkommen zum Kioto-Protokoll von 1997 zu verstehen. Gut nachvollziehbar ist hingegen, wie Bachmann darlegt, dass es einen „Treibhauseffekt“ der Erdatmosphäre, wie er in Europa inzwischen schon Kindern im Vorschulalter eingepaukt wird, nicht geben kann: Der Atmosphäre fehlt schlicht ein Deckel, der die Wärme vom Entweichen in den kalten Weltraum abhält. Bachmann sieht in den Wissenschaftlern und Regierungsvertretern, die im IPCC den Ton angeben, Sektierer, die es nur mithilfe geschickter Medienmanipulation durch Machwerke wie Al Gors Dia-Show „Eine unbequeme Wahrheit“ oder abenteuerliche Hochrechnungen der Kosten des Klimawandels im Report des ehemaligen Weltbank-Präsidenten Sir Nicholas Stern schaffen, ihre absonderliche Weltsicht zur herrschenden Meinung zu machen. Unter den Tisch fällt dabei die Frage, welcher mögliche Nutzen den Kosten in Billionenhöhe gegenübersteht. Weiterlesen