Die australische Kollegin Joanne Nova hat ein sehr nützliches Handbuch für Skeptiker erarbeitet und im pdf-Format zum Herunterladen auf ihren Blog gestellt. Eine deutsche Übersetzung findet sich auf der Internet-Präsentation des Europäischen Instituts für Klima und Energie (EIKE). Der Kollege Robert Grötzinger hat das Handbuch auf ef-online.de besprochen.
German energy deadlock
The German Renewable Energies Act (EEG) is not supported by the country’s leading economists. They are pointing out that billions of Euros invested in the “renewables” sector would only lead to marginal CO2 savings. It would be easier to create much more jobs with less money. All and above the EEG incompatible with the European Emissions Trading Scheme (ETS). Consumers will pick up the tab through high energy costs and and less supply security.
Some Facts about Renewables & Green Jobs in Germany
By Edgar L. Gärtner
The Renewable Energy Act (EEG) is leading to net job losses
When competition on the German power market was established in order to comply with EU’s power market directive, the mean power price for industrial consumers dropped to some 6 ct/kWh and the mean price for end consumers to 14 ct/kWh. But after 2000, the consumer prices began to rise continually. In 2008, industrial clients had already to pay nearly 13 ct/kWh and private clients nearly 22 ct/kWh. The main reason for this turn is the German Renewable Energy Act (EEG) which was passed in March 2000. The EEG guarantees high feed-in prices for any quantity of power generated by wind turbines, biomass converters or photovoltaic panels for a period of 20 years.
This guarantee was the key vehicle to the recent investment-boom in the German “renewables” sector, especially in wind power. Currently, some 20,000 wind turbines are generating 23,312 MW, i.e. 6.3 % of Germany’s total power supplies (639 TWh) for the guaranteed price of 9 ct/kWh. These remunerations are charged to power consumers. Weiterlesen
Ökologie der Hoffnungslosigkeit
Derrick Jensen: Endgame. Zivilisation als Problem. Pendo Verlag. München und Zürich, 2008. 540 Seiten. € 22,90 (D)/€ 23,60 (A)/sFr 41,50. ISBN: 978-3-86612-192-8
„Ich will in diesem Buch untersuchen, wie moralisch machbar es ist, nicht nur Staudämme einzureißen, sondern die gesamte Zivilisation abzuschaffen.(…) Jeden Morgen, wenn ich aufwache, frage ich mich, ob ich schreiben oder einen Staudamm sprengen soll.“ Das gesteht Derrick Jensen, ein nordkalifornischer Öko-Aktivist und Bestseller-Autor in seinem nun auf Deutsch vorliegenden programmatischen Buch „Endgame“. Immerhin räumt er im gleichen Atemzug ein, er sei selbst zu feige und technisch zu ungeschickt, um das Programm seines in den USA als „das wichtigste Buch der letzten zehn Jahre“ ausgezeichneten Wälzers auch umzusetzen. Dieser gewährt einen einzigartigen Einblick in die Denkart der in Nordamerika immer zahlreicher werdenden Öko-Fundamentalisten, die den Untergang von Milliarden von Menschen in Kauf nehmen, um ihrem Ziel, der Zerstörung der industriellen Zivilisation, näher zu kommen. Weiterlesen
Chemikaliensicherheit
Die systematische Bestimmung von Schadstoffen in menschlichen Körperflüssigkeiten ist ein wichtiges Kontrollinstrument sowohl der Arbeitsmedizin als auch der Gesundheits- und Umweltpolitik. Human Biomonitoring kann aber auch missbraucht werden, um die Öffentlichkeit zu täuschen.
Human Biomonitoring:
Oft nützlich, mitunter aber auch irreführend
Die systematische Bestimmung von Schadstoffen in menschlichen Körperflüssigkeiten ist ein wichtiges Kontrollinstrument sowohl der Arbeitsmedizin als auch der Gesundheits- und Umweltpolitik. Human Biomonitoring kann aber auch missbraucht werden, um die Öffentlichkeit zu täuschen.
Als EU-Kommissarin Margot Wallström noch für die Vorbereitung und Durchsetzung der neuen, dem „Vorsorgeprinzip“ verpflichteten Chemikalienpolitik der EU (REACH) zuständig war, ließ sie sich vor laufender Kamera Blut abnehmen. Analytiker fanden darin Spuren von über 50 Chemikalien (darunter DDT und andere Pestizide), die da offenbar nicht hingehörten. Die Presse hatte wieder einmal eine Sensationsmeldung, mit deren Hilfe die EU-Kommission ihren Druck auf die damals noch widerständige Industrie zu verstärken dachte. Dabei war den meisten der Beteiligten schon damals klar, dass der bloße Nachweis von Fremdstoffen im menschlichen Blut oder Urin mit einem seriösen Human Biomonitoring (HBM) nichts gemein hat. Da es die chemische Analytik wegen ihrer früher kaum vorstellbaren Empfindlichkeit heute ermöglicht, in Körperflüssigkeiten selbst extrem geringe Mengen von Fremdstoffen bestimmen, ist es absehbar, dass man bald bei beliebigen Erdenbürgern das ganze Periodensystem der Elemente, wenn nicht beliebige Verbindungen aus dem europäischen EINECS-Verzeichnis der Altstoffe nachweisen könnte, sobald dafür anerkannte Analysemethoden verfügbar sind. Um zu verhindern, dass Ergebnisse des HBM irreführend interpretiert, wenn nicht politisch missbraucht werden, haben das Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit (BMU) und der deutsche Chemieverband (VCI) Ende Januar 2009 in Bonn gemeinsam eine breite Diskussion von Fachwissenschaftlern über Möglichkeiten und Grenzen des HBM für Politik und Gesellschaft organisiert.
Historisch geht HBM auf die präventive Arbeitsmedizin, insbesondere in der chemischen Industrie zurück. Schon in den 50er Jahren hatte HBM, definiert als systematische Bestimmung von Schadstoffen bzw. deren Metaboliten in biologischem Material (insbesondere Urin oder Blut) mit dem Ziel, die Belastung und das Gesundheitsrisiko exponierter Individuen im Vergleich zu Referenzwerten zu erfassen und, falls notwendig, Gegenmaßnahmen einzuleiten, in Deutschland bereits große Bedeutung erlangt. Im Jahre 1980 legte die Senatskommission der Deutschen Forschungsgemeinschaft (DFG) zur Prüfung gesundheitsschädlicher Arbeitsstoffe neben Grenzwerten für die Maximale Arbeitsplatzkonzentration luftgetragener Schadstoffe (MAK-Werte), erstmalig weltweit, auch Biologische Arbeitsstofftoleranzwerte (BAT-Werte) für die innere Schadstoffbelastung fest.
Etwa seit dieser Zeit gewinnt HBM auch in der Umweltmedizin an Bedeutung. Auslöser war die EU-Richtlinie 77/312/EEC vom 29. März 1977 über das biologische Screening der Bleibelastung der Bevölkerung. Da hierbei deutlich wurde, dass der Zusatz von Bleitetraäthyl als Anti-Klopfmittel in Ottokraftstoffen die Hauptursache hoher Blutbleiwerte war, wurde Blei im Benzin in den 80er Jahren sowohl in den USA als auch in Deutschland und in der EU schrittweise verboten, sobald bleifreie Kraftstoffe verfügbar waren. Mithilfe von HBM konnte nachgewiesen werden, dass die Politik damit an der richtigen Stelle angesetzt hatte. In den USA beispielsweise sank der durchschnittliche Blutbleispiegel vom Ende der 70er bis zum Beginn der 90er Jahre von etwa 160 auf unter 20 µg/l.
Oft begnügt sich die Umweltpolitik demgegenüber mit einem Ambient-Monitoring (AM) von Schadstoff-Konzentrationen in der Luft, im Wasser, im Boden oder in Nahrungsmitteln und rechtfertigt kostspielige Gegenmaßnahmen mit Worst-Case-Annahmen über möglicherweise davon ausgehende Gesundheitsgefahren. Der Nutzen solcher Maßnahmen erschöpft sich aber oft in Propaganda-Effekten, solange mithilfe von HBM nicht nachgewiesen wurde, dass es tatsächlich einen engen Zusammenhang zwischen Schadstoffkonzentrationen in Umweltmedien und Beeinträchtigungen der menschlichen Gesundheit gibt. Prof. Jürgen Angerer von der Universität Erlangen-Nürnberg, einer der Pioniere des HBM in Deutschland, zitierte das Beispiel der Georg-Ledebour-Schule in Nürnberg, in deren Atemluft PCB (vermutlich aus Fugendichtungen) nachgewiesen worden war. Die Schule wurde sehr aufwändig von Handwerkern in Ganzkörper-Schutzanzügen saniert. Die Ergebnisse des von Angerer und Mitarbeitern durchgeführten HBM wurden von der Politik ignoriert. Diese zeigten, dass die PCB-Belastung des Blutes der Schüler der Ledebour-Schule mit durchschnittlich 0,44 µg/l deutlich unter dem im Umweltsurvey 1998 des Umweltbundesamtes (UBA) ermittelten Referenzwertes von 0,56 µg/l lag. Eine Sanierung der Schule wäre überhaupt nicht nötig gewesen.
Immerhin hatte HBM bereits zu Beginn der 90er Jahre für eine Versachlichung der politischen Auseinandersetzung um die Sanierung zahlreicher Sportplätze beigetragen, in deren Belägen dioxinhaltige Schlacke („Kieselrot“) von der Kupferhütte im sauerländischen Marsberg verwendet worden war. Die damals erhobenen HBM-Daten zeigten eindeutig keine besondere Dioxinbelastung der betroffenen Menschen. Worst-Case-Szenarien konnten als völlig unrealistisch verworfen und kostspielige Sanierungsmaßnahmen „auf Verdacht“ vermieden werden, da die im „Kieselrot“ enthaltenen Dioxine offenbar, wenn überhaupt, nur in geringem Maße in den menschlichen Organismus gelangten.
Von daher besteht Hoffnung, mithilfe von HBM auch andere durch Worst-Case-Annahmen emotional aufgeladene Auseinandersetzungen um Verdachtsstoffe versachlichen zu können. Zurzeit gilt das insbesondere für die seit etlichen Jahren schwelende Kontroverse um einige Phthalate, die in großen Mengen als Kunststoff-Weichmacher eingesetzt werden. Allen voran der bis vor einigen Jahren noch führende PVC-Weichmacher Diethylhexylphthalat (DEHP). Dieser Standard-Weichmacher ist zwar seit der Jahrtausendwende durch den längerkettigen Weichmacher Diisononylphthalat (DINP) wegen dessen günstigeren Preis-Leistungs-Verhältnisses sukzessive aus den meisten Anwendungen verdrängt worden. Doch erwies sich DEHP gerade in sensiblen medizinischen Anwendungen wie Infusions- und Dialyseschläuchen, Magensonden oder Blutbeuteln wegen besonderer Materialeigenschaften (Flexibilität auch noch bei sehr niedrigen Temperaturen) bis vor kurzem als schwer oder gar nicht ersetzbar.
Wie andere Phthalate gilt DEHP aufgrund von Tierversuchen mit hohen Dosen als endokrin wirksam und wurde von der EU offiziell als potenziell die Fortpflanzungsfähigkeit beeinträchtigend eingestuft. Umso bedenklicher erscheint die außerordentlich hohe DEHP-Exposition künstlich ernährter Frühgeborener. Bei ihnen wird, wie Prof. Angerer betonte, die tolerierbare tägliche Höchstmenge (TDI) von DEHP zum Teil um mehr als das Zehnfache überschritten. Jürgen Angerer hat mithilfe eines heroischen Selbstversuches, bei dem er etwa 50 mg Deuterium-markiertes DEHP auf einem Butterbrot aß, erst die Grundlagen für ein HBM von DEHP gelegt. Durch die Untersuchung seines Urins in den zwei Tagen nach der DEHP-Aufnahme konnte er quantitativ bestimmen, in welchem Maße DEHP zu MEHP metabolisiert wird. Mithilfe des ermittelten Konversionsfaktors lässt nun leicht vom MEHP-Gehalt im Urin auf die DEHP-Belastung eines Organismus zurückschließen.
Das UBA in Dessau und Berlin hat auf dieser Grundlage in seinem Kinder-Umwelt-Survey (KUS) ermittelt, dass in Deutschland bei 1,4 Prozent der drei- bis vierzehn-jährigen Kinder der TDI für DEHP (50 µg/(kg KG.d) überschritten wird. Als weitaus bedenklicher erscheint die Quote der TDI-Überschreitungen beim problematischeren Weichmacher Dibutylphthalat (DBP), die bei DnBP 11,7 und bei DiBP 9,1 Prozent erreichen. Dabei muss berücksichtigt werden, dass der TDI von DBP nur ein Fünftel des TDI von DEHP beträgt. Nach Ansicht von Marike Kolossa-Gehring vom UBA ist das jedenfalls Grund genug, DEHP und DBP auf die Liste der „Kandidaten“ zu setzen, die nach REACH einer behördlichen Zulassung bedürfen.
Auch bei betrieblichen Störfällen in der chemischen Industrie oder bei Unfällen mit Chemikalien hat sich HBM bewährt. Michael Nasterlack, Arbeitsmediziner bei der BASF, illustrierte auf der Bonner Veranstaltung anhand konkreter Beispiele, auf welche Weise HBM helfen kann, chemiebezogene Gesundheitsgefahren realistisch einzuschätzen. So erkannte man erst mithilfe des HBM, dass o-Toluidin nicht in normalen Kesselwagen transportiert werden sollte. Denn diese lassen sich nicht sauber genug von Produktrückständen befreien und können deshalb nicht ohne Vollschutzanzug begangen werden. Nachdem Vergiftungssymptome beim Rangier- und Reinigungspersonal mithilfe von HBM eindeutig auf o-Toluidin und andere aromatische Amine zurückgeführt werden konnten, dürfen diese Stoffe heute nur noch in Kesselwagen aus Edelstahl transportiert werden und das betroffene Personal unterliegt Nachsorgeuntersuchungen im Rahmen des ODIN-Programms der Berufsgenossenschaften.
Noch in den Anfängen steckt die Anwendung von HBM bei der Ermittlung schichtenspezifischer Umwelt- und Gesundheitsbelastungen. Die Annahme, Kinder aus der Unterschicht seien generell höher belastet als Kinder aus der Mittelschicht, wird vom KUS nicht bestätigt. Vielmehr sind Kinder aus wohlhabenderen Elternhäusern in Deutschland eindeutig stärker durch PCB und andere Rückstände chlororganischer Verbindungen belastet als Kinder aus der Unterschicht. Ursache dafür ist nach Ansicht der Sozialmedizinerin Prof. Claudia Homberg von der Universität Bielefeld die in den Mittelschichten übliche längere Stillzeit.
Uwe Lahl vom BMU wies allerdings darauf hin, dass HBM mangels geeigneter Analyseverfahren bislang nur für etwa 200 Substanzen anwendbar ist. So sei zum Beispiel die beinahe ubiquitäre Verbreitung von Rückständen perfluorierter Verbindungen in der Umwelt lange übersehen worden, weil die üblichen Screening-Verfahren nicht darauf ausgelegt waren. Lahl machte sich für ein gemeinsames Programm der chemischen Industrie und der Politik für die systematische Entwicklung von Analysemethoden für bedenkliche Stoffe stark. Rückendeckung erhielt er dabei von Matthias Machnig, Staatssekretär im BMU. „Wir brauchen eine umfassende Kenntnis und Bewertung von Stoffen“, unterstrich Machnig. Damit wiederholte er den hinter REACH stehenden (illusionären) Anspruch. Schon der Start von REACH lässt allerdings ahnen, wohin dieses Streben nach Allwissen führt.
Edgar Gärtner
(veröffentlicht in: CR-Chemische Rundschau, Heft 3/2009, VS-Medien, CH-Solothurn)
=====================================================================
Es geht auch mit weniger Versuchstieren
Auch Industrie-Toxikologen sind in der Regel keine herzlosen Tierquäler. Sie bemühen sich schon lange darum, den „Verbrauch“ von kleinen wie großen Versuchstieren auf das Notwendigste zu beschränken, zumal Tierversuche als Kostentreiber gelten. Dennoch werfen ihnen Tierschützer vor, den Einsatz von tierfreien Testverfahren unnötig hinauszuzögern. Noch immer sind im Rahmen der Organisation für wirtschaftliche Entwicklung und Zusammenarbeit (OECD) nur zwei alternative toxikologische Testverfahren, der 3T3-NRU (Neutral Red Uptake)-Phototoxizitätstest (OECD Testguideline 432) und 3-D-Modelle menschlicher Haut aus Zellkulturen für die Untersuchung der Korrosivität und der Penetrationsfähigkeit von Stoffen (Episkin- und Epiderm-Test nach OECD 431 und 428) weltweit validiert. Hinzu kommt der Ersatz des schmerzhaften Haut- und Augenreizungstests an den Augen lebender Kaninchen (Draize-Test) durch gröbere Tests wie den vor allem in der Kosmetikindustrie gebräuchlichen HET-CAM-Test an angebrüteten Hühnereiern (OECD 405) oder Tests an den herausoperierten Augen toter Kaninchen oder Kücken. Diese gelten in der Kosmetikindustrie aber nur als Vorstufe für Tests an freiwilligen Versuchspersonen.
Wie die CR (in Nr. 6/2004) schon vor vier Jahren berichtet hat, gibt es inzwischen sowohl auf nationaler Ebene wie im Rahmen der Europäischen Union erhebliche finanzielle Annstrengungen, um alternative Testverfahren anwendungsreif zu machen. Da die Prüfung der Reproduktionstoxizität von Stoffen nach bisherigen Schätzungen etwa 70 Prozent des gesamten mit REACh verbundenen Bedarfs von etwa 40 Millionen Versuchstieren verursachen würde, fördert die EU im Rahmen ihres 6. Forschungs-Rahmenprogramms das integrierte Forschungsprojekt „ReprProTect“, an dem Labors aller 27 Mitgliedsländer beteiligt sind, mit 9 Millionen Euro. Ein weiteres EU-Programm mit dem Namen „AcuTox“ zielt auf die Verminderung des Versuchstierbedarfs bei Prüfungen auf akute Toxizität (LD50-Tests). Dafür ging bis vor kurzem noch etwa ein Drittel aller eingesetzten Versuchstiere drauf. In den letzten Jahren wurden hier aber durch die konsequente Anwendung des 3R-Prinzips – Reduce, Refine, Replace – von Russel und Burch (1959) ohnehin bereits erhebliche Fortschritte erzielt. Der Versuchstierbedarf je Prüfung sank von 150 in den 70er Jahren des letzten Jahrhunderts auf gerade noch 8 im Jahre 2002. Nun geht es vor allem darum, auf der Basis der Ergebnisse standardisierter in-vitro-Cytotoxizitätstests zu entscheiden, wieweit klassische LD50-Tests überhaupt noch notwendig sind.
Nach wie vor gibt es gerade für die teuren und langwierigen Tests auf Reproduktionstoxizität keine tierversuchsfreien Alternativen und es stehen auch keine in Aussicht. Wie Prof. Horst Spielmann vom deutschen Bundesinstitut für Risikobewertung (BfR) Mitte Februar 2008 auf einem Kolloquium der DECHEMA in Frankfurt am Main ausführte, zeichnet es sich jedoch ab, dass schon bald bei den 18 Monate in Anspruch nehmenden Zwei-Generationen-Tests auf Fortpflanzungsschäden auf die zweite Generation verzichtet werden kann. Dadurch könnte die Hälfte der für diese Studien bislang erforderlichen großen Zahl von Versuchstieren eingespart werden. Denn das niederländische Bundesgesundheitsamt RIVM konnte anhand der Analyse der Bewertung von 140 Stoffen zeigen, dass die Untersuchung einer zweiten Generation von Versuchstieren keine zusätzlichen für die Einstufung und Kennzeichnung der Stoffe relevanten Erkenntnisse zutage förderte. Im Rahmen des European Partnership for Alternatives to Animal Experiments (EPAA) arbeiten maßgebliche europäische Industrieverbände seit 2005 zusammen mit der EU-Kommission in einem dialogischen Lernprozess daran, die Zwei-Generationen-Studien durch erweiterte und intelligentere Ein-Generationen-Studien zu ersetzen. Der Validierungsprozess für die abgespeckte Form von Reproduktionstoxizitätstests ist angelaufen.
Der Ersatz von Tierversuchen durch in-vitro-Testverfahren wirft eine Reihe grundsätzlicher Probleme der Eichung auf, die nicht leicht zu lösen sind. So können alternative Methoden zu aussagefähigen Testergebnissen im Hinblick auf Gesundheitsgefahren für Mensch und Umwelt gelangen, die aber unzureichend mit den Ergebnissen von Tierversuchen überlappen. Welche Ergebnisse können als „Goldstandard“ verwendet werden, wenn eine Eichung durch Versuche an Menschen aus ethischen Gründen unmöglich ist? Welche in-vitro-Testverfahren kommen für schwierige Aufgaben wie die Untersuchung der Kanzerogenität und der Reproduktionstoxizität von Stoffen überhaupt in Frage? Die geltenden Gesetze geben bis heute gerade bei der Untersuchung chronischer Belastungen Tierversuche als „Goldstandard“ vor, auch wenn deren Ergebnisse gerade bei den von REACh geforderten Kanzerogentitätsprüfungen alles andere als eindeutig sind. Es ist bekannt, dass Krebstests an Ratten mit hohen Dosen von Testsubstanzen im Schnitt zur Hälfte positiv ausgehen. Von diesen positiven Ergebnissen erweisen sich aber 90 Prozent als falsch. Hier helfen nur die Kombination verschiedener Testverfahren und die Auswertung von Erfahrungen mit Schadstoffexpositionen in der Arbeitswelt und der Ergebnisse epidemiologischer Studien weiter. Dennoch gelten dabei bis heute aus Tierversuchen gewonnene Daten als unverzichtbar.
Wenn heute das dritte R (Replace) des 3R-Konzepts gegenüber der Planung intelligenterer, Versuchstiere sparender Tierversuche zu kurz kommt, liegt das eher an solchen Problemen und nicht an fehlenden Forschungsmitteln. Darauf wies auf dem Frankfurter Kolloquium sogar Marcel Leist, der Inhaber des von der Schweizer Doerenkamp-Zbinden-Stiftung geförderten Lehrstuhls für Alternativmethoden zum Tierversuchsersatz an der Universität Konstanz, hin. Leist betont aber auch: „Betrachtet man nur die Zahl erfolgreicher internationaler Validierungen, unterschätzt man die Fortschritte, die bei der Implementierung des 3R-Prinzips schon erreicht wurden.“
Einen ebenso intelligenten wie originellen Weg der Anwendung des 3R-Konzepts scheinen Toxikologen der BASF gefunden zu haben: Die systematische Analyse des Einflusses von Testsubstanzen auf das Metabolom (die Gesamtheit der niedermolekularen Stoffwechselprodukte) der Testorganismen durch Hunderte von Chromatographen und deren Auswertung mithilfe der Bioinformatik. Dabei nutzt der Chemieriese seine langjährigen Erfahrungen und sein Equipment aus der Pflanzenschutzforschung. Wie der BASF-Toxikologe Karsten Müller in Frankfurt darlegte, leistet die BASF bei der Einführung dieser bislang nur in der Grundlagenforschung angewandten Methode in Routine-Stoffprüfungen Pionierarbeit. Deshalb sucht der Konzern den engen Kontakt zu den zuständigen nationalen und europäischen Behörden wie auch zu Meinungsbildnern, um die neue Testmethode international als Standardverfahren der Stoffprüfung nach REACh anerkannt zu bekommen. „Mangelnde Akzeptanz bei Behörden könnte sich als Engpass für die international ausgerichtete chemische Industrie erweisen“, warnt Karsten Müller. „Leider bedeutet auch das Vorhandensein einer OECD-Richtlinie noch nicht, dass ein nach dieser Vorschrift durchgeführter Test von Behörden in OECD-Ländern auch anerkannt wird.“
Selbst bei der Qualitätskontrolle von Medikamenten und Blutprodukten kommt der Ersatz von Tierexperimenten nur schleppend voran. Ein Beispiel ist der Pyrogentest für Medikamente, die gespritzt oder infundiert werden. Dabei geht es darum, herauszufinden, ob die flüssigen Medikamente oder Infusionslösungen bakterielle Endotoxine enthalten, die schweres Fieber auslösen können. Endotoxine, d.h. Zerfallsprodukte gramnegativer Bakterien stellen ein besonderes Problem dar, weil sie erst bei 250 Grad Celsius zerstört werden und folglich auch in handelsüblichem Aqua dest. enthalten sein können. Seit 1942 schreibt die US-Pharmakopöe (USP) vor, Chargen der fraglichen Flüssigkeiten an Kaninchen zu testen. Bekommen die Versuchstiere dadurch Fieber, müssen die Chargen verworfen werden. Schon in den 50er Jahren fand der US-Biologe James F. Cooper aber einen eleganten Weg, ohne Kaninchen auszukommen: Der jedes Jahr zu einer bestimmten Zeit an verschiedenen Küsten des Ozeans massenhaft auftauchende urtümliche Pfeilschwanzkrebs Limulus reagiert sehr sensibel auf das Eindringen von Endotoxin in seinen Blutkreislauf durch die Bildung sogenannter Amöbozyten. Auf der Grundlage dieser Erkenntnis entwickelte Cooper den heute weltweit gebräuchlichen Limulus-Amöbozyten-Lysat-Test (LAL). Dafür wird den vorübergehend gefangenen Wildtieren nur ein wenig Blut abgenommen. Danach werden sie wieder ausgesetzt.
Seit 1977 wird dieser Test, zunächst in Form des qualitativen Gelklot, von der US Food and Drug Administration (FDA) empfohlen. Inzwischen wurden auf dieser Basis quantitative turbidimetrische und chromogene Testmethoden entwickelt. Nach der Übernahme von Coopers Firma Endosafe durch Charles River Laboratories, den weltgrößten Anbieter von Versuchstieren, wurde die chromogene Methode zu einem Schnelltestsystem weiterentwickelt, das heute weltweit unter dem Namen Endosafe PTS™ angeboten wird. Es liefert in nur 15 Minuten quantitative Messergebnisse.
Ein Nachteil des LAL-Tests ist seine Begrenzung auf den Nachweis von Endotoxin. Auf (weniger bedeutsame) andere Pyrogene spricht er nicht an. Aus diesem Grund werden Biologica und Blutprodukte vor allem in Europa nach wie vor an Kaninchen getestet. Deshalb entwickelten junge Forscher der Universität Konstanz, darunter Thomas Hartung, der heutige Leiter des European Center fort he Validation of Alternative Methods (ECVAM) in Ispra am Lago Maggiore, schon vor Jahren in Zusammenarbeit mit der Zentralstelle zur Erfassung und Bewertung von Ersatz- und Ergänzungsmethoden zu Tierversuchen (ZEBET) des BfR einen Test, bei dem eine geringe Blutmenge von gesunden menschlichen Spendern mit der Testsubstanz vermischt werden. Sind darin Pyrogene enthalten, bilden die Leukozyten den Botenstoff Interleukin-1. Dieser lässt sich mithilfe der Immun-Fluoreszenz (ELISA) nachweisen. Auch dieser inzwischen von ECVAM validierte und seit Dezember 2007 der European Medicines Agency (EMEA) als Richtlinienentwurf für die Europäische Pharmakopöe vorliegende „PyroCheck“-Test wird von Charles River in Europa angeboten. Nach Aussage von Beate Knörzer, der zuständigen Verkaufsleiterin, ist dieses Testsystem jedoch, im Unterschied zu Endosafe PTS™, bislang alles andere als ein kommerzieller Renner. Noch immer werden Tests an Kaninchen durchgeführt, weil Hersteller der betroffenen Produkte auf Nummer sicher gehen möchten. Dieses Beispiel zeigt, dass es nicht am guten Willen der Toxikologen und der Behörden hängt, wenn der Ersatz von Tierversuchen nur langsam voran kommt.
Walter Aulmann, leitender Toxikologe der Henkel KGaA in Düsseldorf, sieht deshalb kaum Chancen, die in der EU-Kosmetik-Richtlinie und von REACh vorgegebenen Fristen einzuhalten, zumal der von der EU beschlossene gleichzeitige Übergang zum Globally Harmonised System (GHS) der Chemikalieneinstufung zusätzliche Arbeit bedeutet. Aber er sieht durchaus Möglichkeiten, durch intelligente Testplanung, die Nutzung bereits vorhandener Produktdaten und gewisse Tricks den durch REACh erzeugten Versuchstierbedarf von 40 Millionen auf etwa 9 Millionen Exemplare zu reduzieren, sofern die zuständigen Zulassungs- und Aufsichtsbehörden mitspielen.
Werde im Sinne des in REACh Anhang XI verwendeten Begriffs „Weight of Evidence“ auch auf bereits vorhandene ältere Testdaten und Ergebnisse von neuen in-vitro-Tests zurückgegriffen, könne man sich viele langwierige Tierversuche sparen. Dabei dürften aber nur positive Befunde verwertet werden. Voraussetzung dafür wäre die Veröffentlichung aller bis dato verfügbaren toxikologisch relevanten Stoffdaten. Im Einklang mit der EU-Zubereitungsrichtlinie von 1988 sei es überdies möglich, die Registrierung von Komplexestern zu vereinfachen, indem man auf die Testdaten ihrer Hydrolyseprodukte zurückgreift. Schließlich erübrigten sich viele Tierversuche, wenn beweisbar sei, dass die Exposition mit bestimmten bedenklichen Stoffen niedrig bleibe.
Auch Aulmann betont: „Alle diese Vereinfachungen erfordern eine Abstimmung mit den zuständigen Behörden und internationale Konventionen. Nur so können international tätige Unternehmen die für sie unabdingbare Planungs- und Rechtssicherheit erlangen.“ Da trifft es sich gut, dass nunmehr auch bislang gegenüber REACh eher skeptisch eingestellte US-Behörden wie die National Institutes of Health (NIH), das National Human Genome Research Institute (NHGRI), das National Chemical Genomics Center (NCGC) und die Environment Protection Agency (EPA) den europäischen Zulassungsbehörden eine enge Kooperation bei der Entwicklung und Verbesserung tierfreier Testmethoden anbieten.
Edgar Gärtner
(erschienen in: Chemische Rundschau Nr. 3 vom 17. März 2008, VS-Medien, CH-Solothurn)
======================================================================
Vorsicht beim Transport von Peressigsäure
Die zu recht oder zu unrecht an die Wand gemalte Gefahr einer Vogelgrippe-Pandemie lässt in der Geflügelzucht den Bedarf am Desinfektionsmittel Peressigsäure (PES) hochschnellen. Doch dieses als besonders umweltfreundlich geltende organische Peroxid erfordert besondere Sorgfalt bei Verpackung und Transport.
Gegenüber kostengünstigen chlorierten Desinfektionsmitteln wie Kalium- oder Natrium-Hypochlorit („Eau de Javelle“) haben halogenfreie Desinfektionsmittel auf der Basis von Peressigsäure (PES) den Vorteil, weder dauerhaft die Gewässer zu belasten noch Rückstände in Nahrungsmitteln wie etwa Chloroform in Butter zu hinterlassen. Von Vorteil ist auch, dass PES bereits in niedriger Konzentration auch schon bei kühlen Temperaturen zwischen 4 und 20 °C mit hoher Sicherheit Viren, Bakterien sowie Pilze und deren Sporen abtötet. Das macht PES zum Mittel der Wahl für die Desinfektion von Geflügelmästereien, Molkereien, Brauereien, Feinkost- und Süßgetränkebetrieben sowie Großküchen.
Doch diese Vorzüge haben ihren Preis. Peroxyessigsäure (CH3CO-OOH) ist akut alles andere als harmlos. Die handelsüblichen Konzentrate von 5 bis 15 % PES, die aufgrund des chemischen Gleichgewichts gleichzeitig Wasserstoffperoxid (H2O2), Essigsäure, Wasser und manchmal einen für die Konzentrationsmessung nötigen Schwefelsäurezusatz enthalten, sind stark ätzend und brandfördernd. Oberhalb einer Konzentration von 17 % unterliegt PES dem Sprengstoffgesetz. Denn PES ist von Natur aus instabil. Sie zerfällt schon bei Zimmertemperatur langsam unter Freisetzung von Sauerstoff und Wärme in Essigsäure (CH3COOH). Dieser Zerfall kann bei höheren Temperaturen und/oder bei Anwesenheit von Katalysatoren gefährlich beschleunigt werden. Dann kann der frei werdende Sauerstoff in fest verschlossenen Transportgebinden rasch ein Druckpolster aufbauen und das Gefäß zum Bersten bringen. Das kann bei größeren Gebinden dramatische Folgen haben. Als Katalysatoren genügen schon Spuren von Zigarettenasche, Rost, Metallspänen oder Staub und Fasern von Putzlappen.
Deshalb hatten die Mitglieder des Industrieverbandes Hygiene und Oberflächenschutz für industrielle und institutionelle Anwendung (IHO) im Rahmen einer freiwilligen Selbstverpflichtung bis 2004 darauf verzichtet, PES-Konzentrate in Großgebinden von über 220 Litern anzubieten und allen, die PES transportieren oder anwenden, dringend die folgenden Sicherheitsvorkehrungen empfohlen:
• PES-Produkte grundsätzlich kühl lagern.
• PES nur aus Originalgebinden dosieren.
• Tanklagerung vermeiden.
• Keine Verunreinigungen in die PES-Behälter gelangen lassen (z.B. durch das Einbringen ungeeigneter Sauglanzen).
• PES nur mit ausdrücklich zugelassen Materialien wie Glas und Porzellan bzw. den Kunststoffen PTFE, HDPE oder Hart-PVC in Kontakt bringen. (Da auch bei diesen grundsätzlich zugelassenen Kunststoffen Versprödungsgefahr besteht, ist bei PES-Konzentrationen über 5 % eine rezepturspezifische Prüfung der Gebinde erforderlich.) Kontakt mit Metallen wie vor allem Eisen, Aluminium und Kupfer absolut vermeiden.
• PES nicht in Leitungen und in Anlagen einschließen.
• Auf manuelles Umfüllen und Herstellen von Gebrauchslösungen verzichten.
Ende April 2004 hat der IHO diese Selbstverpflichtung dahingehend abgeändert, dass er nun wegen inzwischen erzielter Fortschritte auch Großpackmittel (IBC) bis zu einem Nennvolumen von 1.000 Litern akzeptiert, sofern folgende Bedingungen erfüllt sind:
• Das Gewicht der Innenblase muss über 23 Kilo liegen.
• Im Gebinde muss eine Sauglanze mit Entnahmeadapter aus HDPE fest integriert sein. Es darf aber keinen Auslaufhahn am Boden haben.
• Das Gebinde muss einen Warmlagertest von 4 Tagen bei 55 °C und einen Falltest bestanden haben.
• Es muss eine verplombte Befüllöffnung mit Entgasungsventil aufweisen.
• Die Entgasungskapazität muss bei einem Druck von 0,2 bar höher als 220 Liter in der Stunde sein.
• Über der Belüftung muss eine zusätzliche verplombte Sicherheitsabdeckung mit dem Warnhinweis „Nicht öffnen!“ angebracht sein.
• Für sicher erachtet werden nur stabilisierte Produkte mit einen PES-Gehalt unter 17 und einem Gesamtaktivsauerstoffgehalt unter 16,5 Prozent.
• Diese Produkte müssen zweifelsfrei der Gefahrgruppe IV (schwer entzündbar) der Unfallverhütungsvorschrift „Organische Peroxide“ (BGV B4) zugeordnet werden können.
Seit dem 30. Juli 2004 unterliegt die Kennzeichnung von PES-Desinfektionsmitteln den in der EU-Richtlinie 98/8/EG über das Inverkehrbringen von Biozidprodukten enthaltenen detaillierten Etikettierungsvorschriften, die in der deutschen Gefahrstoffverordnung (§ 12, Abs. 11 und § 54, Abs.7) umgesetzt wurden. Neben der Bezeichnung des Wirkstoffes und dessen Konzentration, der Zulassungsnummer, der Zubereitungsart (Flüssigkeit, Granulat, Pulver usw.), dem Verwendungszweck und den zugelassenen Anwenderkategorien muss nach deren Artikel 20, Absatz 3 auf beigefügten Merkblättern oder direkt auf der Verpackung nun auch die Chargennummer und das Verfallsdatum der Formulierung angegeben sein.
Neben der Biozidrichtlinie müssen auch die EU-Richtlinie 1999/45/EG zur Angleichung der Rechts- und Verwaltungsvorschriften der Mitgliedsstaaten für die Einstufung, Verpackung und Kennzeichnung gefährlicher Zubereitungen und die ältere EG-Richtlinie 67/548/EWG zur Angleichung der Rechts- und Verwaltungsvorschriften für die Einstufung, Verpackung und Kennzeichnung gefährlicher Stoffe (umgesetzt im deutschen Chemikaliengesetz) auf den Produktetiketten beachtet werden. Deutlich les- und unverwischbar müssen auf jeder Verpackung die Bezeichnung bzw. der Handelsname der Zubereitung, der Name und die vollständige Anschrift mit Telefonnummer der in der EU niedergelassenen Person, die für deren Inverkehrbringen verantwortlich ist, die chemische Bezeichnung der in der Zubereitung enthaltenen Stoffe, ein Hinweis auf deren besondere Gefahren (R-Sätze), Sicherheitsratschläge und Erste-Hilfe-Anleitungen (S-Sätze) sowie ausreichend große Gefahrensymbole an mehreren Stellen angebracht werden. Hinzu kommen zusätzliche Gefahrenkennzeichen und -zettel entsprechend dem ADR mit der UN-Nummer des verpackten Produkts.
Die ADR-Vorschriften für den Transport von PES-Produkten unterscheiden sich je nach der PES-Konzentration. Bestimmte gebrauchsfertige Desinfektionsmittel mit einem PES-Gehalt von lediglich 0,35 und einer Wasserstoffperoxid-Konzentration von unter 8 Prozent in wässriger Lösung unterliegen gar nicht dem ADR. Produkte mit einem PES-Gehalt von unter 5 Prozent, die mithilfe von mindestens 20 und höchstens 60 Prozent Wasserstoffperoxid stabilisiert sind, unterliegen dem ADR (UN-Nr. 3149). Sie gelten nur dann als thermisch stabil, wenn ihre Selbstzersetzung im Laborversuch erst oberhalb von 60 Grad Celsius beginnt. Sie werden der Gefahrenklasse 5.1 (entzündend wirkende Stoffe) zugerechnet können in geeigneten Versandstücken von 50 Kilogramm von Endanwendern relativ problemlos transportiert werden.
Produkte mit einem PES-Gehalt zwischen 5 bis 15 Prozent (UN 3109) werden jedoch der speziellen Gefahrstoffklasse 5.2 (organische Peroxide) zugeordnet. Solche Produkte gehören nicht in die Hand von Laien. Die für ihren Transport verwendeten Großpackmittel (IBC) müssen den Anforderungen der Verpackungsgruppe II (mittlere Gefahr) entsprechen. Für diese gelten die oben aufgezählten Selbstverpflichtungen und Hinweise des IHO. Nicht stabilisierte organische Peroxide (Typ A) sind überhaupt nicht zur Beförderung zugelassen und tragen folglich auch keine UN-Nummern.
Bei dieser Vielzahl von Sicherheitsinformationen und Ratschlägen zu einer Produktgruppe ist es leicht vorstellbar, dass insbesondere Anwender im ländlichen Raum manchmal die Übersicht verlieren. Wie wenig ernst die Warnungen mitunter genommen werden, zeigt ein Unfall mit Todesfolge, der sich im Sommer 2005 bei Garrel im Landkreis Cloppenburg in Niedersachsen ereignete. Ein kleinerer Putenmäster, der nebenbei gewerblich Dienstleistungen wie die Stalldesinfektion anbot, transportierte in einem Lieferwagen mehrere 50-Liter-Kanister mit Desinfektionsmitteln unbekannter Zusammensetzung. Dabei zerbarst einer der Kanister. Sein Inhalt ergoss sich über den Fahrer, der später in einer Spezialklinik in Hannover seinen schweren Verätzungen erlag. Auch Passanten auf einem vorbeiführenden Radweg, die sich als Ersthelfer betätigten, wurden zum Teil schwer verletzt. Intensiver Essiggeruch an der Unfallstelle und an den Trümmern des Gebindes, das in der Berliner Bundesanstalt für Materialprüfung (BAM) untersucht wurde, kann als untrügliches Zeichen für die Beteiligung von PES gelten.
Doch scheint das Unfallopfer PES regelwidrig umgefüllt und mit einer weiteren ätzenden Flüssigkeit (Ameisensäure oder Formaldehyd) gemischt zu haben. Jedenfalls transportierte er die Zubereitung nicht in den vom regionalen Chemikalienhandel einzig vertriebenen blauen Rücknahmegebinden, sondern in grünen Behältern. Ob die für diesen Zweck geeignet waren, ist fraglich. Zumindest die Staatsanwaltschaft Oldenburg, die dem Verdacht nachging, das Unfallopfer könne vom Chemikalienhandel mit unsachgemäß verpackten oder etikettierten PES-Konzentraten beliefert worden sein, schloss in ihren im März 2006 abgeschlossenen Ermittlungen ein Fremdverschulden am beschriebenen Gefahrgutunfall aus.
Dass der Verdacht auf Fremdverschulden nicht ganz abwegig war, zeigt das kürzlich veröffentlichte Ergebnis einer vom nordrhein-westfälischen Verbraucherschutzministerium (MUNLV) durchgeführten Schwerpunktuntersuchung über die Kennzeichnung potenziell gefährlicher Biozid-Produkte. Nur bei acht von insgesamt 94 untersuchten Produkten (darunter 14 Stalldesinfektions- oder Heimtiersprays) gab es keine Beanstandungen! Um zu vermeiden, dass sich tödliche Unfälle mit Biozidprodukten im Zuge der Vorbeugung oder Bekämpfung der Vogelgrippe häufen, wäre es nun an der Zeit, besser auf die Umsetzung der Etikettierungsvorschriften der EU-Biozidrichtlinie zu achten.
Edgar Gärtner
(veröffentlicht in: Chemische Rundschau, VS-Medien, CH-Solothurn, Nr. 6/2006)
=================================================================
Verunsicherung über PVC-Weichmacher in der EU
Das von der EU Ende 2005 ausgesprochene Verbot von 6 Phthalaten in Baby-Spielzeug beeinflusst auch die Risikobewertung von PVC-Anwendungen in Medizinprodukten.
Im April 2006 veröffentlichte die EU-Kommission endlich drei von insgesamt fünf seit den 90er Jahren bei Instituten verschiedener EU-Mitgliedsstaaten erarbeiteten Risikobewertungen von Phthalaten auf der Basis der EU-Altstoffrichtlinie 793/93/EWG im Amtsblatt der EU (C90/04). Darunter befand sich zum einen Di-butyl-phthalat (DBP), das als „fortpflanzungsgefährdend der Kategorie 2“ eingestuft wird. Dieses Phthalat wird ohnehin nur in sehr geringen Mengen eingesetzt. Dagegen sind die beiden anderen Phthalate, die Gegenstand der Risikobewertungen waren, seit der Jahrtausendwende zu den am häufigsten verwendeten Weichmachern in PVC-Produkten wie Kabeln, Fußbodenbelägen, Planen, Folien, Regenbekleidung, Verpackungen und Spielsachen geworden. Es handelt sich um Di-isononyl-phthalat (DINP) und Di-isodecyl-phthalat (DIDP), die den bisherigen Standardweichmacher Di(2-ethylhexyl)-phthalat (DEHP) entthront haben.
Gerade DINP hat in einer 2003 vom EU Joint Research Institute (IRC) in Ispra/Italien veröffentlichten Risk Assessment Report der auf einer seit 1995 von drei französischen Instituten erarbeiteten Risikoabschätzung beruht, beste Noten erhalten. Es heißt dort: “The end products containing DINP (clothes, building materials, toys and baby equipment) and the sources of exposure (car and public transport interiors, food and food packaging) are unlikely to pose a risk for consumers (adults, infants and newborns) following inhalation, skin contact and ingestion.” Das hat das Europäische Parlament und den EU-Rat nicht davon abgehalten, auch diesen Weichmacher in das am 14. Dezember 2005 durch die 22. Änderung der Richtlinie 76/769/EWG ausgesprochene Verbot der Verwendung von Phthalaten in Kleinkinder-Spielzeug und Babyartikeln einzubeziehen.
Ausgelöst wurde die Konfusion durch eine emotionale Kampagne der Organisation Greenpeace in den 90er Jahren. Darin ging es nicht um DINP, sondern fast ausschließlich um DEHP. Dieses wurde mit verkümmerten Penissen und anderen Missbildungen in Zusammenhang gebracht und galt geradezu als Prototyp einer hormonell wirksamen Chemikalie. DEHP stand ursprünglich auch im Mittelpunkt des nun ab Januar 2007 geltenden Phthalatverbots in Babyartikeln, dem insgesamt 19 provisorische Verbote vorausgingen. Neben DEHP, das längst nicht mehr in Spielsachen verwendet wird, stehen aber auch DBP und BBP sowie DINP und DIDP auf der Verbotsliste, was einer Sippenhaft gleichkommt. Schließlich wird in der Liste auch Di-n-octylphthalat (DNOP) aufgeführt, obwohl es schon seit über einem Jahrzehnt gar nicht mehr produziert wird.
DEHP war schon in den 80er Jahren in Verruf geraten, weil es von der Weltgesundheitsorganisation (WHO) eine Zeitlang aufgrund voreilig interpretierter Rattenexperimente als möglicherweise Leberkrebs auslösend eingestuft worden war. Nachdem diese Fehleinschätzung korrigiert war, konnten G.W. Wolfe und K.A. Layton im Jahre 2003 den Verdacht, DEHP beeinträchtige die Fortpflanzung, durch Rattenexperimente erhärten. In Mehrgenerationen-Studien zeigten männliche Ratten der 2. Generation ein deutlich niedrigeres Hodengewicht, eine verringerte Spermienzahl, fortbestehende Milchleisten usw. Auf der Basis dieser Befunde, über deren Ursachenkette es bislang nur Vermutungen gibt, ermittelte Wolfe einen NOAEL (No Oberserved Adverse Effect Level) von 4,8 Milligramm je Kilogramm Körpergewicht. Daraus lässt sich für den Menschen ein TDI (Tolerable Daily Intake) von 48 Mikrogramm je Kilogramm Körpergewicht am Tag ableiten.
Wie die Auswertung von Urinproben zeigt, wird dieser Vorsorge-Grenzwert im Allgemeinen problemlos eingehalten. Das gilt aber nicht für Risikogruppen wie künstlich ernährte Frühgeborene oder Dialysepatienten, die mithilfe von Weich-PVC-Schläuchen mit einem DEHP-Anteil von bis zu 50 Prozent versorgt werden. Da sich DEHP als lipophile Substanz leicht im Blut löst, können bei der Blutwäsche beträchtliche Mengen des Weichmachers in das Blut übertreten. Dialysepatienten können über die Jahre leicht einen halben Liter DEHP aufnehmen. Ob das negative Auswirkungen auf ihren Organismus hat, lässt sich wegen ihrer im Schnitt noch immer kurzen Lebenserwartung aber nicht ermitteln. Viel problematischer erscheint der DEHP-Einsatz in Infusions- und Intubationsbestecken für die Versorgung von Frühchen oder in gastrointestinalen Sonden für die enterale Ernährung von Kleinkindern. Diese kommen mit der vermutlich hormonell aktiven Substanz zu einem Zeitpunkt in Berührung, an dem ihre Geschlechtsentwicklung noch nicht abgeschlossen ist.
Ausgerechnet bei solchen PVC-Anwendungen konnte DEHP aber nicht durch das günstigere DINP ersetzt werden, da dieses nicht die dort geltenden Anforderungen an die Flexibilität und Tieftemperaturzähigkeit erfüllt. Insbesondere in Blutbeuteln erwies sich Weich-PVC aber als alternativlos, da es als einziger Kunststoff so haltbar verschweißt werden kann, dass die Nähte dem Zentrifugieren und dem Einfrieren standhalten. Nicht zuletzt verhindert PVC die Blutgerinnung an den Beutelwänden und verlängert so die Haltbarkeit von Blutkonserven beträchtlich. Deshalb hat auch das deutsche Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) in Bonn noch im Mai dieses Jahres lediglich Risikominimierungsmaßnahmen wie bessere Kennzeichnungen und Gebrauchsanweisungen für DEHP-haltige Artikel sowie verstärkte Anstrengungen zur Entwicklung risikoärmerer Weichmacher gleichwertiger Qualität für besonders belastete Patientengruppen, aber keinen Verzicht auf PVC in Medizinprodukten empfohlen.
Inzwischen gibt es für diese sensiblen Anwendungen erste gut untersuchte Alternativen zu DEHP. In Deutschland hat die BASF in Ludwigshafen seit 1997 gezielt nach einem Molekül gesucht, das DEHP so weit ähnelt, dass es ohne aufwändige Verfahrensumstellungen als DEHP-Ersatz verwendet werden kann. Dabei kamen die Forscher darauf, die Phthalsäure mit ihrem verdächtigen planaren aromatischen Kohlenstoffring durch das sesselförmige Cyclohexan zu ersetzen. Das Ergebnis war Di-isononylcyclohexan-1,2-dicarboxylat (DINCH). Es zeichnet sich gegenüber DEHP durch eine etwa achtmal geringere Migrationsrate aus, ist aber nur unwesentlich teurer. Als einziger ernst zu nehmender Konkurrent gilt derzeit der US-Konzern Eastman, der Di(2-ethylhexyl)terephthalat (DEHTP) anbietet.
In Deutschland ist DINCH bereits für den Nahrungsmittelkontakt zugelassen. Die Anerkennung durch die EU-Agentur für Nahrungsmittelsicherheit (EFSA) in Parma/Italien steht bevor. Bislang hat aber nur ein Hersteller von Magensonden (Pfrimmer-Nutricia) seine Produkte auf DINCH umgestellt. Die andern zögern, da es noch immer keine Evidenz für adverse Effekte von DEHP beim Menschen gibt. Dagegen wird der Einsatz von DINCH infolge des Phthalatverbots in Baby-Spielsachen nun in der Spielwarenindustrie zum Standard.
Edgar Gärtner
(veröffentlicht in: Kunststoffe-Synthetics, VS-Medien, CH-Solothurn, Nr. 9/2006)
==================================================================
REACh funktioniert wahrscheinlich nur auf dem Papier
Die umstrittene EU-Verordnung über die Registrierung, Bewertung und Zulassung von Stoffen wird voraussichtlich schon im Juni 2007 in Kraft treten. Aufgrund zahlreicher Ungereimtheiten sind Startschwierigkeiten und volkswirtschaftliche Verluste programmiert.
Am 27. Juni 2006 hat der Europäische Rat seine bereits vor Weihnachten 2005 skizzierten Gemeinsamen Standpunkt zur REACh-Verordnung in ausformulierter Form angenommen und dem Europäischen Parlament für die Zweite Lesung unterbreitet. Diese wird im Herbst stattfinden. Da es vor allem über die Genehmigung problematischer, d.h. krebserregender, erbgutschädigender und schwer abbaubare Stoffe nach Anhang VII noch Meinungsverschiedenheiten zwischen dem Rat und dem Parlament gibt, werden die Fraktionen des EP versuchen, noch Veränderungen am Text der Verordnung durchzusetzen. Doch vermutlich wird eine deutliche Mehrheit der Parlamentarier nicht so lange darauf beharren, dass nach der Zweiten Lesung ein Vermittlungsausschuss eingesetzt werden müsste. Denn dadurch würde sich die endgültige Verabschiedung der Verordnung um weitere 12 Wochen verzögern.
Da es sich bei REACh um das ambitionierteste Regulierungsvorhaben handelt, das jemals in Angriff genommen wurde, gibt es nun einen enormen politischen Druck, fünfeinhalb Jahre nach der Veröffentlichung des „Weissbuches zur Chemikaliensicherheit“ durch die EU-Kommission endlich zu einer Einigung zu gelangen. Da haben auch die insbesondere bei kleinen und mittleren Unternehmen weiter bestehenden Zweifel an der Rechtfertigung und Durchführbarkeit wichtiger Bestimmungen der bis jetzt im Parlament und im Rat ausgehandelten Regelungen kaum noch Chancen, berücksichtigt zu werden. Der REACh-Zug ist abgefahren. Ob das inzwischen immerhin um einiges abgespeckte Regulierungsvorhaben auch zur Verbesserung des Umwelt- und Gesundheitsschutzes wird beitragen können, erscheint hingegen als wenig wahrscheinlich.
Finden EP und Rat noch vor Weihnachten einen Kompromiss, dann tritt die REACh-Verordnung schon im Frühjahr 2007 in Kraft. Ihre Umsetzung kann aber erst nach einem Jahr mit der Vorregistrierung der zirka 30.000 „Altstoffe“, die in Mengen von über einer Jahrestonne verwendet werden, beginnen, wenn die Europäische Chemikalienagentur (EChA) in Helsinki ihre Arbeit aufgenommen haben wird. Noch immer bestehen erhebliche Zweifel, ob es gelingen wird, für diese nun mit großen Machtbefugnissen bei der Bewertung und Zulassung von Stoffen ausgestattete Behörde rechtzeitig genügend qualifiziertes Personal zu finden. Für die Vorregistrierung selbst stehen dann nur sechs Monate zur Verfügung. Für die junge Agentur und für das ganze REACh-System dürfte dieser knapp bemessene Zeitraum zur ersten großen Belastungsprobe werden, auch wenn das Europäische Chemikalienbüro (ECB) am Joint Research Center der EU in Ispra/Italien inzwischen modernste Software erarbeitet hat, mit deren Hilfe Vorregistrierung und Registrierung in standardisierter Form über das Internet abgewickelt werden können.
Zur Erinnerung: Am 17. November 2005 hatten sich unterschiedliche Koalitionen im EP einerseits für gewisse Erleichterungen bei der Registrierung kleinvolumiger Stoffe, andererseits aber für eine Erschwerung der Zulassung genehmigungspflichtiger Substanzen und eine Substitutionspflicht für als problematisch erachtete Stoffe ausgesprochen. Der Europäische Rat hat am 13. Dezember 2005 diese Verschärfung der Zulassungsbedingungen übernommen und gleichzeitig die vom EP vorgeschlagenen Erleichterungen der Registrierung größtenteils wieder rückgängig gemacht.
Die Vorregistrierung von Phase-in-Substanzen erfordert nach dem Votum des EP lediglich die Angabe des Namens und der Adresse des Herstellers (oder eines Vertreters), sowie der Bezeichnung der Substanz, eine kurze Beschreibung der bekannten Verwendungen und Expositionskategorien sowie eine Liste der Verwendungen, die registriert werden sollen. Der Rat fordert zusätzlich Informationen über vorliegende quantitative Struktur-Wirkungs-Abschätzungen (QSAR) und die Angabe des voraussichtlichen Zeitpunktes der Registrierung. Firmen, die das Zeitfenster für die Vorregistrierung verpassen und die Verwendung REACh unterworfener Stoffe nicht anmelden, verlieren die „Altstoffen“ zugestandene Vorzugsbehandlung und müssen ihre Roh- und Hilfsstoffe, sobald ihr Gesamtbedarf eine Tonne übersteigt, wie Neustoffe registrieren lassen. 18 Monate nach Beendigung der Vorregistrierung veröffentlicht die EChA alle in ihrer Datenbank registrierten Angaben im Internet.
Die Registrierung beginnt parallel zur Vorregistrierung mit den „Großstoffen“, deren Jahresproduktion 1000 Tonnen überschreitet, sowie den als „prioritär“ eingestuften kleinvolumigen Stoffen. Diese soll nach drei Jahren abgeschlossen sein. In den folgenden drei Jahren stehen die Stoffe mit einer Jahresproduktion zwischen 100 und 1000 Tonnen zur Registrierung an. Für die Registrierung der Stoffe, die nur in der Größenordnung zwischen einer und 100 Jahrestonnen hergestellt oder importiert werden, stehen weitere fünf Jahre zur Verfügung. Vor allem mittelständische Unternehmen, die kleinvolumige Spezialitäten und Zubereitungen anbieten, haben also noch bis Mitte 2018, um die Verordnung umzusetzen. Wie zu hören ist, betrachten etliche von ihnen die verbleibenden 11 Jahre als Gnadenfrist vor der Geschäftsaufgabe, weil sie sich schlecht vorstellen können, mit ihren bescheidenen finanziellen und personellen Ressourcen den neuen Anforderungen nachkommen zu können.
Das gilt zum Beispiel für die Verpflichtung der Mitarbeit in Substance Information Exchange Foren (SIEF), die vor allem dazu dienen sollen, die Zahl von Tierversuchen zu minimieren und zu einer einheitlichen Klassifizierung und Etikettierung von Stoffen zu gelangen. Die SIEF-Teilnehmer müssen in den 20 Monaten nach dem Inkrafttreten der Verordnung Informationen über bereits vorhandene Stoffuntersuchungen austauschen, um erkennen zu können, welche Studien noch benötigt werden, um den REACh-Anforderungen zu genügen. Studien auf der Basis von Versuchen mit Wirbeltieren sollen allen SIEF-Teilnehmern auf Anforderung zur Verfügung gestellt werden. Deren Eigentümern bleiben nach einer an sie gerichteten Anfrage nur zwei Wochen, um die Kosten ihrer Studie zu belegen. Die Teilung der Kosten innerhalb eines SIEF soll „fair, transparent und nicht diskriminierend“ erfolgen. Nach den Vorstellungen des Rates soll die EChA sogar die unentgeltliche Herausgabe von Testdaten verlangen können, wenn im SIEF keine finanzielle Einigung erzielt wird. In der Praxis dürfte, wie die Umsetzung der bereits in Kraft getretenen EU-Biozidrichtlinie zeigt, die Kostenteilung je Kopf und nicht nach Umsatz zum Regelfall werden, was umsatzschwache SIEF-Teilnehmer aus dem Mittelstand benachteiligen würde. Neue Tests, die Versuche an Wirbeltieren erfordern, müssen gemeinsam durchgeführt werden. Bei Tests mit wirbellosen Tieren sieht das EP, im Unterschied zum Rat, Opt-Out-Klauseln vor.
Die für die Registrierung von Stoffverwendungen notwendigen Informationen müssen in technischen Dossiers zusammengefasst werden. Bei den etwa 20.000 kleinvolumigen Altstoffen zwischen einer und 10 Jahrestonnen sind detaillierte Angaben über die akute Toxizität, die biologische Abbaubarkeit usw. nur dann nötig, wenn sie als „prioritär“ bzw. „of very high concern“ (VHC) eingestuft werden, d.h. wenn die begründete Vermutung besteht, dass es sich dabei um krebserregende, fruchtschädigende bzw. „vergleichbar Besorgnis erregende Stoffe“ handelt. Soweit bereits vorhanden, sollen die Firmen solche Daten aber auch für die übrigen Stoffe vorlegen. Ansonsten genügen Angaben über die physikalisch-chemischen Eigenschaften (spezifisches Gewicht, Schmelzpunkt, Dampfdruck, Flammpunkt usw.). Diese Daten liegen in Deutschland aufgrund einer schon 1997 vom VCI gegenüber dem Bundesumweltministerium (BMU) abgegebenen Selbstverpflichtung bereits vor. Auf welche Weise sie dem Mittelstand zugänglich gemacht werden, wird noch diskutiert.
Bei Stoffen, deren Produktion bzw. Import 10 Jahrestonnen übersteigt, müssen zusätzlich Daten über die akute und Algentoxizität, die biologische Abbaubarkeit und weitere Angaben nach Anhang VI der Verordnung beschafft bzw. generiert werden. Diese Daten bilden die Grundlage für die ab dieser Stufe vorgeschriebenen Stoffsicherheitsberichte (CSR). Für Stoffe ab 100 bzw. 1000 Jahrestonnen gelten zusätzlich die im Anhang VII bzw. in den Anhängen VII und VIII aufgelisteten aufwändigeren Testanforderungen wie 28- bzw. 90-Tage-Tests usw. Das deutsche Bundeswirtschaftsministerium hält sich zugute, durchgesetzt zu haben, dass nur ein Teil der vorgesehenen Tests den aufwändigen GLP-Standards der OECD genügen muss.
Um die Kosten zu begrenzen und die Zahl der Tierversuche gering zu halten, sind Hersteller, Importeure und Verarbeiter, die die gleiche Stoffverwendung registrieren lassen wollen, nach dem Prinzip „One Substance, One Registration“ (OSOR) verpflichtet, sich zu Konsortien zusammenzuschießen. Es gibt aber die Möglichkeit eines „Opt-out“ – und zwar, wenn eine gemeinsame Registrierung für einzelne Konsortienteilnehmer unverhältnismäßig kostspielig wäre, wenn sie Geschäftsgeheimnisse preisgeben müssten oder wenn sie sich mit dem Konsortienführer nicht über die Auswahl kritischer Informationen einigen können. Hier liegt ein großes Konfliktpotential, zumal ungeklärt ist, wie Unternehmen zu behandeln sind, die sich zu einem späteren Zeitpunkt bereits arbeitenden Konsortien anschließen möchten.
Es ist zu befürchten, dass etliche kleinvolumige, aber schwer ersetzbare Additive und Hilfsstoffe der Kunststoff-, Textil-, Leder- oder Papierindustrie völlig vom Markt verschwinden werden, weil sich ihre Hersteller den großen Aufwand für die Registrierung nicht leisten können. Wie viele Stoffe das sein werden, vermag aber derzeit niemand realistisch abzuschätzen. Erhardt Fiebiger, der Geschäftsführer der Zschimmer & Schwarz GmbH & Co KG (Lahnstein) hat kürzlich an Hand konkreter Beispiele auf diese Gefahr hingewiesen. Auf der diesjährigen Mitgliederversammlung der Arbeitsgemeinschaft PVC und Umwelt (AgPU) im Juni in Bonn berichtete Dr. Gabriele Brenner von der Konrad Hornschuch AG (Weißbach), einem bekannten mittelständischen Hersteller von Selbstklebefolien (d-c-fix) und Kunstleder (skai), erste Vorprodukte würden der Firma unter Hinweis auf REACh bereits nicht mehr geliefert. Da die Suche nach Alternativen aber Jahre in Anspruch nehmen kann, ist nicht auszuschließen, dass in naher Zukunft verschiedene kleinvolumige und daher unauffällige Additive und Hilfsstoffe auf Grau- oder Schwarzmärkten gehandelt werden.
Deshalb ist die Einbeziehung der Verarbeiter (downstream users) in den Prozess der Expositionsabschätzung, Risikobewertung und die Abfassung der CSR besonders konfliktträchtig. Die Konsortienführer können kaum Interesse daran haben, in den CSR auch in ihren Augen „nebensächliche“ und unverhältnismäßig teure Stoffanwendungen zu berücksichtigen. Werden REACh-pflichtige Stoffe verwendet, die nicht im Expositionsszenario berücksichtigt wurden, das dem CSR zugrunde liegt, müssen die Anwender eigens einen CSR erstellen, sofern ihr Einsatz eine Jahrestonne übersteigt. Andererseits bekommen Hersteller oder Importeure von Stoffen von ihren Kunden oft keine Auskunft über deren Verwendung. So berichtete zum Beispiel ein Vertreter der Henkel KGaA auf einer von Ciba Expert Services (Basel) gesponserten Konferenz über REACh und die Verpackungsindustrie Anfang Juli in Madrid, dass Anwender von Produkten der Klebstoffsparte Fragebögen über deren vorgesehene Verwendung oft nicht beantworten. Durch die Einführung breiterer Expositionskategorien, die schon vor Jahren vom deutschen Chemieverband und vom Freiburger Öko-Institut vorgeschlagen worden war, wurde dieser Konfliktherd nur teilweise entschärft.
An solchen Beispielen zeigt sich, dass wichtige Informationen oft nicht dort verfügbar sind, wo man sie braucht. Darauf weist auch in aller Deutlichkeit der Abschlussbericht des strategischen Partnerschaftsprojekts PRODUCE (Piloting REACH On Downstream Use and Communication in Europe) hin. Auf Anregung des Unilever-Konzerns wurde PRODUCE gestartet, um zu testen, ob die Kommunikation zwischen den Chemikalienherstellern bzw. -importeuren und den Herstellern von Produkten für den Endverbrauch funktioniert. Partner des Projekts waren drei Generaldirektionen der EU-Kommission, vier EU-Mitgliedsstaaten sowie einige Lieferanten und Anwender von Chemikalien. Beobachtet von einer Multi-Stakeholder-Steuerungsgruppe unter Vorsitz des niederländischen Grünen Europa-Abgeordneten Alexander de Roo, führten die Partner des Projekts ein realitätsnahes Planspiel durch. Die Bilanz de Roos, eines glühenden Verfechters von REACh, fiel ernüchternd aus: „REACH is extremely time-consuming and hard to grasp in its entirety but it is not unworkable.” Insbesondere weist der Abschlussbericht von PRODUCE darauf hin, dass die Verarbeiter in der Regel nicht das Gesamtvolumen eines von ihnen verwendeten Stoffes kennen können und daher gar nicht wissen, ob er im konkreten Fall REACh unterworfen ist. Charles Laroche, Vice President von Unilever (Brüssel) erwartet deshalb einen schwierigen Start von REACh: „Consumer trust will get worse before getting better“, erklärte er auf der Konferenz über REACh und die Verpackungsindustrie in Madrid.
Auch der Umgang mit Geschäftsgeheimnissen wurde im Rahmen des PRODUCE-Projektes kritisch eingeschätzt. Das gelte insbesondere für Bestandteile von Zubereitungen. Für deren adäquate Behandlung in Expositionsszenarios und Risikoabschätzungen gebe es keinen Königsweg. Der Bericht verweist hier auf die Möglichkeiten, die Branchenverbände der Wirtschaft bzw. Wertschöpfungsketten übergreifende Initiativen wie HERA bieten. Ob es dadurch gelingen wird, den Ängsten kleinerer Unternehmen vor Know-how-Klau die Grundlage zu entziehen, bleibt dahin gestellt. Sobald Stoff- und Produktdaten erst einmal im Internet stehen, scheint es extrem schwer, Neugierige davon abzuhalten, ihre Nase mithilfe von Suchmaschinen tiefer in die Materie zu stecken. Das räumte auch Dr. Uwe Lahl, der im deutschen Bundes-Umweltministerium (BMU) für REACh zuständig ist, in einem im März vom VCI und der IG BCE in Berlin veranstalteten Workshop der Reihe „Gesprächsstoffe“ ein.
Wegen der Marktmacht großer Konsumgüter-Anbieter wie Procter & Gamble oder Unilever besteht überdies die reale Gefahr, dass mittelständische Unternehmen ihre Rolle als eigenständige Innovationsmotoren verlieren und zu passiven Auftragnehmern großer Konzerne werden – sofern sie nicht von billigeren Konkurrenten aus Fernost ganz aus dem Markt gedrängt werden. Nur große Konsumgüterkonzerne wären dann noch in der Lage, durch ihren kurzen Draht zur EU-Kommission bzw. ihr Gewicht in Stakeholder-Foren oder Steuerungsgruppen Neuerungen durchsetzen zu können bzw. als politisch korrekt anerkannt zu bekommen. Immerhin bringt REACh denen, die es sich in Zukunft noch leisten können, neue Stoffe zu entwickeln und auf den Markt zu bringen, deutliche Vorteile gegenüber bisherigen Regelungen. Darauf wies Sue Anderson, die Chefin von Ciba Expert Services, auf der erwähnten Konferenz in Madrid hin. Vor allem werde sich die Zeitspanne bis zur Markteinführung neuer Stoffe deutlich verkürzen und Neuerungen würden durch eine fünfjährige Freistellung (mit Verlängerungsmöglichkeit) von der Registrierungspflicht ermutigt.
Die Begünstigung großer Marktteilnehmer dürfte noch deutlich verstärkt werden durch die Verschärfung der Stoffzulassungs-Bedingungen, für die das EP sich am 17. November 2005 ausgesprochen hat. Nach der vom EP verabschiedeten Version des Artikels 52 der REACh-Verordnung sollen VHC-Stoffe nur noch dann zugelassen werden, wenn keine Alternativen verfügbar sind und wenn ihr gesellschaftlicher Nutzen die Risiken ihres Einsatzes rechtfertigt. Nicht der sichere Umgang mit potentiell gefährlichen Stoffen, sondern ihre durch das Vorsichtsprinzip begründete Substitution um beinahe jeden Preis wird als das Ziel von REACh hingestellt.
Der vom EP formulierte Artikel 56 fordert, die in Art. 54 definierten VHC-Substanzen, die einer Zulassung bedürfen, in einem neuen Anhang (Annex XIII, jetzt: XIV) aufzulisten. Diese „Kandidatenliste“ wurde inzwischen zum Gegenstand heftiger Polemik. Denn es besteht die reale Gefahr, dass dieses Verzeichnis verdächtiger Stoffe sowohl von Umweltgruppen als auch von reputationsgefährdeten Konsumgüterherstellern als „Schwarze Liste“ interpretiert wird. So erklärte die amerikanische Handelskammer in Europa (AmChamEU) in einem im April 2006 veröffentlichten Positionspapier: “It is expected/feared that this list will be used by Green NGOs and their Governmental supporters to force companies to not use these substances before they have an opportunity to be authorised and while REACh allows for their lawful use.” AmChamEU sieht in der “Kandidatenliste” ein ungerechtfertigtes Handelshemmnis und hat bereits Klagen bei der WTO angekündigt. Der deutsche Chemieverband schloss sich in einem am 22. Mai veröffentlichten Statement zum EP-Votum den Befürchtungen der Amerikaner an. Dennoch hat der EU-Rat in seiner Gemeinsamen Position am Anhang XIV festgehalten.
Dagegen hat der Rat die vom EP in Art. 59 (früher: 57) eingeführte Befristung der Zulassung auf höchstens fünf Jahre zurückgenommen. Nun soll die EChA von Fall zu Fall entscheiden, in welchen Abständen die jeweilige Zulassung überprüft werden soll. Ob die Unternehmen damit an Rechts- und Investitionssicherheit gewinnen, bleibt dahingestellt. Ohnehin ist es offen, ob die Mehrheit des EP in Zweiter Lesung aufgrund schwieriger Kompromisse bzw. Kuhhändeln zwischen den Fraktionen und wegen des starken Drucks durch Umweltverbände wie Greenpeace oder WWF nicht doch auf ihrer in Erster Lesung eingeschlagenen harten Linie bleibt und auf der Pflicht zur Substitution besonders besorgniserregender Stoffe beharrt. Weil er offenbar Schlimmes ahnt, hat deshalb Bundeswirtschaftsminister Michael Glos Anfang Juli bei einem Gespräch mit EP-Präsident Joseph Borrell angekündigt, dass er weder im Rat noch in einem eventuell eingerichteten Vermittlungsausschuss einem Kompromiss zustimmen werde, der eine Befristung der Stoffzulassung und eine Substitutionspflicht enthält.
Ob die REACh-Verordnung zu den von ihren Befürwortern erhofften Ergebnissen führen wird, hängt nicht nur davon ab, wie sie selbst gestrickt ist. Vielmehr kommt es auch darauf an, wieweit sie sich mit bereits geltenden Regelungen verträgt. Um Reibungen zu minimieren, haben EP und Rat den Geltungsbereich von REACh bereits deutlich eingeengt. Der Rat hat entschieden, neben Lebensmitteln, Pharma- und Kosmetikprodukten auch „natürliche Substanzen“ wie Papierbrei, Erze und Mineralien und sogar Zementklinker aus dem Geltungsbereich von REACh herauszunehmen. Nicht betroffen von REACh sollen auch Abfälle und Recyclingprodukte sein. So liegt es für Unternehmen nun nahe, Artikel zu Abfällen bzw. Recyclingprodukten zu erklären, um REACh zu entgehen. Deshalb hat der Rat bereits angekündigt, als nächstes stehe eine entsprechende Novellierung der EU-Abfallrahmenrichtlinie 75/442/EWG an.
Ungelöst sind auch Konflikte zwischen REACh und den bestehenden nationalen Arbeitsschutzregelungen. Während REACh auf eine totale Harmonisierung der stoffbezogenen Vorschriften abzielt, werden die Arbeitgeber durch die geltende deutsche Gefahrstoffverordnung und ähnliche Regelungen in andern EU-Staaten eher dazu angehalten, Gefährdungen in Abstimmung mit der Arbeitnehmervertretung eigenverantwortlich zu beurteilen und entsprechende Schutzmaßnahmen einzuleiten. Durch REACh drohen also Eingriffe in eingespielte Systeme betrieblicher Mitbestimmung und Selbstverwaltung, deren Konsequenzen noch gar nicht absehbar sind.
Die Tatsache, dass südeuropäische Unternehmen im europäischen Einspruch-Aktionsbündnis des Chemie-Mittelstandes gegen Existenz bedrohende Bestimmungen von REACh kaum vertreten sind, weist nach Dr. Alex Föller, Geschäftsführer von TEGEWA, des Verbandes der Hersteller von Textil-, Leder-, Papier- und Kosmetikhilfsmitteln usw., darauf hin, dass diese wie selbstverständlich davon ausgehen, sie könnten weiterwursteln wie bisher. Vieles weist in der Tat darauf hin, dass wesentliche Vorschriften von REACh nur auf dem Papier funktionieren werden. Denn niemand kann sich vorstellen, wie die Umsetzung der etwa 700 Druckseiten umfassenden Vorschriften bis zum kleinsten Anwender kontrolliert werden könnte. „Für uns zählt ohnehin nur, dass die Papiere in Ordnung sind“, bekennt ein Vertreter des deutschen Bundeswirtschaftsministeriums freimütig.
(veröffentlicht in: CR-Chemische Rundschau (VS-Medien, CH-Solothurn) Nr. 8/2006)
Anti-Grün ist lustig
Lars Niedereichholz: Unknorke. Roman. Piper Verlag, München 2008. 236 Seiten. € 12,- ISBN 978-3-492-27159-2
Der bekannte Mundstuhl-Comedian Lars Niedereichholz (Jahrgang 1968) schwimmt mit seinem bösartig anti-grünen Roman-Erstling mit dem verheißungsvollen Titel „Unknorke“ auf einer Woge des Erfolgs. Auch seine gut besuchten Lesungen, von denen ich eine während der Buchmesse in der Frankfurter Bar „Nachtleben“ genossen habe, sind Kabarettreif. „Unknorke“ bedeutet, wie man sich denken kann, das Gegenteil des im Multikulti-Alternativ-Newspeak für „gut“ stehenden Berlinerischen „knorke“. Es handelt sich beim vorliegenden Roman um die Geschichte des nicht mehr ganz so jungen Volkswirtschaftlers Marc, der nach einem wenig zielstrebigen Studium in der Chefetage der Alternativen Multikulturellen Ökologie Bank (kurz AMÖB) anheuert und gleichzeitig mit seiner hochschwangeren Frau Nadja in ein nagelneues, aber leider undichtes Reihenhaus einzieht. Bald stellt es sich heraus, dass es sich bei der AMÖB um eine chaotisch gemanagte Schwindelfirma handelt, die die Weltverbesserungs-Sehnsucht grüner Naivlinge zu Geld macht. Mehr möchte ich hier von dem pointenreichen und ausgesprochen lustigen Büchlein nicht verraten. Manches erscheint mir allerdings etwas zu dick aufgetragen. Weiterlesen
Christliches Europa
Alle, die es sich zur Lebensaufgabe gemacht haben, als Schreibtischtäter eifrig mitzuhelfen bei der Konstruktion eines werterelativen, „multikulturellen“ Europa ohne Bindung an seine christlichen Wurzeln, schießen sich nun auf euroskeptische Politiker ein. Damit hoffen sie wohl, von ihrer eigenen Ratlosigkeit angesichts der von ihrer interventionistischen Hybris mitverschuldeten Wirtschaftskrise ablenken zu können.
Was heißt Integration? Von Edgar Gärtner
Oder: Warum Nihilismus nicht gegen Terrorismus hilft
Über die geifernde Reaktion deutscher „Qualitätsjournalisten“ auf den beeindruckenden Wahlerfolg des liberalen Europaskeptikers Geert Wilders in den Niederlanden ist schon das Nötigste gesagt worden. Landauf, landab wird Geert Wilders nicht nur als „Rechtspopulist“, sondern auch als „Islamhasser“ geschmäht. Da hilft es wenig, wenn man darauf hinweist, dass der Verunglimpfte immer wieder betont hat, gegen Muslime an sich nichts zu haben, wohl aber gegen eine blauäugige Immigrationspolitik, die Integration mit Kapitulation gegenüber den archaischen moralischen Einstellungen von Clans verwechselt und dadurch nicht nur die Gettoisierung der Einwandererfamilien fördert, sondern auch den Terrorismus. Ich bin nicht mit allem einverstanden, was Wilders fordert. Zum Beispiel würde ich nicht den Koran verbieten, sondern eher dafür sorgen, dass möglichst viele Europäer den Koran lesen und mit der Bibel vergleichen, um sich selbst ein Urteil darüber bilden zu können.
Aus Berichten zum Christentum konvertierter Muslime, die in Deutschland als vom Tod bedrohte Apostaten unter Decknamen leben müssen, wissen wir, dass die christliche Lehre von der Macht der Liebe und der göttlichen Gnade gerade auf tiefgläubige Muslime eine große Anziehungskraft ausübt. Denn der Islam verleiht nur jenen Heilsgewissheit, die im Djihad den Märtyrertod sterben. Alle anderen bleiben – egal wie viel gute oder schlechte Taten sie in ihrem Leben auch begehen mögen – der Willkür eines fernen, über die Schöpfung erhabenen und unberechenbaren, weil nicht an die Kategorie der Vernünftigkeit gebundenen Gottes ausgeliefert. Diese Ungewissheit lastet auf dem Denken und Fühlen vieler Muslime und verleitet einige von ihnen, in schwierigen Lebenssituationen den vermeintlich einzigen ihnen offen stehenden Weg zum Heil einzuschlagen – und dadurch in Wirklichkeit der schlimmsten Form des von ihnen abgelehnten Nihilismus zu verfallen. Einen Ausweg aus diesem Teufelskreis bietet die christliche Lehre, die nicht ausschließt, dass auch Ungläubige und Sünder Gnade erlangen. Sie kann deshalb gerade auf verzweifelte Muslime befreiend wirken, sofern diese überhaupt die Gelegenheit bekommen, sie unverfälscht kennenzulernen.
Leider brauchen fromme muslimische Einwanderer in Westeuropa oft Jahre, bis sie überhaupt einem wirklich gläubigen Christen begegnen. (Ich hatte vor einigen Wochen selbst Gelegenheit, mir entsprechende Berichte auf einer Veranstaltung in Bad Nauheim anzuhören.) Lernt ein wirklich gläubiger Muslim einen wirklich gläubigen Christen kennen, der ihm die Bedeutung von Jesus’ stellvertretendem Sühnetod am Kreuz erklärt, sind die Chancen groß, dass der Muslim über kurz oder lang zum Christentum konvertiert, weil dieses ihm als die humanere Religion erscheinen wird. Es ist nicht das bei uns kaum noch sichtbare Christentum, das Muslime provoziert, sondern der im Westen verbreitete relativistische Nihilismus und der damit verbundene dekadente Lebensstil.
„Terroristisches Gedankengut ist latent in jedem Moslem vorhanden“, schreibt der Konvertit Nassim Ben Iman (Pseudonym) in einem vor einigen Jahren erschienen frommen Büchlein. Ein Sinneswandel sei nur über die „Wiedergeburt durch Jesus Christus, den Erlöser“ zu erwarten. Als hätte er Barack Obamas jüngsten nihilistischen Kniefall vor dem Islamismus in Kairo vor Augen gehabt, betont Nassim: „Dies ist die Hoffnung, die in meinem arabischen Blut lebt: Am Grab, also am Kreuz und in der Wiederauferstehung von Jesus Juden und Araber vereint zu sehen, die ihren gemeinsam Erlöser Jesus Christus anbeten, (…) Ob Terroristen oder nur potenzielle Terroristen – alle sind gleichermaßen ohne den Glauben an Jesus verloren.“
Hätten sich Obamas Berater mehr mit der Theorie des Politischen von Carl Schmitt beschäftigt, wüsste er, dass man in der Politik nicht durch das Verwischen von Unterschieden weiter kommt, sondern nur, indem man sein Feindbild klar benennt. Nur dann können Feinde unter gewissen Umständen auch einmal zu Bündnispartnern werden. In der zurzeit modischen ökumenischen Umarmung erscheinen demgegenüber alle, die sich nicht dem Diktat des Relativismus unterwerfen und wirklich noch an etwas glauben und der Wahrheit anhängen, notwendigerweise als üble Spielverderber. Konkreter: Ist der Nihilismus erst einmal als Hauptfeind der Aufklärung ausgemacht, dann wird es auch denkbar, in frommen Muslimen punktuelle Bündnispartner zu sehen. Optimistisch stimmen mich in dieser Hinsicht die Meditationen des heute in den USA lebenden algerischen Poeten Kebir M. Ammi über den heiligen Augustinus, den Begründer der christlichen Aufklärung, des sehenden Glaubens. Auch Papst Benedikt XVI., einer der wenigen Augustinus-Kenner in der heutigen katholischen Hierarchie, hat das wohl begriffen.
Literatur:
Nassim Ben Iman: Der wahre Feind. …warum ich kein Terrorist geworden bin. Leuchter Edition. Erzhausen, 2002.
Kebir M. Ammi: Sur les pas de saint Augustin. Presses de la Renaissance. Paris, 2007
(7. Juni 2009)
=====================================================================
Papst Benedikt XVI. stört die Nihilisten
In der EU ist der Nihilismus in Gestalt des darwinistischen Reduktionismus und des Kulturrelativismus quasi zur Staatsdoktrin geworden. Hinter dieser selbstmörderischen Haltung steht nicht zuletzt das Wirken von Netzwerken der Freimaurer, die seit langem die Europäische Kommission beherrschen. Diese Netzwerke haben dafür gesorgt, dass im zweiten Anlauf zu einer europäischen Verfassung in Gestalt des Lissaboner Vertrags nicht mehr auf die besondere Rolle des Christentums bei der Herausbildung der europäischen Identität verwiesen wird. Dieses Machwerk ist freilich noch längst nicht in trockenen Tüchern. Die aktuelle Finanzkrise und die hilflose Art, mit der die Politik damit umgeht, zeigt, dass unsere neunmalklugen Berufspolitiker in Wirklichkeit nicht wissen, wo ihnen der Kopf steht und nur so tun können, als wüssten sie, wo es langgeht. Da gab ihnen die Aufhebung der Exkommunikation von vier Bischöfen der traditionalistischen und z.T. europaskeptischen Pius-Bruderschaft und die Tatsache, dass einer dieser vier Bischöfe die Bedeutung von Gaskammern im Nazi-Reich herunterspielt, eine willkommene Gelegenheit, auf das ihnen intellektuell haushoch überlegene Oberhaupt der römisch-katholischen Kirche einzudreschen. Dabei vermieden sie es tunlichst, ihrem Publikum zu erklären, dass die Aufhebung der Exkommunikation nicht gleichbedeutend ist mit der Wiedereingliederung der Traditionalisten in die römisch-katholische Kirche, sondern nur eine Vorbedingung für die Wiederaufnahme des Dialogs mit ihnen.
„Was treibt denn den Joseph Ratzinger aus Marktl am Inn nur um, dass er sich mit allen anlegt? Aggressiv von Natur scheint er nicht. Salutschüsse aus Kanonen und Gewehren von Schützenvereinen erschrecken ihn noch immer. Es muss wohl daran liegen, dass Joseph Ratzinger vor allem eines ist: grundzufrieden katholisch. Dies ist im intellektuellen Europa eine relativ seltene, und wenn, dann meist verborgene Geisteshaltung; damit zieht man wie der heilige Sebastian die Pfeile bei jeder Gelegenheit auf sich“, schreibt Heinz-Joachim Fischer, der Vatikan-Korrespondent der FAZ, in der „Frankfurter Allgemeinen Sonntagszeitung“ vom 1. Februar 2009. Fischer hat damit auf den Punkt gebracht, dass es gerade kulturelle Selbstverständlichkeiten sind, die die westeuropäische „Dressur-Elite“ auf die Palme treiben. Doch mit dem Versuch, damit das Kirchenvolk gegen seinen geistigen Oberhirten aufzubringen, werden sie vermutlich nicht weit kommen. Anders als die Politik, die ständig darauf angewiesen ist, Journalisten zu manipulieren, um Lügengebäude wie die Mär von der drohenden Klimakatastrophe aufrecht zu erhalten, kann es sich der heilige Vater leisten, ohne Umschweife die Wahrheit auszusprechen und Entscheidungen ohne diplomatische Hintergedanken und Zweideutigkeiten zu treffen. Anerkennend weist Heinz-Joachim Fischer in einem ansonsten eher kritischen Artikel darauf hin, wenn er am 4. Februar 2009 in der FAZ schreibt: „dass der Vatikan informiert, doch keine aktive Presse-Politik betreibt: Er manipuliert nicht Journalisten, um die Öffentlichkeit einzustimmen, wie es in demokratischen Regierungszentralen üblich ist. Der Papst hat einen Privatsekretär, aber kein Präsidialamt mit Staatsministern, Stäben, Fachabteilungen und vielen Fachleuten, die ihm ständig zuflüstern, wie dies oder jenes ‚wirkt‘.“
Mein Freund André Lichtschlag hat auf ef-online weiteres Bedenkenswertes zu dem Vorgang gesagt. Seither gibt es in Deutschland tendenziell nur noch ein Thema. Durch die Bank fordern Berufspolitiker und „Qualitätsmedien“, allen voran Bundeskanzlerin Angela Merkel, den Stellvertreter Gottes auf Erden auf, Abbitte zu leisten. Gleichzeitig tolerieren sie antisemitische Hassparolen von Hamas-Anhängern auf deutschen Straßen. Das hat es noch nie gegeben. André Lichtschlag hat in einem neuen Blog gezeigt, dass die Selbstgleichschaltung deutscher „Qualitätsmedien“ kein Zufall ist. Eine noch weiter gehende Analyse der Hintergründe des Papst-Bashing in deutschen Medien hat Andreas Puettmann von „Komma“ auf KATH.NET veröffentlicht.
In der „Frankfurter Allgemeinen Sonntagszeitung“ vom 15. Februar 2009 erklärt der bekannte katholische Philosoph Robert Spaemann, was hinter der in Europa wachsenden religiösen Intolerenz steckt: „…es hat etwas zu tun mit dem sich ausbreitenden radikalen Relativismus. Dort, wo man denkt, dass Wahrheit erreichbar ist für den Menschen, da gibt es Diskurs, da gibt es einen Kampf der Meinungen, aber alle wollen das gleiche Ziel: Sie wollen wissen, wie es wirklich ist. In einer radikal relativistischen Gesellschaft gibt es dagegen nicht mehr das Moment der Regulation durch die Wahrheitsidee, sondern nur noch die Regulation durch das Konventionelle, das auch im Interesse derer ist, die gerade die Macht haben.“ Ein ausführlicheres Gespräch mit Robert Spaemann von Regina Einig von der katholischen „Tagespost“ findet sich beim katholischen Nachrichtendienst KATH.NET.
Die Gründe für diese Hass-Kampagne liegen auf der Hand: Seit dem legendären Auftritt Papst Johannes Pauls II. in seinem damals noch kommunistisch beherrschten Heimatland Polen weiß die europäische „Elite“, dass die „Soft Power“ des Vatikan in der Lage ist, totalitäre Herrschaftssysteme zu Fall zu bringen. Aktuell fürchtet die „Elite“ um Bundeskanzlerin Angela Merkel, angesichts der fortschreitenden wirtschaftlichen Rezession, vor allem um die Zukunft ihrer totalitären „Klimapolitik“ und um den Erfolg ihrer Kampagne für die Gründung eines dirigistischen Uno-Wirtschaftsrates als Meilenstein auf dem Weg zu einer dezidiert antichristlichen „Neuen Weltordnung.“ Es ist bekannt, dass der Papst vor dieser Hybris warnt. In seiner Friedensbotschft vom Beginn dieses Jahres hat er sich ausdrücklich für marktwirtschaftliche Wege der Armutsbekämpfung nach dem Subsidiaritätsprinzip ausgesprochen. Noch weniger hält der heilige Vater von dem vom neuen US-Präsidenten Obama aktiv mit Staatsgeldern geförderten Versuch, der Armut in der Dritten Welt durch Abtreibungskampagnen zu begegnen. Unter seinem Amtsvorgänger Bush war das durch ein Gesetz ausdrücklich untersagt. In einer seiner ersten Amthandlungen hob Präsident Obama dieses Gesetz auf. Somit können die USA über die von ihnen maßgeblich finanzierte Uno und mithilfe von „grünen“ NGOs nun im großen Stil Kampagnen für die Geburtenkontrolle finanzieren. Dem Vatikan bleibt in dieser Situation nichts anderes übrig, als in der Bevölkerungspolitik die Zusammenarbeit mit muslimischen Organisationen zu suchen. Weiter möchte ich noch hinweisen auf den erhellenden Beitrag des Büchner-Preisträgers Martin Mosebach im SPIEGEL Nr. 7/2009, der auch auf KATH.NET steht. Schließlich möchte ich noch auf die ebenso polemische wie köstliche Analyse der deutschnationalen Papstkritik des Kölner Rechtsanwalts Dr. Franz Norbert Otterbeck aufmerksam machen, die unter dem Titel „Generation Auflehner“ zunächst auf KATH.Net erschien und nun auf der Website des Bistums Regensburg steht. In einem Aufsatz mit dem Titel „Hans Küng. Ein alternativer Rückblick“ auf kathnews.de führt Otterbeck die Auseinandersetzung mit den Papst-Kritikern fort. Inzwischen hat Seine Heiligkeit Papst Benedikt XVI. in einem längeren Brief an die Bischöfe selbst, in gebührendem Abstand, zu der durch Kommunikationspannen im Vatikan erleichterten üblen Medienkampagne gegen ihn und sein Amt Stellung genommen.
(21. Juni, akt. 11. August 2009)
===========================================================
Eros der Freiheit ohne Gott? Von Edgar L. Gärtner
„In einer Zeit, in der im Namen des Islam terroristische Kriege gegen den ungläubigen Westen geführt werden, der weltweite Gottesstaat erkämpft werden soll, junge Männer aus gutem westeuropäischem Haus konvertieren und sich ins Paradies bomben wollen und zugleich die Begeisterung für den Papst und seine Botschaften wächst, sind solche Einlassungen für das diesseitige Leben und die allseits verteufelten Ungläubigen sehr erfrischend.“ Mit diesem meines Erachtens äußerst zweischneidigen Lob bedenkt meine Frankfurter Kollegin Ulrike Ackermann in ihrem im letzten Jahr erschienen Büchlein „Eros der Freiheit“ das antireligiöse Pamphlet „Der Herr ist kein Hirte. Wie die Religion die Welt vergiftet“ (2007) von Christopher Hitchens. Immerhin distanziert sich Ulrike Ackermann schon im nächsten Satz vom kruden Naturalismus des fast zeitgleich unter dem Titel „Der Gotteswahn“ erschienenen atheistischen Manifests des bekannten Oxforder Darwinismus-Propagandisten Richard Dawkins.
Ganz und gar nicht folgen kann ich der Kollegin aber, wenn sie die massenhafte Begeisterung für Papst Benedikt XVI. und Usama Bin Laden in einem Atemzug anführt, um vor der „Renaissance des Religiösen“ als in ihren Augen wichtigsten Bedrohung der säkularen Freiheiten des Westens zu warnen. Wie viele andere nichtchristliche Liberale hält Ackermann offenbar auch den christlichen Glauben für Unvernunft, wenn nicht Blödsinn, den man zwar in einem freiheitlichen und pluralistischen Gemeinwesen, unter Berufung auf Sigmund Freud, in Form privater Marotten jedermann gnädig zugesteht, der aber aus dem öffentlichen Raum verbannt werden soll. Diese Auffassung widerspricht freilich schon dem Begriff von Religion. Insofern ist es nur konsequent, wenn militante Darwinisten heute glauben, einen Kreuzzug gegen das Religiöse überhaupt führen zu müssen, um dem Weltfrieden näher zu kommen.
Ulrike Ackermann zieht diese Konsequenz zwar nicht, sondern räumt durchaus ein, dass es fundamentale Unterschiede zwischen dem christlichen und dem muslimischen Gottes- und Menschenbild gibt und dass das heute im Westen noch vorherrschende liberale Verständnis von Freiheit etwas mit der christlichen Lehre von der Willensfreiheit zu tun hat. Sie nimmt also an, dass es Abstufungen im Irrationalen gibt, bleibt aber dabei, Religion an sich und von daher auch den Eros (einschließlich der Freiheitsliebe) und die damit verbundenen Gefühle für etwas zutiefst Irrationales zu halten. Nur von daher versteht sich übrigens ihr Lob des romantischen Aufstandes gegen das Diktat der reinen Vernunft im Namen der Gefühle und der absoluten Freiheit des Individuums. Was Ackerman über die Romantik schreibt, gilt aber ohnehin nur für die Frühromantik (vor allem für F.W.J. Schelling). Nicht ohne Grund zählte der führende Ideenhistoriker Isaiah Berlin, den die Autorin in einem andern Zusammenhang zitiert, zum Beispiel auch Karl Marx zur Romantik.
Ehrlich gesagt: Ich habe in Ulrike Ackermanns Eros-Buch wenig Verführerisches gefunden. Um das auch von ihr erkannte „Vakuum der negativen Freiheit“, das heißt der Freiheit von Zwang mit einer attraktiven Idee des Guten zu füllen, gibt es meines Erachtens nur den Weg, den Friedrich August von Hayek in seinem Spätwerk aufgezeigt hat. Ulrike Ackermann zitiert zwar mehrmals Hayek und dessen Vorstellung von spontaner Ordnung, folgt diesem jedoch nur auf halbem Wege, indem sie sein Spätwerk und die dort entwickelte Idee einer Komplementarität von kapitalistischer Marktwirtschaft und Christentum unterschlägt. Diese Idee ist meines Erachtens aber kein Ausdruck beginnender Senilität, sondern im Gegenteil Summe der Altersweisheit eines Mannes, der wie kaum ein anderer verstanden hat, was die westliche Welt im Innersten zusammenhält.
Ich halte den in liberalen Kreisen an Einfluss gewinnenden militanten Atheismus für gedankenlos, weil er nicht fragt, woher er seinen Wahrheitsbegriff bezieht oder beziehen könnte. So verwundert es nicht, dass gerade Liberale es zulassen, dass im postmodernen Interessengruppenstaat Wissenschaft immer mehr durch (vermeintlich) politisch nützliche Fiktionen (z.B. in der so genannten Klimaforschung) ersetzt wird. Wem es demgegenüber aber auf Wahrheit und nicht auf kurzsichtige politische Nützlichkeit ankommt, der wäre selbst mit einem nur fiktiven Gott immer noch besser bedient als mit gar keinem. Denn ohne das Absolute, ohne Gott ist der Mensch, wie vor allen Friedrich Nietzsche unter Schmerzen erkannte, kein wahrheits- und liebesfähiges Wesen. So habe ich die Position des von mir schon mehrfach zitierten italienischen Philosophen und Senators Marcello Pera verstanden, der als studierter Atheist zum echten Glauben nicht zurückfinden kann.
Diente die Vernunft nicht der Selbsttranszendenz der Menschen, sondern, wie dogmatische Darwinisten behaupten, nur ihrer Selbstbehauptung mithilfe überlebensdienlicher Illusionen, dann gäbe es keinen Grund, nicht im Namen des individuellen Überlebenserfolgs vor der neuerdings in der Politik wieder wachsenden Unvernunft zu kapitulieren. Woher kommt denn die Liebe zur Wahrheit? Woher kommt die Leidenschaft, die Menschenwürde, die Freiheit des Glaubens und des individuellen Gewissens notfalls auch unter Einsatz des Lebens zu verteidigen? „Um sittlich handeln zu können, müssen wir an eine letztendliche Einheit von Tugend und Glückseligkeit glauben. Und nur Gott kann eine solche Einheit garantieren“, betont der katholische Philosoph Robert Spaemann in einem bemerkenswerten Buch mit philosophischen Kommentaren zur provozierenden Regensburger Vorlesung Papst Benedikts XVI. vom September 2006 unter dem Titel „Gott, rette die Vernunft!“.
Als Theologieprofessor Joseph Ratzinger hatte der heutige Papst selbst schon in seiner 1968 erschienenen „Einführung in das Christentum“ darauf hingewiesen, dass der Glaube an den einen Gott der Absage an jegliche Anbetung politischer Macht gleichkommt: „Das Bekenntnis ‚Es gibt nur einen Gott’ ist in diesem Sinn, gerade weil es selbst keine politischen Absichten ausdrückt, ein Programm von einschneidender politischer Bedeutung: Durch die Absolutheit, die es dem Einzelnen von seinem Gott her verleiht, und durch die Relativierung, in die es alle politischen Gemeinschaften von der Einheit des sie alle umspannenden Gottes rückt, ist es der einzige definitive Schutz gegen die Macht des Kollektivs und zugleich die grundsätzliche Aufhebung jedes Ausschließlichkeitsdenkens in der Menschheit überhaupt.“ Hätte ich das 1968 gelesen, wäre ich wahrscheinlich kein 68er geworden!
Heute ist es vor allem der christliche Glaube, der den Wahrheitsanspruch der menschlichen Vernunft verteidigt. Der Glaube an einen persönlichen Gott, an die Unendlichkeit der Liebe ist keine in einer säkularen Gesellschaft gerade noch tolerierbare Verstiegenheit, sondern ein notwendiger, die Leistung der fünf Sinne und der Wissenschaft komplementierender und transzendierender Zugang zur Wirklichkeit. Es ist meines Erachtens kein Zufall, dass der Realitätsverlust in der Europäischen Union in gleichem Rhythmus wie ihre Entchristlichung voranschreitet. Wenn das so weiter geht, wird wohl auch das Oberhaupt der katholischen Kirche bald zu einem der letzten Verteidiger des Kapitalismus und der sozialen Marktwirtschaft werden. In seinem dem neuen Buch Marcello Peras vorangestellten Brief an den Autor wie auch in seiner Friedensbotschaft zu Beginn dieses Jahres spricht sich Benedikt XVI. ebenso klar wie sein Vorgänger Johannes Paul II. für die Überwindung der Armut durch die globalisierte kapitalistische Marktwirtschaft aus und warnt davor, die christlich-liberalen Wurzeln der europäischen Identität durch multikulturelle Utopien zu verdrängen. Das wird den meisten deutschen Bischöfen nicht gefallen.
Kurz: Ohne Gott gibt es weder die Wahrheit noch die auf Freiheit und Unendlichkeit angelegte Liebe. Und ohne beides kann es keinen Frieden auf Erden geben. Ich bin zutiefst davon überzeugt, dass im menschlichen Unterbewusstsein, dessen Entdeckung zu Recht oder zu Unrecht Sigmund Freud zugeschrieben wird, die Begierde nicht notwendigerweise den größten Platz einnimmt. Sie kann beherrscht werden durch Vernunft und Liebe, die beide göttlichen Ursprungs sind.
Internet:
Benedikt XVI. schreibt an Marcello Pera
Friedensbotschaft Benedikts XVI. vom Januar 2009
Literatur:
Ulrike Ackermann: Eros der Freiheit. Plädoyer für eine radikale Aufklärung. Verlag Klett-Cotta, Stuttgart 2008
Benedikt XVI., André Glucksmann, Wael Farouq, Sari Nusseibeh, Robert Spaemann, Joseph Weiler: Gott, rette die Vernunft! Die Regensburger Vorlesung des Papstes in der philosophischen Diskussion. Sankt Ulrich Verlag, Augsburg 2008
Joseph Ratzinger: Einführung in das Christentum. Kösel Verlag, München 1968, 2000, 2005
Marcello Pera: Perché dobbiamo dirci cristiani. Il liberalismo, l’Europa, l’etica. Editore Mondadori, Milano 2008
(auch veröffentlicht in: ef-magazin online)
===========================================================
von Edgar Gärtner
Wenn nicht alles täuscht, gehen wir im Alten Europa, in der Folge der nun anbrechenden „systemischen“ Wirtschaftskrise, blutigen Bürgerkriegen entgegen. Nach der Stunde der Wahrheit, dem Platzen der Blase billigen Papiergeldes, zeichnet sich immer klarer die Perspektive allgemeiner materieller Verarmung ab. Unsere Vorfahren wussten mit Notzeiten noch einigermaßen mental zurecht zu kommen, indem sie sich mehrheitlich, statt sich um den kleiner werdenden Kuchen des Bruttosozialprodukts zu raufen, durch Beten in die Obhut des Allmächtigen begaben. Das ist in der materialistischen und/oder esoterischen Postmoderne nur noch bei einer Minderheit vorstellbar. Viele Interessengruppen werden auf verbriefte, inzwischen aber wertlos gewordene Ansprüche pochen und sich mithilfe von Streiks und/oder gewaltsamen Ausschreitungen gegenseitig zu erpressen suchen. Andere werden, statt die Augen gen Himmel zu richten, nach einem starken Mann auf Erden Ausschau halten.
Am Ende wird es sich wohl herausstellen, dass Moderne und Postmoderne nur realitätsferne Projektionen hochmütiger Intellektueller waren und dass das Mittelalter sozusagen den Normalzustand der menschlichen Entwicklung darstellt. Unter dem Mittelalter dürfen wir uns nach dem Frankfurter Historiker Johannes Fried allerdings keine besondere Gesellschaftsformation vorstellen, die je nach Standpunkt als finster geschmäht oder romantisch verklärt wird, sondern ganz unvoreingenommen nur den Zeitabschnitt zwischen 500 und 1500 nach Christus. Immerhin kann man dieser Periode einen geringen Hang zu geistiger Gleichschaltung und totaler Herrschaft bescheinigen. Statt der (erst mit Napoléon Bonaparte aufgekommenen) totalen Kriege gab es überwiegend vernünftig eingehegte Scharmützel, bei denen die Zivilbevölkerung geschont wurde.
Im Spannungsfeld zwischen der religiösen Macht der katholischen Kirche und den weltlichen Mächten entstanden Freiräume für Neugier, vielfältiges geistiges Schöpfertum und materielle Experimentierfreude. Jedenfalls begann das, was die Propagandisten der Moderne später hochtrabend als „Aufklärung“ bezeichneten, nicht erst im 17. Jahrhundert, sondern war bereits in den (spätantiken) Schriften des großen Kirchenlehrers Augustinus aus dem 5. Jahrhundert angelegt. Nicht von ungefähr sahen zeitgenössische Theologen in der ketzerischen Lehre des Aufklärers René Descartes eine Form des Augustinismus. (Ein typisches Beispiel für ein produktives Mißverständnis!) Das zeigt meines Erachtens noch heute, wie man Krisen und Katastrophen geistig gesund überstehen kann. Nicht zuletzt brachte das Mittelalter auf der Grundlage der christlichen Lehre von der Willensfreiheit die Idee der politischen Gedanken- und Meinungsfreiheit hervor. Die Durchsetzung des ebenfalls im Mittelalter aufgekommenen Kapitalismus war nicht Voraussetzung, sondern umgekehrt zwingende Konsequenz einmal errungener oder eingeräumter Glaubens- und Meinungsfreiheit, denn es handelt sich hier um die einzige Wirtschaftsform, bei der es auf persönliche Einstellungen und Überzeugungen letztlich nicht ankommt.
Das nach Ansicht Johannes Frieds wichtigste Erbe des Mittelalters sind jedoch Ideale wie Höflichkeit, Ritterlichkeit und Urbanität. Diese könnten einen Weg weisen für die Regelung gesellschaftlicher Probleme ohne Klassenkampf und Bürgerkrieg. Leider wurden solche zivilisatorische Errungenschaften des Mittelalters im modernen Interessengruppen- bzw. Wohlfahrtsstaat durch die Anerkennung erpresserischer Aktionen wie Streiks und Blockaden als legitimes Ausdrucksmittel, wenn nicht als „höhere Gewalt“ weitgehend geopfert. Durch die nihilistische Reduktion des Menschen auf Biologisches, Psychologisches oder Soziologisches wurde auch das zur Transzendenz und damit zum Absoluten hin offene christliche Menschenbild der Diktatur des Werterelativismus preisgegeben.
Ich bin mehr und mehr davon überzeugt, dass die Fronten in den kommenden gesellschaftlichen Auseinandersetzungen weniger zwischen Liberalen und Autoritären, sondern zwischen Nihilisten und jenen verlaufen, die an einen Übersinn des Lebens glauben. Dabei sollte man m. E. aber nicht vergessen, dass ein erfundener „Übersinn“, der sich gegen das wirkliche Leben wendet, nach Friedrich Nietzsche selbst die extremste Form von Nihilismus darstellt. Deshalb sollten islamistische Selbstmordattentäter (ebenso wie extrem asketische christliche Sekten) nicht als Idealisten gelten, denen man bis zu einem gewissen Grad Verständnis entgegen bringt, sondern als Feinde des Lebens.
Internet:
Johannes Fried: Das Ende der Canossa-Legende
Literatur:
Johannes Fried: Das Mittelalter. Geschichte und Kultur. Verlag C.H. Beck, München 2008
Henri Irénée Marrou: Saint Augustin et l’augustinisme. Éditions du Seuil, Paris 1955 und 2003
Klimawandel meistern statt scheitern! Jahrbuch 2008 des Club of Home
“Nur die Dummen dämmen”, sagt Dipl.Ing. Alfred Eisenschink, der Sprecher des “Club of Home”, eines in Berlin registrierten gemeinnützigen Verbraucherschutzbundes von Architekten, Bauingenieuren und Häuslebauern, der seine Mitglieder mit Rat und Tat davor bewahren möchte, im Namen des “Klimaschutzes” in unsinnige “Energiesparmaßnahmen” zu investieren. “Die Verbraucher müssen vor baulichen und gesundheitlichen Schäden infolge des energiepolitischen Verordnungsterrors geschützt werden”, sagt Eisenschink.
Club of Home: Meistern statt Scheitern. Chancen des Klimawandels. Jahrbuch 1-2008. GLOOR Verlag. München. ISBN 978-3-938037-07-2
Club of Home e.V., gemeinnütziger Verbraucherschutzbund. 1. Vorsitzender: Jürgen Minke, Kuno-Fischer-Straße 13, 14057 Berlin, Tel/Fax: +49-30322556. Jahresbeitrag € 60,-.Kontonummer 172 54 517 bei der Kreissparkasse Pullach (BLZ 702 501 50)
Öko-Industrie-Komplex
Reichtum schützt vor Dummheit nicht. Der im Alter von über 80 Jahren zur grünen Ersatzreligion konvertierte amerikanische Öl- und Gas-Milliardär T. Boone Pickens muss den Plan, sich in Texas in Form des größten Windparks der Welt ein Denkmal zu setzen, wegen der Finanzkrise auf Eis legen. Nun weiß er nicht, wohin mit den bei General Electric bereits fest bestellten Windrädern. Das könnte ein Vorbote des Platzens der grünen Blase sein.
US-Milliardär Pickens sucht Garage für seine Windmühlen
Wegen der wirtschaftlichen Depression und des damit verbundenen Sinkens des Ölpreises muss der im Öl- und Gasgeschäft zum Milliardär gewordene „grüne“ Investor T. Boone Pickens seinen Plan, in seinem Heimatstaat Texas den größten Windpark der Welt zu erreichten (siehe Bericht über das Wind-Gas-Kartell auf dieser Seite weiter unten) auf Eis legen. Sein Problem: Er hat bereits beim Anlagenkonzern General Electrics für nicht weniger als zwei Milliarden Dollar eine erste Tranche Windräder fest geordert. Nun weiß er nicht, wohin damit. Die Moral von der Geschicht‘: Reichtum schützt vor Dummheit nicht.
===================================================================
Björn Lomborg über den Klima-Industrie-Komplex
Im „Wall Street Journal“ vom 21. Mai 2009 analysiert der bekannte dänische Statistik-Professor Björn Lomborg anlässlich des gerade in Kopenhagen stattfindenden Wirtschafts-Klimagipfels die hinter dem „grünen“ Engagement großer Energiekonzerne stehdnen parasitären Geschäftsinteressen. Lomborg bestätigt alles, was ich selbst seit Jahren zu diesem Thema geschrieben habe.
===================================================================
Die Hitparade der Öko-Profiteure
Die Londoner Sunday Times wartet am 1. März 2009 mit einer langen Liste reicher „Weltbürger“ auf, die es besonders gut verstehen, die von ihnen selbst und ihnen hörigen Massenmedien geschürte Angst vor einer uns angeblich drohenden Klimakatastrophe auf Kosten wirtschaftlich benachteiligter Familien mit hohem Energieverbrauch zu Geld zu machen. Diese Liste ergänzt sehr gut meine eigene Analyse des deutschen Öko-Industrie-Komplexes (ÖIK), die im letzten Spätherbst im Magazin „eigentümlich frei“ erschienen ist:
Die Allparteien-Koalition Grüner Amigos
Über die endliche Erfolgsgeschichte des Ökologisch-Industriellen Komplexes (ÖIK) in Deutschland
von Edgar Gärtner
Das Scheitern der Machtübernahme Andrea Ypsilantis in Hessen an der der schmerzlichen, weil persönlich nachteiligen und deshalb späten Gewissensentscheidung von vier sozialdemokratischen Landtagsabgeordneten hat sicher nicht wenig mit der Entlarvung der Inkompetenz des „Sonnenpapstes“ Hermann Scheer im SPIEGEL 45/2008 zu tun. Zum ersten Mal hat ein führendes deutsches Print-Medium hier den Heiligenschein des Trägers des alternativen Nobelpreises zerrissen, indem sie den Präsidenten des von seiner Ehefrau Irm Pontenagel gemanagten Vereins „Eurosolar“ als ebenso verbohrten wie skrupellosen Lobbyisten für die von der ganzen politischen Klasse Deutschlands zum Heil der Menschheit verklärte und daher hoch subventionierte, in Wirklichkeit aber unzuverlässigste und unwirtschaftlichste Form der Stromerzeugung dastehen lässt. (Vorausgegangen war dem SPIEGEL-Artikel ein Forums-Beitrag des freien Journalisten Jan-Philipp Hein, der am 14. April 2008 in der WELT erschien.) Die Tatsache, dass Scheer nun bei den in Hessen vorgesehenen Neuwahlen nicht mehr dem Schattenkabinett von Ypsilantis Platzhalter Thorsten Schäfer-Gümbel angehört, signalisiert darüber hinaus – allen gegenteiligen Beteuerungen zum Trotz – eine Infragestellung von Scheers Plan, die Stromversorgung des Verkehrsknotenpunktes und Industriestandortes Hessen bis zum Jahre 2025 zu 100 Prozent auf Wind-, Solar-, Biomasse- und Wasserkraft umzustellen.
Schneller als selbst von Skeptikern erwartet, erweist sich der Börsenboom rund ums Themenfeld „erneuerbare Energien“ als eine politischen Signalen folgende Blase, die nun platzt. Vordergründig ist daran die durch das Platzen der US-Immobilienkredit-Blase ausgelöste globale Finanzkrise schuld. Das wegen des Verdachts, auch die Bücher bislang als seriös eingeschätzter Geldhäuser könnten noch viele faule Hypotheken enthalten, verschwundene Vertrauen zwischen den Banken hat zu drastischen Restriktionen bei der Kreditvergabe geführt, die sich bei den stark expandierenden Stars der Solar- und Windbranche als kaum überwindbare Kreditklemme bemerkbar macht. Deshalb sind Werte wie Q-Cells, SMA Solar, Solon und sogar die noch etwas besser dastehende Solarword AG, die den TecDax dominieren, in den letzten Monaten noch viel stärker eingebrochen als Dax und M-Dax. Ein kurzfristiges Hochschießen der Solarwerte anlässlich des Wahlsieges von Barack Obama in den USA hat daran nichts geändert.
Es spricht sich auch herum, dass die Durchschnittstemperatur über den Landmassen der Erde, trotz eines kräftigen Anstiegs der Konzentration des als „Klimakiller“ verteufelten Verbrennungsabgases Kohlenstoffdioxid (CO2), seit zehn Jahren nicht mehr weiter steigt. Angesichts leerer Staatskassen und einer beginnenden Rezession, die höchstwahrscheinlich deutlich länger als nur ein paar Monate anhalten wird, fragen sich immer mehr Investoren, die sich zumindest einen Rest gesunden Menschenverstands bewahrt haben, ob sie sich den Luxus leisten können, in Technologien zu investieren, die CO2 auf die denkbar teuerste Weise einsparen. Wer soll, angesichts der sich abzeichnenden Verarmung ganzer Bevölkerungsschichten und Regionen, die Kosten dieser vermeintlichen „Zukunftstechnologien“ aufbringen? Können wir es uns wirklich noch leisten, die Nutzung des reichlich verfügbaren, leicht transportier- und lagerfähigen und daher konkurrenzlos preisgünstigen Energieträgers Kohle zu verzichten, nur um bei grünen Nihilisten gut Wetter zu machen? Ist nicht der soziale Frieden in höchster Gefahr, wenn den Menschen in Zeiten wachsender Arbeitslosigkeit immer höhere Energiekosten aufgebürdet werden?
Solche Fragen deuten an, dass das Ersatz-Feindbild „Umweltveränderung“ beziehungsweise „Klimawandel“, mit dessen Hilfe es die politischen und wirtschaftlichen Eliten des Westens seit der Entspannungsphase des Kalten Krieges gelang, das Volk einigermaßen bei Stange zu halten, inzwischen auf dem Prüfstand steht. Die Ablösung des Feindbildes „Kollektivismus“ durch das Ersatz-Feindbild „Klimawandel“ bot der herrschenden politischen Klasse den großen Vorteil, die Aufmerksamkeit der Beherrschten auf einen abstrakten, weder mit den fünf Sinnen noch durch den Verstand fassbaren Gegner zu lenken. Doch angesichts der beginnenden Wirtschaftskrise und der wenig dramatischen Entwicklung der Wetterabläufe gelingt es immer weniger, den Menschen damit noch Angst zu machen. Schon ist die Europäische Union dabei, ihr auf Betreiben der deutschen Bundeskanzlerin Angela Merkel angenommenes „Klima-Paket“ (jeweils 20 Prozent CO2-und Energieeinsparung und Steigerung des Anteils „erneuerbarer“ Energien bis zum Jahre 2020) aufzuschnüren und deutlich abzuschwächen. Das muss Auswirkungen auf einen durchwegs politischen Markt haben, auf dem sich in den vergangenen drei bis vier Jahrzehnten staatsmonopolitische Kartellstrukturen besonderer Art, der Öko-Industrie-Komplex (ÖIK), etabliert hatten. Damit wird auch die wirtschaftliche Basis einer historisch einmaligen politischen Allparteien-Koalition in Frage gestellt.
Wie kam es überhaupt dazu, dass sich das im Kern absurde Ersatzfeindbild „Klimawandel“ und das dadurch begründete staatsmonopolitische Industriekartell so rasch auch in der Privatwirtschaft durchsetzten? Dieser Frage möchte ich im Folgenden vorwiegend auf dem Hintergrund eigener Erfahrungen nachgehen und dabei auch andeuten, wo ich noch Klärungsbedarf sehe.
Zur Geschichte des Öko-Industrie-Komplexes
Schon in den Anfängen der um 1970 gestarteten systematischen Umweltpolitik galt für den auf den Bau von Filtern aller Art spezialisierten neuen Zweig des Anlagenbaus der Satz „Gesetze bestimmen die Umsätze“. So der Titel eines Beitrages in einem der damals eigens gegründeten Fachmagazine für Umwelttechnik. D.h. je schärfer die Grenzwerte für Schadstoffe in Abwasser und Abluft, desto besser die Geschäftschancen der Umweltbranche. Das wurde bereits auf der ersten deutschen auf Umwelttechnik spezialisierten Messe, der ENVITEC 1973 in Düsseldorf, thematisiert. Bei dieser vom damaligen Bundesinnenminister Hans-Dietrich Genscher (FDP) eröffneten Ausstellungs- und Kongress-Veranstaltung (auf der ich, nebenbei gesagt, mir meine ersten Sporen und Kröten als Umweltjournalist verdiente) wurde auch deutlich, dass die Branche stark von Konzernen des Militärisch-Industriellen Komplexes (MIK) dominiert wird. Deren Manager waren es seit der nazistischen Kriegswirtschaft (insbesondere in deren Endphase unter Albert Speer) gewohnt, in einer korporatistischen, aber hoch effizienten Form von Vetternwirtschaft auf politisch-bürokratisch bestimmten Märkten zu arbeiten.
Der Begriff „Militärisch-industrieller Komplex“ wurde vom Ex-General und späteren US-Präsidenten Dwight D. Eisenhauer geprägt. Dieser warnte seine Landsleute am Ende seiner Amtszeit vor der Eigendynamik der in der Kriegswirtschaft des Zweiten Weltkriegs aufgebauten kartellartigen Wirtschaftsstrukturen. Der Begriff „Öko-Industrie-Komplex“ wurde bereits im Jahre 1970 vom linksliberalen amerikanischen Publizisten Martin Gellen eingeführt. Dieser sah schon damals deutlich, dass die von US-Präsident Richard Nixon in großem Stil aus der Taufe gehobene Umweltpolitik als relativ eigenständiger Politikbereich zu dem MIK vergleichbaren parasitären Wirtschaftsstrukturen führen muss. Durchaus nicht zufällig ging übrigens der Start der Umweltpolitik einher mit der Abkehr der Nixon-Regierung vom wenigstens noch formalen Gold-Bezug des 1944 in Bretton Woods begründeten internationalen Währungssystems. Seither manifestiert sich die von der wachsenden Staatsverschuldung erzeugte Geldentwertung weniger in einer kontinuierlichen Verteuerung von Waren des täglichen Bedarfs als vielmehr in Form des Platzens politisch erzeugter Spekulationsblasen.
Einer der Vordenker des ÖIK in Deutschland war Ludwig Bölkow, der damalige Vorstandsvorsitzende des Rüstungskonzerns Messerschmidt-Bölkow-Blohm (MBB). Schon 1970 forderte dieser, um angesichts der sich abzeichnenden Ost-West-Entspannung, diversen Nachteilen der einseitig militärischen Ausrichtung seines Geschäfts zu begegnen, eine Ausweitung des zivilen Anteils der Fertigung seines Konzerns auf 50 Prozent. Dabei dachte er hauptsächlich daran, Umweltschutztechniken zum zweiten Standbein des durchwegs politisch bestimmten Geschäfts seines Konzerns zu machen. Neben Bölkow gehörte auch der ehemalige MBB-Manager und spätere „Atomminister“ Prof. Dr. Siegfried Balke zu den Vordenkern des ÖIK. Die Technologieberatungsfirma MBB Systemtechnik in Ottobrunn hat bis heute einen beträchtlichen Einfluss auf die deutsche und zum Teil auch europäische Forschungs- und Technologiepolitik im Bereich Energie und Umwelt – zum Beispiel in Form von Gutachten für Bundesministerien und Enquete-Kommissionen des Deutschen Bundestages. Gleichzeitig fördert die Bölkow-Stiftung, in deren Stiftungsrat Grüne den Ton angeben, gezielt Pioniere „grüner“ Energietechnik.
Zu den Firmen, die das erste Umweltprogramm der deutschen Bundesregierung von 1971 und die darin enthaltenen (und von ihnen direkt beeinflussten!) Emissions-Grenzwerte in Form diverser Filter- und Reinigungstechniken umsetzten, gehörten denn auch fast durchwegs Töchter von Rüstungskonzernen wie Flick (insbesondere Krauss-Maffei), Quandt, Klöckner, Krupp, Haniel, MBB, Rheinstahl und, Siemens. Hinzu kamen Töchter von Metallgesellschaft, Degussa und Hoechst sowie des Energiekonzerns RWE, die (wie auch die meisten der vorgenannten Konzerne) in der Nuklearindustrie eine große Rolle spielten.
Begleitet wurde diese Neuausrichtung des MIK durch die allmähliche Transformation von Massenmedien in eine Angstindustrie. Eine große Gelegenheit dafür bot die Veröffentlichung der Studie „Die Grenzen des Wachstums“ durch den Club of Rome. Das Thema „CO2 und Klima“ spielte dabei in Deutschland jedoch zunächst kaum eine Rolle. Statt in Deutschland spielte die alte, aber im Grunde längst widerlegte Hypothese des schwedischen Chemikers Svante Arrhenius von 1896, der wachsende Ausstoß des Verbrennungsabgases CO2 führe zu einer Verstärkung des „Treibhauseffekts“, zunächst nur in Skandinavien eine Rolle. Vor allem die schwedischen Sozialdemokraten unter Olof Palme erwogen schon im Umkreis der ersten UN-Umweltkonferenz 1972 in Stockholm und des neu gegründeten internationalen Umwelt-Fachmagazins „Ambio“ die Einführung von CO2-Steuern, stießen damit jedoch zunächst in Kontinentaleuropa auf wenig Resonanz. Erst als der Preis des Nordsee-Öls in den 80er Jahren unter 10 Dollar je Barrel absackte und die Erdgasförderung in der Nordsee infolge der Koppelung des Gaspreises an den Ölpreis unrentabel geworden war und es deshalb in Europa nahe lag, in der Wärme- und Stromproduktion massiv zur reichlich vorhandenen billigen Kohle zurückzukehren, starteten die skandinavischen Sozialdemokaten unter der Norwegischen Ministerpräsidentin Gro Harlem Brundtland, später Vorsitzende der nach ihr benannten UN-Kommission für Umwelt und Entwicklung, mithilfe der Sozialistischen Internationale eine europaweite Kampagne für CO2-Steuern, um den Kohle- und Öleinsatz künstlich zu verteuern und die Erdgasförderung in der Nordsee wie später auch in Russland wieder rentabel zu machen.
Das CO2-Thema war aber auch einigen Persönlichkeiten der damals in Bonn regierenden Großen Koalition von CDU/CSU und SPD und der sie ablösenden sozial-liberalen Koalition unter Willy Brandt jedoch durchaus von Anfang an bekannt. Zu diesen Persönlichkeiten zählt der heutige Lord Prof. Ralf Dahrendorf. Der bekannte liberale Soziologe beteiligte sich als Staatssekretär im Bundesaußenministerium aktiv an Debatten über die Ausgestaltung der „Dritten Dimension“ der NATO, wo das Klima-Thema im Wissenschaftsausschuss über den Klimatologen Prof. Herrmann Flohn (Bonn) zu einer Zeit, als die Wissenschaftlergemeinde noch beinahe einhellig vom Herannahen der nächsten Eiszeit überzeugt war, schon mit anthropogenen CO2-Emissionen in Zusammenhang gebracht wurde.
Wichtige Anstöße gingen auch von den US-Wissenschaftlern Roger Revelle und Charles Keeling sowie von dem später zum wichtigsten Kritiker der Klima-Hysterie gewandelten österreichisch-amerikanischen Weltraum-Physiker Fred Singer aus. Im Prinzip war auch Günter Hartkopf, FDP-Staatssekretär in dem damals noch für den Umweltschutz zuständigen Bundesinnenministerium, darüber informiert, hat aber dazu nichts verlauten lassen. Frage: Gab es damals Versuche der Brandt-Regierung, sich in dieser Angelegenheit mit den schwedischen Sozialdemokraten zu verständigen? Ich vermute: Da Umweltschutz Angelegenheit der FDP war, haben sich die Sozialdemokraten um das Thema „Klima“ längere Zeit wenig gekümmert. Wegen ihrer engen Verzahnung mit dem Deutschen Gewerkschaftsbund (DGB) standen stattdessen Probleme der Arbeitswelt im Vordergrund.
In Deutschland war die Zeit nach der Ölkrise von 1973 geprägt von einer wachsenden Konfrontation zwischen der sozial-liberalen Regierung und der erstarkenden Anti-Atom-Bewegung. Beim Abwehrkampf des zuständigen sozialdemokratischen Forschungs- und Technologieministers Hans Matthöfer spielte das Klima-Thema aber so gut wie keine Rolle. Erst nach dem Reaktorunfall von Tschernobyl wurde das Thema auf Betreiben der deutschen Nuklearindustrie und ihr nahe stehender Naturwissenschaftler wie den Bonner Physiker Prof. Klaus Heinloth in Form einer „Warnung vor einer drohenden Klimakatastrophe“ durch die Deutsche Physikalische Gesellschaft (DPG) offensiv in die Medien gebracht.
Diese Kampagne mündete in der Einsetzung der Enquête-Kommission „Schutz der Erdatmosphäre“ durch den 11. und 12. Deutschen Bundestag (BT). Ihr Vorsitzender war der als Lobbyist der Hanauer Nuklearindustrie (NUKEM) bekannte CDU-Abgeordnete Klaus Lippold. Die Kommission forderte schon vor der UN-Konferenz über Umwelt und Entwicklung (UNCED) 1992 in Rio de Janeiro eine Reduktion der CO2-Emissionen der Mitglieder der Europäischen Gemeinschaft (EG) um 20 bis 25 Prozent bis zum Jahre 2005 sowie eine Förderung „erneuerbarer“ Energien. Dem kam der BT erstmals 1991 in Form des „Einspeisegesetzes“ nach, das die Betreiber öffentlicher Stromnetze verpflichtet, jederzeit Strom aus Wasser-, Wind-, Sonnen- und Biomassekraftwerken abzunehmen. Hinter dem Gesetz standen u.a. die Abgeordneten Peter Ramsauer (CSU) und Peter Paziorek (CDU), die beide als Betreiber einer Mühle mit Wasserkraftwerk beziehungsweise als Teilhaber von Windparks ein unmittelbares finanzielles Interesse an der Förderung „erneuerbarer“ Energien hatten. Das Gesetz erregte damals wenig Aufsehen, da es zunächst nur kleine Strom-Mengen betraf. Als der Widerstand gegen die „Verspargelung“ der Landschaft durch riesige Windräder wuchs, hat der Bundestag 1996 noch unter Kohl und quer durch alle Fraktionen einen kleinen Zusatz zum Paragraphen 35 des Baugesetzbuches (BauGB) beschlossen. Dieser macht es möglich, Windräder, die höher sind als der Kölner Dom, schneller genehmigt zu bekommen als eine Frittenbude.
Schon im Vorfeld der Rio-Konferenz gab es Versuche, neben Sozialdemokraten auch die Grünen in den ÖIK einzubinden. Das geschah unter anderem auf einer Serie großzügig gesponserter Konferenzen, an denen neben Wirtschaftsvertretern des In- und Auslandes auch Spitzenpolitiker und bekannte Medienvertreter teilnahmen. (Ich kann mich erinnern an eine Konferenz im Kongresszentrum der Hannover Messe und an eine Konferenz im Hotel Maritim am Timmendorfer Strand mit Patricia Cairncross vom „Economist“, dem Schweizer Großindustriellen Stefan Schmidheiny, Klaus Töpfer usw.) Vermittelt über den Grünen Bundestagsabgeordneten Willi Hoss (eines abtrünnigen DGB-Gewerkschafters und Betriebsrats bei Daimler) finanzierte die Daimler AG einer starken „Delegation“ von Grünen die Reise nach Rio. Als „Gegenleistung“ sollten diese in Europa Positives über die Nutzung von Kokos- und Sisalfasern als nachwachsende Rohstoffe im Daimler Werk bei Bélem berichten.
Im Vorfeld der Rio-Konferenz gab es bei den Grünen und in ihrem Umkreis auch eine wegweisende Debatte im grünen Wirtschaftsinformationsdienst „Ökologische Briefe“ und in der „Frankfurter Rundschau“ (FR) über ein Zusammengehen mit verschiedenen privaten Großkonzernen. Diese Debatte habe ich als damals verantwortlicher Redakteur der „Ökologischen Briefe“ dummerweise selbst angestoßen (Eröffnungsartikel in der FR am 19. November 1991 während der Konferenz am Timmendorfer Strand). Im Rahmen dieser Debatte gab es im Frühjahr 1992 ein wichtiges Treffen in einem Düsseldorfer Nobelrestaurant. Beherrscht wurde dieses Treffen, an dem verschiedene Abgeordnete und Vorstandsmitglieder der Grünen (u. a. die Unternehmensberaterin Ruth Hammerbach) teilnahmen, von Michael Vester, Sohn eines Düsseldorfer CDU-Politikers und später Grüner Bauminister in Nordrhein-Westfalen (NRW). Auch Frank Asbeck, der spätere „Sonnenkönig“ von Bonn, war dabei.
Asbeck kommt aus einer alten Dortmunder Unternehmerfamilie, die mit der Stahlverarbeitung ein Vermögen machte. Er galt nie als typischer Grüner und wäre heute genauso gut in der rheinischen Klüngel-CDU aufgehoben. Außer mit Michael Vester ist Asbeck gut mit einflussreichen Politikern wie Kurt Biedenkopf (CDU), Jürgen Rüttgers (CDU), Gerhard Schröder (SPD), Joschka Fischer und Jürgen Trittin (Grüne) sowie mit dem FDP-Vorsitzenden Guido Westerwelle vernetzt. In seiner Jugend sympathisierte er eine Weile mit der Sozialistischen Deutschen Arbeiterjugend (SDAJ), der Jugendorganisation der Deutschen Kommunistischen Partei (DKP). Er betrieb zunächst ein auf die Reparatur und das Recycling von Industrieanlagen (insbesondere in Entwicklungsländern) spezialisiertes kleines Ingenieurbüro und vertrieb zusammen mit seinem Bruder Ralf gepanzerte Limousinen – ein Geschäft, das vor allem während des Kosovo-Krieges blühte.
Mitte der 90er Jahre baute Asbeck auf dem Dach einer Bonner Industriehalle die damals größte Photovoltaik-Anlage Deutschlands. Die Module dafür lieferte BP Solar, dessen größter Kunde Asbeck damit wurde. 1998 gründete Asbeck die SolarWorld AG, die er 1999 erfolgreich an die Börse brachte. Mit dem eingenommenen Kapital kaufte er zunächst eine schwedische Solarmodulfabrik und übernahm im Jahre 2000 die Solarsparte der BAYER AG im sächsischen Freiberg. Dabei half ihm sein kurzer Draht zu Kurt Biedenkopf. Später tat sich Asbeck mit dem Chemiekonzern Degussa (jetzt: Evonik) zur Joint Solar Silicon GmbH & Co KG (JSSI) zusammen, um ein neuartiges Verfahren zur Abscheidung von Solar-Silizium anwendungsreif zu machen.
In die Zeit zwischen dem Tschernobyl-Unglück und der Rio-Konferenz fällt auch die Gründung des Verbandes EUROSOLAR durch den SPD-Abgeordneten Hermann Scheer und den Grünen-Abgeordneten Hans-Josef Fell (ebenfalls Sohn eines CDU-Politikers). Das Ziel von EUROSOLAR: Die völlige Umstellung der Energieversorgung auf „Erneuerbare“ bis zum Jahre 2050, wenn nicht schon früher. Somit handelt es sich, im Vergleich zum eher pragmatischen und wirtschaftsfreundlichen rheinischen Netzwerk Asbecks, um eine eher fundamentalistische Gruppierung. Beide Strömungen verbanden sich aber im Bundesverband Erneuerbare Energien (BEE) mit CDU/CSU-Politikern zu einer starken Lobby für den Ausbau des „Einspeisegesetzes“ zu einem „Gesetz für den Vorrang Erneuerbarerer Energien“ (EEG), das für 20 Jahre großzügige Einspeisevergütungen für Solar-, Wind- und Biomasse-Strom garantiert. Dessen 1. Fassung wurde im März 2000 unter der ersten rot-grünen Regierung verabschiedet.
Ganovenstück EEG
Als Rot-Grün 1998 die Regierungsverantwortung übernahm, hatte sich rund um die „erneuerbaren“ Energien längst ein dichtes polit-ökonomisches Geflecht ausgebildet, in dem gelten soll: Nicht Angebot und Nachfrage, sondern maßgeschneiderte Gesetze und Paragraphen bestimmen Umsatz- und Gewinnchancen. Die neuen Machthaber der Berliner Republik brauchten also nur konsequent auf dem bereits eingeschlagenen Weg fortzufahren. Das taten sie mit dem EEG. Zu dessen Urhebern zählen der württembergische SPD-Bundestagsabgeordnete Hermann Scheer und sein fränkischer Kollege Hans-Josef Fell von den Grünen. Scheer ist Präsident der Lobby-Vereinigung Eurosolar und Vorsitzender des Weltrates für Erneuerbare Energien. Er dürfte schon mit seinen Bestseller-Büchern über das kommende „Solarzeitalter“ und deren Popularisierung in jährlich etwa hundert bezahlten Vorträgen mehr verdienen als durch sein Bundestagsmandat. Fell war Vorsitzender der deutschen Sektion von Eurosolar, Sprecher der Bundestagsfraktion der Grünen für Forschung Technologie und Geschäftsführer der Hammelburger Solarstrom GmbH.
Die niedersächsische FDP-Bundestagsabgeordnete Angelika Brunkhorst, selbst EEG-Lobbyistin, nannte die Durchschleusung des EEG durch Bundestag und Vermittlungsausschuss ein „Ganovenstück“, das von der Parlamentarier-Gruppe von Eurosolar und vom weitgehend personengleichen Parlamentarischen Beirat des Bundesverbandes erneuerbare Energien (BBE) eingefädelt wurde. Vorsitzender dieses Gremiums war wiederum Hermann Scheer. Stellvertretende Vorsitzende war Michaele Hustedt, damals energiepolitische Sprecherin der Grünen im Bundestag. Neben den Abgeordneten Dietrich Austermann (CDU) und Hans-Josef Fell (Die Grünen) gehörten dem Gremium unter anderen die SPD-Abgeordneten Axel Berg, Marco Bülow und Christoph Matschie, die Unions-Abgeordneten Peter Harry Carstensen, Thomas Dörflinger, Josef Göppel und Peter Paziorek sowie Reinhard Loske, damals umweltpolitischer Sprecher der Grünen im Bundestag, heute Grüner Wirtschaftssenator im Stadtstaat Bremen, an. Loske gehörte gleichzeitig dem Kuratorium der Düsseldorfer Naturstrom AG und dem Umweltrat der Nürnberger Umweltbank an. Dietrich Austermann hatte als Mitglied des Verwaltungsrates der bundeseigenen Kreditanstalt für Wiederaufbau (KfW) direkten Einfluss auf die Unterstützung von Wind- und Solarprojekten durch zinsgünstige Darlehen.
Im Detail legt das EEG fest, wie hoch die Stromnetzbetreiber und im Endeffekt die Verbraucher die gesetzlich erzwungene Abnahme teuren Wind- und Solarstroms vergüten müssen: Für Strom aus kleinen Wasserkraftwerken und Windrädern zum Beispiel bis zu über 9 Eurocent je Kilowattstunde (KWh), das heißt fast dreimal mehr als die durchschnittlichen Stromerzeugungskosten in Deutschland. Es kam zu einem Boom von Windkraftfonds, die bei Gutverdienern mithilfe des Versprechens einer Steuerersparnis von über 100 Prozent für eine absolut saubere, sichere und profitable Geldanlage innerhalb weniger Jahre sieben bis zehn Milliarden Euro mobilisierten und damit in Deutschland über 20.000 WKA gebaut haben. Einige der genannten Parlamentarier verdienen als Teilhaber von Wind- und Solarparks oder (diskreter) als Zeichner „grüner“ Investmentfonds an dem vom EEG ausgelösten künstlichen Boom der „Erneuerbaren“ mehr oder weniger kräftig mit. Dabei halten sich die Mitglieder der Regierungsparteien aus nahe liegenden Gründen eher diskret zurück, während sich Oppositionspolitiker offen als Windmüller zu erkennen geben, um sich als besonders „klimafreundlich“ zu profilieren.
Die Bande zwischen grüner Industrie und grüner Partei sind eng. Im Wahlkampfjahr 2002, als SPD und Bündnis 90/Die Grünen bereits hoffnungslos abgeschlagen schienen, pumpten die Windkraftfirmen großzügig Geld in die Kassen der Umweltpartei. Über die Hälfte (300.000 von 550.000 Euro) der nach dem Parteiengesetz angabepflichtigen Großspenden stammte bei den Grünen im Jahre 2002 von Windkraftfirmen. Zu den Großspendern gehörten der Regensburger Windpark-Projektierer Ostwind-Verwaltungs GmbH mit 71.000 Euro, die beiden Betreiber des Windparks im hessischen Lichtenau mit insgesamt 52.500, die EWO Energietechnologie GmbH und die AGU Elektrotechnik GmbH am gleichen Ort mit 40.000 beziehungsweise 20.000 Euro sowie die inzwischen insolvente Umweltkontor Renewable Energy im rheinischen Erkelenz mit 50.000 Euro. Dass es sich dabei um gezielte Wahlkampfhilfe handelte, zeigt die Tatsache, dass die Grünen in den folgenden Jahren aus dieser Branche keine nennenswerten Spenden mehr verbuchten.
Die Sonnenwelt verfinstert sich
Auslöser des nun zu Ende gehenden Solar-Booms war die Anfang Juli 2004 vom Vermittlungsausschuss von Bundestag und Bundesrat verabschiedete Novelle des EEG. Es gäbe sonst keinen Grund, in unseren von der Sonne nicht gerade verwöhnten Breiten massiv in teure Solaranlagen zu investieren. Bis zu 57,4 Eurocent je Kilowattstunde (KWh) kassierten Hausbesitzer, die sich Photovoltaik-Module auf ihr Dach montieren lassen, wenn sie den dort produzierten Strom ins öffentliche Netz einspeisen. Das ist etwa das 20-fache der Kosten von Strom aus Atom- oder Braunkohlekraftwerken, die in Deutschland etwa 3 Cent je KWh betragen. Selbst Strom aus großen, von kommerziellen Betreibern auf Freiflächen aufgestellten Photovoltaik-Anlagen mussten die Netzbetreiber für 45,7 Cent je KWh abnehmen. Allein für die im Jahre 2007 hinzugebauten Fotovoltaik-Anlagen mussten die deutschen Stromverbraucher und Steuerzahler 7,5 Milliarden Euro für die aufbringen. Der Beitrag der Solarenergie zur deutschen Stromversorgung erreichte zu Spitzenzeiten gerade einmal 0,7 Prozent. Kein Wunder in einem Land, das nicht zum Sonnengürtel des Globus zählt.
Durch die im Mai 2008 vorgenommene Anpassung der EEG-Fördersätze hat sich an diesem Missverhältnis zwischen Aufwand und Ertrag wenig geändert. Statt die Einspeisevergütung für Solarstrom um 30 Prozent zu kürzen, wie von Teilen der CDU und der FDP gefordert, um Innovationsanreize zu geben, sieht das novellierte EEG für die kommenden zwei Jahre nur eine Kürzung um 8 Prozent vor. Die Solarlobby hat sich noch einmal durchgesetzt – und zwar vor allem mit dem Argument, sie schaffe Zigtausende von Arbeitsplätzen in den östlichen Bundesländern. Man braucht keine höhere Mathematik, um die Fadenscheinigkeit dieser Begründung zu erkennen. Nach Berechnungen des Bonner Volkswirtes Dieter Damian, die von Manuel Frondel vom Rheinisch-Westfälischen Institut für Wirtschaftsforschung (RWI) bestätigt wurden, werden die kumulierten Kosten des subventionierten Ausbaus der Fotovoltaik in Deutschland schon im Jahre 2015 die Schallmauer von 100 Milliarden Euro durchstoßen haben, obwohl die blau schimmernden Siliziumscheiben bis dahin höchstens zwei Prozent zur Stromproduktion beitragen werden. Es käme billiger, jedem Arbeitslosen einfach ein Paket 500-Euro-Scheine in die Hand zu geben.
Die Netzbetreiber, das heißt in der Hauptsache die vier großen Energieversorgungsunternehmen E.ON, RWE, Vattenfall und EnBW und die mehr als 1.500 örtlichen Versorger, können diese Zusatzkosten bis jetzt wegen des geringen Wettbewerbs auf dem deutschen Strommarkt problemlos an die Endverbraucher weitergeben und dabei (wie die Kartellbehörden vermuten) sogar noch einiges aufschlagen. Die Stromverbraucher jedoch haben kaum Möglichkeiten, der staatlich verordneten Abzocke zu entgehen. Und die allgemeine Verteuerung des Stroms wird, ganz im Gegensatz zu der Behauptung Jürgen Trittins und Sigmar Gabriels, längerfristig unterm Strich höchstwahrscheinlich viel mehr Arbeitsplätze zerstören als neu schaffen. Neue Arbeitsplätze entstehen durch das EEG hauptsächlich in China und Japan, wo die meisten Solarzellen gefertigt werden.
Ausblick
Die Hinweise auf das näher rückende Platzen der „Erneuerbaren“-Blase dürfen nicht überbewertet werden. Der Öko-Industrie-Komplex wird, wie alle einmal etablierten techno-bürokratischen Strukturen, so schnell nicht verschwinden. Zum Geschäftsmodell des ÖIK gehört neben der massiven Subventionierung „erneuerbarer“ Energien vor allem der internationale CO2-Emissionshandel. Es handelt sich dabei, in den Worten des Wall Street Journal, um den „größten Umverteilungsplan seit Einführung der Einkommenssteuer.“ Davon werden die Banken, Versicherungen, Energie- und Anlagenbau-Konzerne, die sich dafür stark machen, so schnell nicht lassen. Die US-Umweltbehörde EPA schätzt die durch die Versteigerung von „Verschmutzungsrechten“ erzielbaren zusätzlichen Staatseinnahmen auf nicht weniger als 3,3 Billionen Dollar. Zwischen verschiedenen Firmen und Branchen der Privatwirtschaft würde Wertschöpfung in der Größenordnung von Hunderten von Milliarden Dollar umverteilt. Doch könnte die Vertrauenskrise in der Finanzwelt diese Pläne vereiteln, weil die deutlich spärlicher fließenden Kredite für dringendere Probleme wie die Rettung der Automobilindustrie vor dem Zusammenbruch benötigt werden.
Es besteht daher jetzt die Chance, das Ausufern des ÖIK zu stoppen und ihn auf eine einigermaßen erträgliche Größenordnung zurechtzustutzen. Voraussetzung dafür wäre die Popularisierung eines anderen politischen Feindbildes. Dieses könnte „Energieverteuerung“ oder „Versorgungsunsicherheit“ lauten. Eine neue Partei, die sich dieses auf die Fahne schriebe, hätte meines Erachtens durchaus Chancen, die politische Landschaft Deutschlands und der EU aufzumischen.
(veröffentlicht in: eigentümlich frei N° 88)
==================================================================
Das Wind-Erdgas-Kartell
Eigennützige Förderung von Windkraft-Projekten
Von Edgar Gärtner*
Die Hersteller von Gasturbinen und die Förderer von Erdgas profitieren beide davon, wenn Strom aus Windkraft gewonnen wird. Diese Abhängigkeit führt jedoch zu Marktverzerrungen (Red.)
Der 80 Jahre alte texanische Erdöl- und Erdgas-Milliardär T. Boone Pickens möchte sich ein Denkmal setzen, indem er seine Landsleute mit Tausenden von Windrädern beglückt. Nun hat er die ersten 667 Windräder mit einer Gesamtkapazität von 1000 Megawatt (MW) für rund 2 Mrd. $ beim «grünen» amerikanischen Konglomerat General Electric (GE) bestellt. Damit möchte der anscheinend vom Saulus zum Paulus gewandelte Geschäftsmann mithelfen, die hohe Abhängigkeit seines Landes von Erdölimporten zu mindern.
Interessen der Erdgas-Industrie
Was auf den ersten Blick als grössenwahnsinnig anmutet, ist vermutlich Ausfluss einer höchst gerissenen Geschäftsstrategie. Waren frühere Windkraft-Investoren
vielleicht noch wirklich davon überzeugt gewesen, mit ihrer guten Tat die Welt retten zu helfen, so geht es den Heutigen in der Regel um etwas ganz anderes. Es hat sich herumgesprochen, dass jedes Kilowatt installierte Windleistung durch eine entsprechende Leistung eines konventionellen Kraftwerks ergänzt werden muss, um die Unstetigkeit des Windes auszugleichen. Wer sich heute für Windräder stark macht, dem geht es also höchstwahrscheinlich eher darum, Gasturbinen und/oder Erdgas zu verkaufen. In der Tat: Zu Pickens Unternehmens- gruppe gehört die ausserordentlich erfolgreiche Erdgas- Explorationsgesellschaft XTO-Energy.
Auch bei der «Ecomagination»-Kampagne von GE liegt das Erdgas-Interesse auf der Hand. GE bietet inzwischen seine Windenergieanlagen besonders preisgünstig an, um Bestel- lungen von Gasturbinen anzukurbeln. Bei Gasturbinen ist GE unangefochten Weltmarktführer und verdient damit viel mehr als auf dem umkämpften Markt für Windräder. Darüber kann sich selbst Rex Tillerson, der Chef des Erdöl-Giganten Exxon Mobil freuen. Obwohl Tillerson Umweltschützer auf die Palme bringt, weil er nicht viel von Investitionen in erneuerbare Energien hält und fortwährend wiederholt, dass Erdöl sein Kerngeschäft bleibt, hat auch er längst kapiert, dass mit Erdgas viel mehr zu verdienen ist. Dort investiert Exxon Mobil neuerdings kräftig. Sein europäischer Mitbewerber Royal Dutch Shell hat sich, kaum bemerkt von der Öffentlichkeit, längst in einen Erdgas-Konzern verwandelt, der – je nach Standort – eng mit staatseigenen Lieferanten wie Gazprom (Russland) oder Sonatrach (Algerien) kooperiert. Inzwischen sieht sich die EU in der Energiepolitik einer geschlossenen Front von Erdgaslieferanten – einer Art Erdgas-OPEC – gegenüber, zu der neben den genannten Konzernen auch das Emirat Katar und die Erdöl- beziehungsweise Erdgas-Konzerne Chevron, BP und Total gehören.
«Erdgas-Opec»
Kürzlich verlautete am World Petroleum Congress (WPC) in Madrid, über 80 Prozent der in den kommenden 20 Jahren in der EU installierten Kraftwerkkapazitäten entfielen voraussichtlich auf kombinierte Gas- und Dampfturbinen. In Spanien sind solche Turbinen mit 21 Gigawatt (GW) Gesamtkapazität bereits zur wichtigsten Stromquelle geworden. Das ist kein Zufall, denn Spanien ist nach Deutschland das EU-Land mit der höchsten Windkraft-Kapazität. Sie erreichte Ende 2006 rund 11 000 MW. Bei schätzungsweise 2000 Volllast-Stunden im Jahr entspricht das einer Elektrizitäts-Produktion von 23 Terawattstunden. Um diese sehr unregelmässig anfallende Strommenge im Übertragungsnetz abzupuffern, eignen sich am besten rasch an- und abschaltbare Gasturbinen.
Auch in Deutschland, wo über 20.000 Windräder mit einer Gesamtkapazität von 21.400 MW die Landschaft „verschönern“, stieg der Gaseinsatz für die Stromproduktion parallel zum Ausbau der Windkraft, und zwar von 35,9 Mrd. kWh im Jahre 1990 auf 74,5 Mrd. kWh in 2007. Der Anteil von Gas an der gesamten Stromproduktion wuchs von 6,5 Prozent im Jahre 1990 auf 11,7 Prozent in 2007, während der Anteil von Windstrom von Null auf 6,2 Prozent stieg (siehe Grafik)). Das ist sicher nicht ganz zufällig. Bis heute wird in Deutschland allerdings noch immer ein Teil des Windkraft-Backup von alten Kohlekraftwerken übernommen. Diese müssen dann in einem unwirtschaftlichen Stand-by-Betrieb laufen, um bei Bedarf rasch angefahren werden zu können. Die Grünen und auch beträchtliche Teile der Regierungsparteien kämpfen derzeit mit allen ihnen zur Verfügung stehenden Kräften gegen den Bau neuer Kohlekraftwerke. Deshalb ist es absehbar, dass die meisten alten Kohlekraftwerke letzten Endes durch Gasturbinen ersetzt werden.
Einen zusätzlichen Auftrieb erhalten die Verkäufer von Erdgas durch den Handel mit europäischen CO2-Emissionsrechten. Sobald die Emissionsrechte – wie vorgesehen – ab 2013 ersteigert werden müssen, macht der Emissionshandel Investitionen in die energetische Nutzung der reichlich vorhandenen Vorräte an Braun- und Steinkohle uninteressant. Der Vormarsch des Erdgases in der Stromproduktion der EU führt zur fatalen Konsequenz, dass es schon bald keine echte Wahlmöglichkeit zwischen leitungsgebundenen Energieträgern mehr geben wird. Die wichtigste Alternative zum Einsatz von Erdgas in Turbinen ist übrigens Kerosin, das zurzeit, bezogen auf die enthaltene Wärmeenergie, beinahe doppelt so viel kostet wie Rohöl. Dadurch zeichnet sich der Korridor der zukünftigen Entwicklung des Erdgaspreises ab. Es ist zu erwarten, dass der Gaspreis nicht länger vom Rohölpreis abhängen, sondern sich in 5 bis 10 Jahren dem Kerosinpreis angleichen wird. Nur Länder, die wie die Schweiz über große Wasserkraftreserven verfügen, könnten die einseitige Abhängigkeit vom Gas vermeiden.
Erdölländer setzen auf Kohle
Statt in Europa wird die weltweit zu günstigen Preisen verfügbare Kohle nun ausgerechnet in den Erdöl- und Erdgasförderländern verstärkt genutzt. Russland baut zurzeit 30 neue Kohlekraftwerke, um das immer teurer werdende Erdgas für den Export zu reservieren. Auch das Emirat Dubai setzt für die eigene Stromversorgung auf Kohlekraftwerke, weil dessen Wirtschaftsstrategen die eigenen Erdöl- und Erdgasvorräte dafür zu schade erscheinen.
*) erschienen in: Neue Zürcher Zeitung am 7. August 2008
================================================================
Umweltschutz jenseits der Rationalität von Edgar L. Gärtner*)
Jede gesellschaftliche Interessengruppe erzählt die Geschichte ihres Anliegens so, wie es ihr in den Kram passt. Auf Neudeutsch heißt das Story Telling. Wer begreifen will, wie und wann das zunächst vernünftige Anliegen des Umweltschutzes zu einem krankhaft religiösen Weltrettungswahn mit selbstmörderischen Zügen wurde, wer begreifen will, wie bürokratisch-rationale Umweltschützer zu skrupellosen Nihilisten wurden, die nicht davor zurückschrecken, Menschenleben zu opfern, um eine vermeintlich drohende Klimakatastrophe abzuwenden, der ist wohl schlecht beraten, wenn er ausgerechnet jene um Auskunft fragt, die den Umweltschutz – in welcher Form auch immer – zu ihrem Geschäft gemacht haben. Diese schwelgen im Mythos des Sündenfalls der industriellen Revolution bzw. des „Stummen Frühlings“ (Rachel Carson, 1962) infolge der Chemisierung der Landwirtschaft. Dieser Mythos steht auch hinter den „Grenzen des Wachstums“ (1972), deren Entdeckung zu Beginn der 70er Jahre des vergangenen Jahrhunderts eine politische Wende erzwungen habe.
Doch der Start der Umweltpolitik im heutigen Sinne um 1970 hatte wenig mit einer krisenhaften Zuspitzung von Umweltproblemen zu tun, sondern mehr mit einer Anpassung der Strategie des Nordatlantischen Bündnisses an gewandelte Bedingungen des Kampfes gegen den Kommunismus. Zu ihren Hintergründen zählen die Infragestellung der westlichen Lebensweise durch die Studentenrevolte von 1968, die drohende Niederlage der USA im Vietnam-Krieg und das in Form der „Entspannung“ sich abzeichnende Ende des Kalten Krieges. Die Watergate-Affäre brachte zutage, welche Panik unter US-Präsident Richard Nixon im Weißen Haus herrschte. Um davon abzulenken, bot sich der von Denkfabriken wie der RAND Corporation und der Ministerialbürokratie vorgeschlagene neue Politiktypus „Umweltpolitik“ an.
Reaktive ordnungsrechtliche Eingriffe
Auf echte stoffliche Engpässe der industriellen Umweltnutzung und die damit verbundene Verletzung von Eigentumsrechten hatten klassische Industriestaaten wie England oder Deutschland, auf Druck Geschädigter, schon seit dem 19. Jahrhundert fallweise mit durchaus wirksamen ordnungsrechtlichen Eingriffen reagiert.
• Im englischen Parlament gab es heftige Auseinandersetzungen zwischen dem eingesessenen Landadel und Sodafabrikanten, die als Emporkömmlinge einen unsicheren gesellschaftlichen Status innehatten. Der Grund war das für die Sodaherstellung zunächst angewandte Le-Blanc-Verfahren. Dabei wird Salzsäure frei, die die Vegetation in der Umgebung der Sodawerke verätzte. Aufgrund des 1863 erlassenen Alcali Act schickte der Staat Inspektoren in die Sodawerke, um für eine Verminderung der Salzsäure-Emissionen zu sorgen. Der Konflikt wurde aber letzten Endes nicht durch den Alcali Act, sondern durch den Übergang zum umweltfreundlicheren Solvay-Verfahren der Soda-Herstellung gelöst.
• 1869 kam im späteren Deutschland mit der Gewerbeordnung (GewO) des Norddeutschen Bundes die Genehmigungspflicht für alle Industrieanlagen, die Nachbargrundstücke beeinträchtigen können.
• Das deutsche Wasserhaushaltsgesetz (WHG) von 1957 war die Antwort auf die Übernutzung der Selbstreinigungskraft von Bächen, Flüssen und Seen während des Wirtschaftsbooms der Nachkriegszeit.
• Anlass für die Technische Anleitung (TA) Luft von 1964, eine Verwaltungsvorschrift auf der Basis des § 16 der GewO von 1869, war die extreme Belastung der Luft des Ruhrgebietes mit Grob- und Feinstaub sowie mit Schwefel- und Stickoxiden, die zur Abwanderung von Arbeitskräften führte und zum Hemmschuh für die Modernisierung der Industrie durch die aufkommende Elektronik wurde. Der spätere sozialdemokratische Bundeskanzler Willy Brandt hatte 1961 im Wahlkampf gefordert: „Der Himmel über der Ruhr muss wieder blau werden.“ Diese Verwaltungsvorschrift begnügte sich mit der Einführung von Emissionsgrenzwerten für wenige Schadstoffe und von Berechnungsmethoden für die für eine großräumige Verteilung von Abgasen erforderliche Höhe von Fabrikschornsteinen.
Die Bürokratie übernimmt die Führung
Doch dann geht die Bürokratie in die Offensive. Im Jahre 1969 wird anlässlich des 20-jährigen Bestehens des Nordatlantik-Paktes das NATO Committee on Challenges of Modern Societies (CCMS) feierlich aus der Taufe gehoben. Dieses wurde als “dritte Dimension” der NATO bekannt. Sein erklärtes Hauptanliegen war die “Nutzbarmachung wissenschaftlicher Erkenntnisse bei der Entscheidungsfindung”, d. h. die Übertragung betriebswirtschaftlicher und militärisch-logistischer Systemanalyse- und Planungsmethoden in die zivile Verwaltung. Erstmals wurden diese Methoden (mit überwiegend enttäuschenden Ergebnissen) im Rahmen des sozialpolitischen „Great Society“-Programms unter US-Präsident Lyndon B. Johnson erprobt. Als weitaus erfolgreicher (im Sinne der Bürokratie) erwies sich der am 1. Januar 1970 unter Präsident Richard Nixon verabschiedete US National Environmental Policy Act. Darin wurde auch der Begriff „Environmental Protection“ (Umweltschutz) geprägt. In den bis dahin eingeführten fall- und medienbezogenen ordnungsrechtlichen Regelungen wird man den heute gängigen Begriff vergebens suchen. Er tauchte erstmals in dem im September 1970 kurz nach dem US-Umweltprogramm ohne konkreten Anlass beschlossenen „umweltpolitischen Sofortprogramm“ der Bundesregierung auf.
Sehr anspruchsvoll kam dann das 1971 verabschiedete umfassende Umweltprogramm der deutschen Bundesregierung daher. Sein erklärtes Ziel: „Unerwünschte Nebenwirkungen wirtschaftlicher und gesellschaftlicher Entwicklungen sollen rechtzeitig erkannt und durch weit vorausschauende Umweltplanung vermieden werden.“ Voraussetzung dafür sei die Weckung eines „Umweltbewusstseins“ in der breiten Bevölkerung. Implizit ist hier auch schon das erst später so genannte „Vorsorgeprinzip“ angedeutet – und die damit verbundene Angstmache.
Nach dem oft gedankenlos zitierten, aber im Grunde vermessenen Grundsatz „Vorbeugen ist besser als heilen“ soll die so verstandene Umweltpolitik das Übel an der Wurzel packen und sich nicht mit dem Kurieren von Symptomen begnügen. Der gesunde Menschenverstand legt es stattdessen nahe, Probleme immer ein Stück weit auf sich zukommen zu lassen und Vorsorgeaufwendungen von ihrem absehbaren Nutzen abhängig zu machen. Denn wer sich allzu sehr um ungelegte Eier sorgt, der versäumt bekanntlich das Leben. Das „Vorsorgeprinzip“ war schon im WHG in Form des „Besorgnisgrundsatzes“ angeklungen. Im deutschen Bundesimmissionsschutzgesetz (BImSchG) von 1974, einer „ganzheitlichen“ Weiterentwicklung der TA Luft, wurde es dann weltweit zum ersten Mal kodifiziert. Es enthält, wie noch demonstriert werden wird, den Keim des Umschlags der bürokratisch-rationalen Regulierung in eine von irrationalen, nihilistischen Motiven getriebene Bewegung nach dem Prinzip „Selbstmord aus Angst vor dem Tod“.
Bei der Umsetzung des Versuchs, schon im Vorhinein klüger zu sein, setzten Spitzenbeamte des in Deutschland für den Umweltschutz zuständigen Bundesinnenministeriums (BMI), entsprechend des von US-Denkfabriken ersonnenen Modells der „professionalized reform“, von Anfang an auf das „Wadenbeißen“ außerparlamentarischer Gruppen, die heute als Non Governmental Organizations (NGOs) bekannt sind, und auf die Verwandlung der Massenmedien in eine „Angst-Industrie“. Die „Bürgerinitiativen“ wurden von der Ministerialbürokratie, wenn nicht aus der Taufe gehoben, so zumindest gezielt mit Informationen und einer „Anschubfinanzierung“ versorgt. Der damals im BMI für den Umweltschutz zuständige Staatssekretär Günter Hartkopf (FDP) hat das nach seiner Pensionierung in einer Rede auf dem Deutschen Beamtentag 1986 in Bad Kissingen offen ausgesprochen. Außerdem bedurfte die bürokratische Offensive einer Art von Zeigefinger-Pädagogik. Darum kümmerte sich eine elitäre Gruppe mit dunklem Hintergrund: der Club of Rome. Dessen Bericht „Die Grenzen des Wachstums“ (1972) half entscheidend mit, die Idee einer geschlossenen Welt mit absolut begrenzten Rohstoffvorräten bzw. den Mythos „Sündenfall industrielle Revolution“ zu verbreiten.
Bürokratie birgt nihilistische Versuchung
Der Übergang von der rationalen bürokratischen Planung und Regulierung zur Anbiederung an galoppierende Ängste bzw. nihilistische Auslegungen des „Vorsorgeprinzips“ begann schon zu Beginn der 80er Jahre, als die Vergilbung von Nadelbäumen in deutschen Mittelgebirgen als Symptom eines allgemeinen „Waldsterbens“ gedeutet wurde, das nur durch eine Drosselung des Kraftverkehrs und durch Milliarden-Investitionen in Rauchgasreinigungsanlagen aufgehalten werden könne. Kosten-Nutzen-Abwägungen spielten dabei offenbar schon keine Rolle mehr. Später stellte es sich heraus, dass die Entschwefelung der Rauchgase von Kohlekraftwerken zu weit getrieben worden war. Verblasste Rapsblüten auf den Feldern wiesen unmissverständlich auf Schwefelmangel in den Ackerböden hin.
1986 kam das Prinzip „Selbstmord aus Angst vor dem Tod“ vollends zum Durchbruch. Wichtigster Auslöser war die Reaktorexplosion von Tschernobyl in der Ukraine. In Deutschland griff Hysterie um sich. Aus Angst vor einer Kontamination durch den Fall Out der in Tschernobyl aufgestiegenen „Wolke“ mit radioaktiven Spaltprodukten verzichteten viele Menschen auf frische Nahrungsmittel und griffen zu Konserven. Manche retteten sich gar auf ferne Inseln. Unvergessen bleibt die Irrfahrt eines Güterzuges mit „verstrahltem“ Molkepulver kreuz und quer durch Westdeutschland. Um die seit der „Ölkrise“ von 1973/74 getätigten riesigen Investitionen in Kernkraftwerke zu retten, machten sich Ministerialbürokratie und Atomindustrie die Hypothese einer durch übermäßige Kohlenstoffdioxid-Emissionen verursachten Überhitzung der Erde zu Eigen. Dieser erstmals gegen Ende des 19. Jahrhunderts vom schwedischen Chemiker Svante Arrhenius in die Welt gesetzte verstiegene Ansatz für die Erklärung der Eis- und Warmzeiten in der Erdgeschichte (unabhängig von heute bekannten astronomischen und geologischen Zyklen) spielte zwar schon bei der Begründung der „dritten Dimension“ der NATO eine Rolle und war auch von amerikanischen Investoren-Kreisen schon als weit tragende Geschäftsidee erkannt worden, wurde aber bis dato in Europa sowohl in der Wissenschaft als auch in den nationalen Bürokratien zu recht nicht ernst genommen.
Schließlich erklärte der „Erd-Gipfel“ 1992 in Rio de Janeiro das „Vorsorgeprinzip“ in der Rio-Deklaration, in der „Agenda 21“ und in der Klima-Rahmenkonvention zur obersten Richtschnur der Politik. Grundsatz 15 der Rio-Deklaration lautet auf Deutsch: “Drohen schwerwiegende oder bleibende Schäden, so darf ein Mangel an vollständiger wissenschaftlicher Gewissheit kein Grund dafür sein, kostenwirksame Maßnahmen zur Vermeidung von Umweltverschlechterungen aufzuschieben.” Was heißt „kostenwirksam“ (cost effective)? Kosteneffizienz ist damit offenbar nicht gemeint. Denn Kosten-Nutzen-Vergleiche sollen keine entscheidende Rolle spielen, wenn es darum geht, eine hypothetische Klimakatastrophe aufzuhalten. Die Europäische Union bezieht sich im Maastricht-Vertrag von 1992 ebenfalls auf das „Vorsorgeprinzip“, und zwar ohne es zu definieren und ohne klar zu stellen, in welchem Verhältnis dieses zu dem im gleichen Vertrag verankerten Prinzip der Verhältnismäßigkeit steht. Der Versuch einer Klärung erfolgte erst acht Jahre später in einer im Jahr 2000 veröffentlichten „Communication“ der EU-Kommission. Deren Einfluss auf grundlegende politische Entscheidungen hat aber seit der Jahrtausendwende kontinuierlich abgenommen. Vor zwei Jahren forderte der amtierende EU-Umweltkommissar Stavros Dimas offen den Übergang zu einer planmäßigen „Kriegswirtschaft“, um den Klimawandel – koste es, was es wolle – durch eine „ökologische Revolution“ zu bekämpfen.
Eindeutig pathologische Züge trägt der Beschluss Deutschlands und der EU, den CO2-Ausstoß bis zum Jahre 2020 im Alleingang um 20 Prozent zu reduzieren. Überschlägige Berechnungen weisen aus, das die „Maßnahmen-Pakete“, mit deren Hilfe dieser Beschluss in Deutschland umgesetzt werden soll, zwischen 500 und 900 Milliarden Euro verschlingen werden. Auf der Ebene der EU kommt man schnell in die Billionen. Dabei geht es insbesondere um physikalisch oft mehr als fragwürdige Energiesparmaßnahmen. Selbst wer an die CO2-Hypothese glaubt, wird nicht behaupten können, diesem Aufwand stände irgendein messbares Ergebnis gegenüber. Deutschland wird, wenn die Entwicklung „nach Plan“ verläuft, im Jahre 2030 nur noch mit 1,2 Prozent zum weltweiten CO2-Ausstoß beitragen, während allein auf China über ein Viertel entfiele. Selbst das völlige Verschwinden Deutschlands hätte unter dieser Bedingung keinerlei Einfluss auf die globale Durchschnittstemperatur.
Man sieht hier, dass der gefährliche Schwebezustand zwischen einem pervertierten Christentum und dem Glauben an den Übermenschen, den Friedrich Nietzsche als Nihilismus bezeichnete, schlicht mit Dummheit gleichgesetzt werden kann. Um die Dummheit zu verbreiten, bedarf es keiner Verschwörung, denn Dummheit ist von sich aus hoch ansteckend. Wie Dummheit zur Epidemie werden kann, hat Elisabeth Noelle-Neumann mit ihrer Theorie der „Schweigespirale“ gezeigt.
Von einer vagen Hypothese zur totalitären Fiktion?
Inzwischen ist die verstiegene Hypothese eines „Treibhauseffektes“ und dessen Verstärkung durch CO2-Emissionen menschlichen Ursprungs infolge ihrer Verbindung mit einer breiten politischen Bewegung und einem immer mächtiger werdenden „Ökologisch-industriellen Komplex“ (ÖIK) von Profiteuren hoch subventionierter „erneuerbarer“ Energien, des CO2-Emissionshandels und damit verbundener wachsender Erdgasabhängigkeit dabei, sich zu einer gegenüber der Realität abgedichteten totalitären Fiktion zu verselbständigen. Wer heute möglichst viel Erdgas zu möglichst hohen Preisen verkaufen will, der sorgt dafür, dass ganze Länder wie Deutschland oder Spanien voll Windräder gestellt werden. Denn deren unstete Stromproduktion lässt sich am besten mit rasch an- und abschaltbaren Gasturbinen kompensieren. Die Zunahme des Erdgasverbrauchs korreliert in beiden Ländern sehr eng mit der Zunahme der Anzahl von Windrädern. Nur mithilfe marktwidriger staatlicher Vorgaben wie dem deutschen Gesetz über den Vorrang erneuerbarer Energien (EEG) von 2004 bzw. 2008 lassen sich diese parasitären Geschäftsstrategien umsetzen. So entstehen stabile staatsmonopolistische Kartelle.
Die Tatsache, dass die Durchschnittstemperatur über den Landmassen der Erde nun schon ein Jahrzehnt lang, trotz eines vor allem in Asien kräftig gewachsenen CO2-Ausstoßes, nicht mehr steigt, hat deshalb bislang weder in der großen Politik noch in der Wirtschaft dazu geführt, die Stichhaltigkeit der CO2-Erwärmungs-Hypothese in nennenswertem Umfang zu hinterfragen. Im Gegenteil: Es werden CO2-Rationierungs-Pläne auf der Basis persönlicher CO2-Kreditkarten geschmiedet, die bald dazu führen könnten, dass nicht nur Industrien, sondern auch Privatpersonen buchstäblich für jeden Furz CO2-Emissions-Zertifikate erwerben müssen. CO2-Sparen soll zum zentralen Lebensinhalt werden. Ein solches System als „Öko-Faschismus“ zu bezeichnen, wäre ein Euphemismus, denn das Regime Benito Mussolinis erschiene demgegenüber noch beinahe als liberal. Darin, und nicht etwa im islamistischen Terrorismus, sehe ich derzeit die mit Abstand wichtigste Gefahr für die Freiheit.
Als totalitär definierte die große politische Philosophin Hannah Arendt Fiktionen, die aufgrund gewisser politischer und ökonomischer Konstellationen allgegenwärtig und unwiderlegbar werden. Arendt hat das bekanntlich in ihrem Hauptwerk „Elemente und Ursprünge totalitärer Herrschaft“ am Beispiel der Fiktion einer jüdischen Weltverschwörung aufgezeigt. Solche Fiktionen tragen Züge einer self fulfilling prophecy. Hitler konnte nicht widerlegt, sondern nur militärisch besiegt werden, bemerkte Arendt lapidar. Auch wenn der „Krieg der Köpfe“ in der Klimafrage schon längst kaum mehr in Form wissenschaftlicher Dispute ausgetragen wird, besteht aber meines Erachtens noch immer etwas Hoffnung, dass sich auch hier zu guter Letzt die Spreu auf einigermaßen normalem Wege vom Weizen trennt. Gelingt das nicht, müsste man versuchen, die Öko-Nihilisten mit ihren eigenen Waffen zu schlagen – zum Beispiel, indem man Neid gegen die Profiteure des ÖIK schürt. Aber das wäre für anständige Liberale sicher das letzte Mittel…
*) vorgetragen am 13. Juni 2008 auf dem Symposium des Liberalen Instituts, Zürich, zum Thema „Umweltschutz als Freiheitsschutz“
Literatur:
Arendt, Hannah: Elemente und Ursprünge totaler Herrschaft. Antisemitismus, Imperialismus. Totalitarismus. Taschenbuchausgabe, München 2003
Gärtner, Edgar L.: Vorsorge oder Willkür. Kunststoffweichmacher im politischen Kreuzfeuer, Köln 2006
Gärtner, Edgar L.: Öko-Nihilismus. Eine Kritik der Politischen Ökologie, Jena 2007
Gärtner, Edgar L.: Klimaschutzpolitik als Ausdruck des Nihilismus. Ein Plädoyer für gesunden Menschenverstand und Wettbewerb statt Bürokratie und konsensuale Gutheissung, in: Neue Zürcher Zeitung vom 7. Juni 2008
Noelle-Neuman, Elisabeth: Die Schweigespirale. Öffentliche Meinung – unsere soziale Haut. 6. Aufl., München 2001
(Dieser Vortragstext wurde inzwischen veröffentlicht in: Christian Hoffmann/Pierre Bessard (Hrsg.): Natürliche Verbündete. Marktwirtschaft und Umweltschutz. Edition Liberales Institut, Zürich. ISBN 978-3-033-01795-5)
Vom Geist der Freiheit
Hochmut kommt vor dem Fall. Ist es deshalb so abwegig, einen Zusammenhang zwischen dem schrecklichen Erdbeben in Haiti mit Hunderttausenden von Toten und dem geistigen Hintergrund der sozialrevolutionären Ursprünge der Insel-Republik zu vermuten? Immerhin gingen Haitis „schwarze Jakobiner“ im Jahre 1791 in einer Voodoo-Zeremonie einen Pakt mit dem Teufel ein, um die Befreiung von der französischen Kolonialherrschaft zu erlangen.
Freiheit: Auf den Geist kommt es an
Warum Materialismus und Christophobie in die Knechtschaft führen
Nach der Veröffentlichung meines Blogs über die spirituellen Hintergründe des Haiti-Desasters (auf dieser Unterseite weiter unten) an dieser Stelle bin ich von einem Teil der libertären Szene in Deutschland buchstäblich exkommuniziert worden. Es fehlte nur noch die Steinigung. Ich übergehe hier anstandshalber die wohl willentlichen Missverständnisse und die mir gegenüber vorgebrachten absurden Unterstellungen, die im Vorwurf der Scheinheiligkeit gipfeln. Worüber ich mich wundere, wenn nicht ärgere, ist die den meisten Kritiken zugrunde liegende materialistische Weltsicht und die zum Teil offen zutage tretende Christophobie.
Um deutlicher zu werden: Die kontrastierende Geschichte der beiden Teile der Karibik-Insel Hispaniola zeigt meines Erachtens alles in allem, dass es bei der Entwicklung der Wirtschaft und der Entfaltung menschlicher Freiheit weniger auf natürliche als auf geistig-religiöse Voraussetzungen ankommt. „Wo der Geist des Herrn wirkt, da ist Freiheit“, heißt es im zweiten Brief des Apostels Paulus an die Korinther. Wer abstreitet, dass unser abendländischer Humanismus und dessen Freiheitsbegriff nicht nur auf Sokrates, sondern auch auf Jesus von Nazareth und die spätantiken beziehungsweise mittelalterlichen Kirchenlehrer zurückgeht, sieht das freilich ganz anders. Für materialistisch, wenn nicht antichristlich ausgerichtete Libertäre ist der Kolonialismus eine Folge der Verbindung von christlichem Missionseifer mit materieller Gier und nicht Ausdruck der Abkehr Getaufter von der biblischen Botschaft.
Deshalb treffen sich Atheisten bei der Analyse der Hintergründe natürlicher und gesellschaftlicher Kataklysmen auch letzten Endes mit den Marxisten. Schon Fjodor Dostojewskij erkannte in der „Legende vom Großinquisitor“, dass die logische Konsequenz des Atheismus nicht die individuelle Freiheit, sondern die Verabsolutierung der Gleichheitsidee im Sozialismus beziehungsweise Kommunismus ist. Uneingestandenes Ziel des Sozialismus wiederum sei das Nichts, der Tod der Menschheit. Das hat der hoch dekorierte russische Mathematiker Igor Schafarewitsch schon in den siebziger Jahren des vergangenen Jahrhunderts in einem auch im Westen erschienenen bemerkenswerten historischen Überblick unter dem deutschen Titel „Der Todestrieb in der Geschichte“ herausgearbeitet. Schafarewitsch, den ich selbst, angeregt von den Kollegen Fink und Lichtschlag, leider erst Ende 2009 rezipiert habe, bestätigt meine Einschätzung, dass auch der Liberalismus zu einer Form von Nihilismus werden kann, wenn er sich gegen das christliche Gottes- und Menschenbild stellt. ((9. Februar 2010)
Internet
Der Sozialismus: so alt wie die Menschheit
Liberalismus: Eros der Freiheit ohne Gott?
====================================================================================
Haiti: Der Fluch der Blasphemie
Warum US-Fernsehprediger Pat Robertson nicht ganz falsch liegt
Der inzwischen 79-jährige evangelikale Star-Prediger Pat Robertson löste Wellen gutmenschlicher Entrüstung aus, als er das schreckliche Erdbeben auf Haiti am 13. Januar im TV-Sender Christian Broadcasting Network (CBN) auf einen Pakt mit dem Teufel zurückführte, den die aufständischen Negersklaven der einst als „Perle der Karibik“ bekannten Insel im Jahre 1791 im Rahmen einer Voodoo-Zeremonie geschlossen hatten, um die Befreiung von der französischen Kolonialherrschaft zu erlangen. Zweifelsohne eine Provokation für alle Kulturrelativisten, die vielleicht gerade noch die Existenz eines fernen Gottes zugeben, jedoch die Existenz seines Gegenspielers Satan leugnen müssen. Aber ist es tatsächlich so abwegig, einen Zusammenhang zwischen dem aktuellen Desaster mit Hunderttausenden von Toten und dem geistigen Hintergrund der sozialrevolutionären Ursprünge der Republik Haiti zu postulieren?
Viele Touristen werden sich schon darüber gewundert haben, dass die westindische Insel Hispaniola, auf der Christoph Kolumbus und seine Seeleute 1492 erstmals amerikanischen Boden betraten, vom Flugzeug aus auffällig zweigeteilt erscheint. Der etwas größere östliche Teil, die spanisch sprechende Dominikanische Republik, ist satt grün, während der von der französisch sprechenden Republik Haiti eingenommene westliche Teil beinahe so kahl ist wie der Mond. Die Dominikaner leben mehr oder weniger einträglich vom Tourismus, während die Haitianer heute, trotz mehr als großzügiger „Entwicklungshilfe“ der US-Amerikaner in den vergangenen Jahrzehnten, zum allergrößten Teil bettelarm sind. Dieser Kontrast hat offenbar keine natürlichen Ursachen.
Nachdem die wenigen Ureinwohner ausgerottet und die Insel unter französische Herrschaft gelangt war, blühte dort über hundert Jahre lang der Zuckerrohranbau, der mithilfe aus Afrika importierter Sklavenheere betrieben wurde. Haiti wurde zu Frankreichs ertragreichster Kolonie. Als aber im französischen „Mutterland“ die Revolution ausbrach und Robespierre und seine Anhänger die Oberhand bekamen, konnte es nicht ausbleiben, dass einzelne Schwarze, die aufgrund besonderer Umstände eine bessere Bildung genossen hatten, von der in der Metropole herrschenden Gleichheits-Idee angesteckt wurden. Zu ihnen gehörte der als „schwarzer Jakobiner“ bekanntgewordene Toussaint Louverture, der Sohn eines in Benin geborenen freigelassenen Haussklaven. Er wurde zum Führer der weltweit einzigen (vorübergehend) erfolgreichen Sklavenerhebung, erlebte aber nicht mehr deren Sieg über das von Napoleon gesandte Expeditionskorps und die Unabhängigkeitserklärung Haitis im Jahre 1804 unter seinem Genossen und Rivalen, dem „schwarzen Kaiser“ Jean-Jacques Dessalines.
Das heutige, nicht erst durch das aktuelle Erdbeben ausgelöste gesellschaftliche und politische Desaster Haitis nahm seinen Lauf mit der nach der Revolution eingeleiteten egalitären Landreform. Die Besitzer der Zuckerplantagen wurden enteignet. Jede Bauernfamilie erhielt zunächst 15 Hektar Ackerland. Da die meisten Familien sich auf die Befriedigung ihres eigenen Bedarfs konzentrierten, brach die Exportwirtschaft zusammen. Infolge der von der Gleichheits-Idee diktierten Erbteilung des Landes schrumpften die Parzellen mit jeder neuen Generation immer mehr zusammen. Um die rasch wachsende Bevölkerung zu ernähren, wurden nach und nach auch die für den Ackerbau kaum geeigneten steilen Berghänge gerodet. Dennoch verfügte schon im Jahre 1971 jede Bauernfamilie im Schnitt nur noch über anderthalb Hektar karges Ackerland. Heute wird der größte Teil der Agrarfläche, da durch Übernutzung ausgelaugt und durch starke Tropenregen erodiert, gar nicht mehr bestellt.
Revolutionsromantiker und Fair-Trade-Fans sehen das allerdings anders. Um von der verheerenden Wirkung der Gleichheitsideologie abzulenken, verweisen sie auf die der jungen Republik als Gegenleistung für die diplomatische Anerkennung durch Frankreich unter Androhung militärischer Gewalt auferlegte Entschädigungssumme für die Enteignung der Plantagenbesitzer in Höhe von 90 Millionen Goldfranken (heute umgerechnet 17 Milliarden Euro!). Um die Riesensumme einzutreiben und schrittweise abzubezahlen, mussten dem Volk große Opfer und Restriktionen auferlegt und die Ressourcen des kleinen Landes buchstäblich ausgeplündert werden. Dabei erwies es sich als fatal, dass in Haiti der Voodoo-Kult von Anfang an als dem Christentum zumindest ebenbürtig, wenn nicht überlegen angesehen wurde. Das ist eine logische Konsequenz der Gleichheitsideologie beziehungsweise des Kulturrelativismus. Die infantile Gleichsetzung des demütigen Betens um göttliche Gnade mit obskurantistischen Beschwörungen und Zaubereien begünstigte die Machtübernahme durch Dynastien kleptokratischer Diktatoren und die damit einhergehende Vernachlässigung von Vorsorge-Investitionen gegen Hurrikane und Erdbeben. Davon hat sich Haiti nicht mehr erholt. Im Jahre 2003 haben Voodoo-Priester den ausgelaufenen Teufelspakt von 1791 mit Tieropfern ausdrücklich erneuert. Ein halbes Jahr zuvor hatte der damals herrschende Diktator Jean-Bertrand Aristide den Voodoo-Kult zur zweiten Staatsreligion neben dem Katholizismus erklärt.
Ich möchte nicht behaupten, Spezialist für Voodoo zu sein, denn ich kenne dessen Praxis hauptsächlich aus Romanen von Naipaul und anderen literarischen Zeugnissen. Es kommt hier nur darauf an, was diesen Kult von der christlich geprägten abendlänischen Kultur unterscheidet. Das ist in meinen Augen der allegenwärtige Fatalismus. Christen wissen, dass sie sich von Gott entfernen, wenn sie ihre Hände in den Schoß legen. Sie versuchen deshalb, von verschiedenen Seiten drohendes Unheil durch Vorsorgemaßnahmen abzuwenden. Oft tun sie dabei, wie ich an anderer Stelle schon dargelegt habe, sogar des Guten zuviel. Der Gedanke der Vorsorge ist den meisten Haitianern jedoch fremd. Überall in der Karibik wurden inzwischen Bauvorschriften für einigermaßen erdbebensicheres und Hurrikan-resistentes Bauen erlassen. In Haiti wurde das versäumt, obwohl Entwicklungshilfe-Gelder dafür zur Verfügung gestanden hätten.
Was könnte man aus diesem (zugegebenermaßen sehr groben) Einblick in die Probleme Haitis lernen? Die Haitianer mussten wie die Franzosen und später die Russen und Chinesen erfahren, dass blutige Revolutionen – so gut sie auch gemeint sein mögen – alles noch schlimmer machen als vorher. Nur stille und unblutige Revolutionen wie etwa in jüngerer Zeit die Verbreitung des Internet und mehr noch die Verbreitung des Christentums seit fast zwei Jahrtausenden bringen die Menschheit voran. Nach christlichem Verständnis ist jede blutige Erhebung gleichzusetzen mit Blasphemie, der die Strafe Gottes auf dem Fuße folgt. Auch Nichtchristen können kaum darüber hinwegsehen, dass es in der Geschichte keine vergleichbaren Fälle von Hochmut gibt, die nicht im Desaster endeten. Der Spruch „Hochmut kommt vor dem Fall“ bringt das zum Ausdruck. Nur Demut erweist sich als nachhaltig.
So kann ich dem Prediger Robertson zwar nicht folgen, wenn er zum Mord an Venezuelas rotem Diktator Hugo Chavez aufruft. Ich muss ihm aber zustimmen, wenn er die Zurückdrängung des Voodoo-Kultes durch massive Missionsarbeit für wichtiger erklärt als über aktuelle Nothilfe hinausgehende materielle Entwicklungshilfe. Der nicht religiös argumentierende Kolumnist des „Wall Street Journal“ Bret Stephens sieht das übrigens ähnlich. (aktualisiert am 3. Februar 2010)
Internet
Erdbeben eine Folge vom ‚Pakt mit dem Teufel’?
Haiti Hilflose Perle der Karibik
To Help Haiti, End Foreign Aid
Literatur
C. L. R. James: Die schwarzen Jakobiner: Toussaint Louverture und die Unabhängigkeitsrevolution in Haiti. Pahl-Rugenstein Verlag, Köln 1984. (Nicht mehr lieferbar, weil vom ehemals DKP-nahen Verlag wegen der trotzkistischen Position des Autors wieder aus dem Verkehr gezogen.)
=========================================================================================
Jeder braucht seine Apokalypse von Edgar L. Gärtner
Wer die Johannes-Offenbarung nicht kennt oder ablehnt, braucht die Klimakatastrophe
Wer sich mit der katholischen Liturgie etwas auskennt, der weiß, dass an Allerheiligen aus der Offenbarung des Johannes vorgelesen wird. Ich gestehe, dass ich am Sonntag, dem 1. November 2009, während der Verlesung des Evangeliums meine Gedanken etwas abschweifen ließ – allerdings durchaus nicht zu Dingen, die mit dem Thema nichts zu tun haben. Mir fiel nur ein, dass die Christen mit der Verbreitung der Johannes-Offenbarung seit fast 2000 Jahren doch eigentlich rundum mit apokalyptischen Gewissheiten versorgt sind und keiner weiteren Schreckensbilder bedürfen, um ihren Adrenalinspiegel beziehungsweise Angsthaushalt im Gleichgewicht zu halten. Dabei hatte ich die Theorie der Risiko-Kompensation im Hinterkopf, die der kanadische Psychologe Gerald J.S. Wilde schon vor Jahren in die Diskussion brachte, um die Beobachtung zu erklären, dass zusätzliche Sicherheitsvorkehrungen an Automobilen wie Sicherheitsgurte, Airbags oder ABS nicht unbedingt zu mehr Sicherheit im Straßenverkehr führen, weil sie die Fahrer zu einer riskanteren Fahrweise verleiten können.
Ich musste mich vor einigen Jahren mit dieser Thermostat-Theorie beschäftigen, als ich für die Risiko-Kommission des Bundesgesundheitsministeriums als Redakteur tätig war. Später habe ich einiges davon in meinem Buch „Vorsorge oder Willkür“ verarbeitet. Die Menschen brauchen offenbar einen bestimmten Risiko- und Stress-Pegel, um nicht vor Langweile einzuschlafen oder dem Alkohol zu verfallen. Eine solche Thermostat-Funktion gibt es aber vermutlich nicht nur beim menschlichen Risiko- und Stressbedürfnis, sondern auch bei der Angst vorm beziehungsweise der Lust am Untergang. Menschen, die die Johannes-Offenbarung nicht kennen oder nicht mögen, brauchen dafür vermutlich einen Ersatz. Deshalb greifen sie nach modernen Weltuntergangstheorien, saugen Computer-Hochrechnungen, die die nahende Erschöpfung von Rohstoff-Vorräten oder den drohenden Hitzetod an die Wand malen, begierig in sich auf.
Allerdings bieten diese Projektionen durchaus keinen gleichwertigen Ersatz für die biblische Apokalypse, auch wenn das die postmoderne „Diktatur des Relativismus“ postuliert. Die Johannes-Offenbarung besagt, dass Gott selbst dieser Welt ein Ende setzen wird und nicht wir Menschen. Oder anders herum: Der Weltuntergang wird nicht das Werk der Menschen sein. Wer die Menschen für einen drohenden ökologischen Kollaps verantwortlich macht, begeht also Gotteslästerung. Von daher verwundert es sehr, dass sich die meisten christlichen Kirchen inzwischen zum grünen Apokalypse-Ersatz bekennen. Denn Blasphemie wird bekanntlich nicht erst im Jenseits bestraft.
Für Gläubige ist der Weltuntergang ein Ende ohne Schrecken, weil er gleichbedeutend mit der Wiederkehr des Herrn Jesus Christus ist. Richtig verstandenes Christentum führt zur Gelassenheit. Christen können/dürfen sich gar nicht schuldig fühlen für einen angeblich drohenden Klima-Kollaps. Machtgierige bedienen sich heidnischer Ängste, um die Menschen gefügig zu machen. Wirklich gläubige Christen sollten sich von der Ersatzreligion Ökologismus nicht aus der Ruhe bringen lassen.
Internet:
============================================================================
Nachlese zum Darwin-Jahr:
Das Wahrheitsmonopol des Materialismus wankt
Von Edgar L. Gärtner
Hätten der Bundesrat und die Bundesländer einer Petition der naturalistischen (= nihilistischen) Giordano Bruno Stiftung nachgegeben, dann wäre der ohnehin schon unter der Hand zum „Vatertag“ (ohne Väter) umfunktionierte hehre christliche Feiertag „Christi Himmelfahrt“ dieses Jahr erstmals als „Tag der Evolution“ begangen worden. Die Initiative der Bruno Stiftung ist freilich nur eines von zahlreichen Beispielen für den anlässlich des 200. Geburtstages von Charles Darwin im Februar mit großsprecherischer Pose vorgetragenen Anspruch atheistisch ausgerichteter Darwinisten auf das Wahrheitsmonopol des Materialismus. Wer die Entwicklung an der Front naturwissenschaftlicher Forschung verfolgt, fragt sich allerdings unwillkürlich, auf welche neuen Erkenntnisse militante Atheisten wie Richard Dawkins oder Ulrich Kutschera ihre Überzeugung, die Annahme eines göttlichen Ursprungs des Universums sei nicht nur überflüssig, sondern sogar schädlich, denn stützen.
Denn wir sind gerade Zeugen eines fundamentalen Paradigmenwechsels in den Naturwissenschaften. Einsteins Dogma von der Unübertrefflichkeit der Lichtgeschwindigkeit ist im Sommer 2008 in Genf experimentell ins Wanken gebracht worden. Ein Physiker-Team unter Nicolas Gisin konnte zeigen, dass das von Einstein nur als absurde Konsequenz gegnerischer Auffassungen postulierte Verschränkungsprinzip in der Quantenphysik real existiert. Dieses Prinzip besagt, dass zwei Teilchen A und B, die einmal zusammen gehörten, nach der Trennung wie durch Spuk miteinander verbunden bleiben und mit unendlich hoher Geschwindigkeit Informationen austauschen, selbst wenn der Zeitpunkt der Trennung weit in der Vergangenheit liegt oder die Teilchen mittlerweile Lichtjahre voneinander entfernt sind. Es ist somit auch nicht ausgeschlossen, dass Wirkungen in der realen Welt manchmal ihren Ursachen vorauszugehen scheinen oder tatsächlich vorangehen. Scheinbar überirdische Phänomene wie Geistheilung, Telepathie, Homöopathie, Hellsehen oder Liebe auf den ersten Blick werden möglicherweise bald erklärbar, ohne dabei etwas von ihrem Zauber einzubüßen.
Die Vorstellung, ähnlich dem Dualismus von Teilchen und Welle unterliege auch das Verhältnis von Leib und Seele und somit das Bewusstsein den Regeln der Quantenphysik, ist nicht neu. Der australische Hirnforscher John C. Eccles, ein enger Freund des bekannten Wissenschaftsphilosophen Karl R. Popper, gehörte zu den ersten, die eine solche Parallelität postulierten. Popper begründete damit seine Vermutung, das menschliche Wissen sei zu 99 Prozent angeboren und werde durch Lernen nur aktualisiert. Eccles, der 1963 für seine bahnbrechenden Erkenntnissen über die Erregungsübertragung in den Nervenzellen den Nobelpreis für Medizin erhielt, glaubte stets daran, dass es eine vom Körper unabhängige und unsterbliche Seele gibt. Er dachte, der Geist beeinflusse das Gehirn, indem er auf mikroskopisch kleine Strukturen in der Großhirnrinde, die so genannten Pyramidenzellen, einwirkt. Ausgehend davon, versuchten die US-Forscher Stuart Hameroff und Roger Penrose das Bewusstsein durch den Kollaps der Wellenfunktion in den Mikrotubuli des Gehirns zu erklären. Inzwischen ist auch der Frankfurter Physikprofessor Thomas Görnitz überzeugt, dass Gedanken so real sind wie Atome. Stoffe sind nur vorläufige Produkte der Wechselwirkung von Feldern. Die Realität ist primär geistig.
„Über das Verschränkungsprinzip sind wir auf subtile Art und Weise mit jedem x-beliebigen Punkt des Universums verbunden!“, folgert der promovierte Chemiker und Wissenschaftsjournalist Rolf Froböse in seinem neuen Buch. Anhand weiterer Zeugnisse und Beispiele macht er deutlich, dass sich Leben und Bewusstsein nicht hätten entwickeln können, wenn es nicht seit dem Urknall vor 13,7 Milliarden Jahren einen universellen Quantencode gäbe, in dem die Möglichkeit der Lebensentstehung schon angelegt war. Die Wahrscheinlichkeit für die Entstehung des Lebens durch blinden Zufall beträgt nach Berechnung des Karlsruher Makromolekularchemikers Prof. Bruno Vollmert höchstens eins zu zehn hoch tausend. Eher würde ein funktionsfähiger Pentium-Rechner dadurch entstehen, dass man alle seine Elektronikteile in zigtausendfacher Ausführung von der Aussichtsplattform des Eifelturms auf die Straße würfe, meint Vollmert. In der Tat konnte man bei endlosen Wiederholungen des 1953 von Stanley L. Miller zum ersten Mal in Chicago durchgeführten Laborexperiments zur Simulierung der Lebensentstehung aus der „Ursuppe“ immer nur Aminosäuren, aber nicht einmal einfachste Eiweißmoleküle gewinnen. Dafür fehlte die Information, die heute durch DNA und RNA übermittelt wird, nach Ansicht Vollmerts ursprünglich aber von Gott gekommen sein muss.
Darwins Selektionstheorie sei deshalb nicht einfach falsch, meint Froböse, sondern beschreibe nur die Übersetzung des universellen Quantencodes, der sich in der Universalität des genetischen Codes äußert. Dabei beruft er sich auf den US-Biochemiker Lothar Schäfer, der die Auffassung vertritt, bei der Anpassung der Arten an unterschiedliche Lebensbedingungen durch Mutation und Selektion werde nur eine bereits von vornherein gegebene virtuelle Ordnung von Quantenzuständen aktualisiert. Blinden Zufall lasse der Lebenscode des Universums nicht zu.
Internet:
Stiftung fordert Tag der Evolution statt Christi Himmelfahrt
Interview mit Rolf Froböse über Wissenschaft und Religion
Literatur:
Thomas Görnitz: „Der kreative Kosmos. Geist und Materie aus Information. Spektrum Akademischer Verlag, Heidelberg 2006
Lutz Simon (Hrsg.): „Wissenschaft contra Gott? Glauben im atheistischen Umfeld“. Hänssler Verlag, Holzgerlingen 2007
Joachim Bauer: Das kooperative Gen. Verlag Hofmann & Campe, Hamburg 2008
Rolf Froböse: „Der Lebenscode des Universums. Quantenphänomene und die Unsterblichkeit der Seele.“ Lotos Verlag (Random House), München 2009
===========================================================================
Verständigung braucht gemeinsame Werte
Die Macht des Wortes und die Grenzen des Dialogs
Von Edgar L. Gärtner
„Im Anfang war das Wort“, heißt es im Johannes-Evangelium (1,1-2). Die Bedeutung dieses Halbsatzes ist theologisch und philosophisch umstritten und jedenfalls unverständlich ohne dessen Fortsetzung „und das Wort war bei Gott, und Gott war das Wort.“ Wenn die Bibel die Macht des Wortes eindeutig Gott zuordnet, heißt das aber noch lange nicht, dass Worte in ganz irdischen zwischenmenschlichen Angelegenheiten nur Schall und Rauch seien. Im Gegenteil: Die Erfahrung lehrt, dass Worte sogar töten können. Dennoch verlassen sich heute gerade Werbe-Profis aus gutem Grund nicht allein auf Worte.
Sie haben gelernt: Kommunikation, echte zwischenmenschliche Verständigung beruht nur zu einem geringen Teil auf Worten, sondern zu allererst auf dem Austausch von Gebärden, Gesten und manchmal auch Düften. Sonst bliebe es unerklärlich, dass wir uns mit Hunden mitunter besser verständigen können als mit manchen Mitmenschen. Die eher zweitrangige verbale Verständigung bedarf darüber hinaus offenbar einer gemeinsamen Glaubensbasis. Allerdings sprechen die Werbeleute weniger vom Glauben als (neutraler) von zwischen vielen Menschen geteilten Bildern und Mythen. Um ihre Adressaten überhaupt ansprechen zu können, versuchen sie, die Produkt-Botschaft, die sie rüberbringen wollen, einem gängigen Mythos aufzusatteln. Beispiele für solche Mythen und Bilder sind etwa die Suche nach dem heiligen Gral oder der tapfere Kampf Davids gegen den Riesen Goliath.
Umgekehrt bedeutet das aber auch, dass verbale Kommunikation, Dialog zwischen Menschen grundverschiedenen Glaubens nur in sehr eingeschränktem Maße möglich ist. Darauf hat vor kurzem Papst Benedikt XVI. im Vorwort zum neuesten Buch des italienischen Philosophen und Ex-Senatspräsidenten Marcello Pera hingewiesen. Über religiöse Grundentscheidungen könne es keinen wirklichen Dialog geben, „ohne den eigenen Glauben in Klammern zu setzen“, betont dort der Papst. Mit einer „nicht widerlegbaren Logik“ lasse Pera in seinem Buch erkennen, dass der Liberalismus zum Nihilismus wird, wenn er sich gegen das christliche Gottes- und Menschenbild stellt, d. h. den Menschen die Eigenschaft der Gottesebenbildlichkeit abspricht. Europa könne nur dann zu einer „moralischen Gemeinschaft“ werden, wenn es zu seinen christlichen Wurzeln zurückkehrt, betont der Atheist und Popper-Schüler Pera. Als Skeptiker verspricht er sich allerdings nicht viel von Taufe und Wiedertaufe. Er rät den Europäern, zu handeln, „als ob es Christus gebe.“
Alexander Smoltczyk, der Vatikan-Korrespondent des SPIEGEL, berichtete über die päpstliche Klarstellung unter der Überschrift „Schluss mit Lessing.“ In der Tat sieht Lessings Ringparabel, im Lichte der modernen Kommunikationsforschung betrachtet, alt aus.
(Als Gastkommentar veröffentlicht in DIE WELT vom 27. Dezember 2008)
Internet:
Interreligiöser Dialog nicht möglich
============================================================
Gibt es Freiheit ohne Geist? Von Edgar Gärtner*)
Neulich stieß ich beim TV-Kanal Phoenix auf die Wiederholung einer Reportage über den St. Jakobs Pilgerweg. Da blieb ich eine Weile hängen. Zwar zieht es mich persönlich längst nicht mehr dorthin, seit es dort, ausgelöst durch den Bestseller von Hape Kerkeling, zu Staus kommt. Aber was ältere und jüngere Pilger den TV-Reportern zu erzählen hatten, interessierte mich schon. Im Gedächtnis haften blieb mir ein junges Ossi-Pärchen aus Magdeburg. Ich möchte den beiden nicht zu nahe treten. Aber was sie als „Ertrag“ ihres Trips festhielten, stimmte mich tief traurig. Für den Geist von Santiago de Compostella hatten sie offenbar weder Auge noch Ohr noch sonst ein Organ. Für sie war die Reise ein touristischer Event neben anderen. Was sie über ihre Empfindungen mitteilten, erschien mir höchst geistlos. Und so wie diese beiden sehen es wohl inzwischen viele Abgänger unseres entchristlichten Erziehungswesens.
Deshalb erscheint es nicht weiter verwunderlich, dass auch bei Debatten über Freiheit und Moral der Begriff „Geist“ oft gar nicht mehr auftaucht. Immerhin gibt es inzwischen, gefördert durch die neuesten Erkenntnisse der Humangenetik, einen weitgehenden Konsens darüber, dass die menschlichen Individuen keine Marionetten ihrer Gene sind, dass sie ihren Erbanlagen gegenüber einen gewissen Entscheidungsspielraum haben. So bringt es auch nicht viel, nach speziellen Genen zu suchen, die jemanden zum Genie, zur Niete, zum Hetero, zum Schwulen, zum Heiligen oder zum Verbrecher machen. Es gibt offenbar so etwas wie Freiheit. Aber worauf beruht und worin besteht diese? Hier scheiden sich die Geister, wenn man so sagen darf. Denn von „Geist“ wollen die meisten Anhänger des bei uns inzwischen zum Mainstream gewordenen Atheismus erst gar nicht reden. Sogar der herkömmliche, auf dem christlichen Menschenbild fußende Freiheitsbegriff ist vielen von ihnen höchst suspekt.
Nach christlicher Auffassung kommt es letzten Endes auf die mit der geistigen Person verbundene Willensfreiheit an. Eine ganze Schule der neurobiologischen Forschung bemüht sich demgegenüber um den Nachweis, dass der Mensch nicht Herr im eigenen Hause ist, dass es im menschlichen Hirn keine Strukturen gibt, die man mit Geist oder Willensfreiheit in Zusammenhang bringen könnte. Aber diese mit großem Eifer ins Werk gesetzte Suche beruht auf einer höchst dürftigen philosophischen Begründung. „Der Tag, an dem die Hirnforschung aufbrach, um die Freiheit zu suchen, ist vergleichbar mit dem Tag, an dem der proletarische Dummkopf Gagarin erzählte, er sei im Weltraum gewesen und habe Gott nicht gefunden“, urteilt der bekannte Psychiater und katholische Theologe Manfred Lütz mit dem ihm eigenen Sarkasmus in seinem Bestseller „Gott. Eine kleine Geschichte des Größten“ (2007).
Wieder und wieder werden Experimente zitiert, die der amerikanische Neurologe Benjamin Libet schon in den 80er Jahren durchführte. Danach entscheidet das Hirn über Handlungen, noch bevor uns ein Entschluss bewusst wird. Genau genommen, bestätigen solche Experimente aber nur Sigmund Freuds Entdeckung, dass der Anteil des Unbewussten an der Persönlichkeit viel größer ist als der des Bewussten. Freud dachte allerdings beim Unbewussten nur an Triebhaftes, vor allem an die Sexualität, und negierte dessen geistig-religiöse Dimension. Neurologen und Philosophen werden sich heute aber nicht einmal darüber einig, was unter Bewusstsein zu verstehen ist.
Konsens besteht nur darüber, dass die Menschen von Natur aus soziale Wesen sind, deren Entfaltung von der Kommunikation mit anderen Menschen abhängt. Materielle Grundlage gegenseitigen Einfühlens und Verstehens (Empathie) sind die so genannten Spiegelneuronen. In der Praxis beschränkt sich der Gefühls- und Gedankenaustausch aber meist auf abgegrenzte Gruppen von Bluts- und Geistesverwandten. Dennoch gibt es auch spontane Manifestationen von Altruismus gegenüber völlig Fremden, deren Wurzeln bis zu unseren behaarten Vorfahren zurück reichen.
Einiges spricht dafür, dass sich altruistische Verhaltensweisen deshalb in der Evolution durchgesetzt haben, weil sie im Hirn mit der Freisetzung des Botenstoffes Dopamin und dem damit verbundenen angenehmen Gefühl belohnt werden. Deshalb kann Freigiebigkeit sogar ein besonders raffinierter Ausdruck von Egoismus sein. Es gibt auch Simulationsexperimente, die darauf hinweisen dass Gesellschaften weltoffener Egoisten friedlicher sind als Gesellschaften gruppensolidarischer Gutmenschen. Menschen mit psychopathischer Veranlagung (immerhin etwa ein Prozent der Bevölkerung) fehlt jedoch die Fähigkeit zur Empathie und zum Lustgewinn durch selbstlose Hilfe. Das heißt aber noch lange nicht, dass sie dazu verdammt sind, auf die schiefe Bahn zu geraten.
Warum aber werden viele Menschen, trotz ungünstiger Erbanlagen, nicht zu Verbrechern? Darauf gibt bislang nur die jüdisch-christliche Lehre von der geistigen Person eine Antwort. Geist ist nach christlicher Auffassung keine Substanz, sondern reine Dynamis (wie Musik), von der sich der freie Wille ableitet. Nach materialistischer Auffassung kann es so etwas überhaupt nicht geben. Freiheit beschränkt sich für Materialisten auf Handlungsfreiheit. Diese besteht darin, im Einklang mit seiner mentalen Disposition (Instinkte, Motivationen, Glaubenssätze, Präferenzen, verbales und nonverbales Wissen) agieren zu können. Es bleibt dabei offen, wie die Disposition zustande kommt. Auch einem Hund dürfte danach das Attribut der Freiheit nicht abgesprochen werden. Es käme lediglich darauf an, ob er an der Kette liegt oder sich artgerecht bewegen kann. Diese Auffassung von Freiheit kann aber schlecht erklären, wie es eine Minderheit von KZ-Häftlingen schaffte, innerlich frei und somit Mensch zu bleiben. Der bekannte Wiener Neurologe und Psychiater Viktor E. Frankl, ein Schüler Sigmund Freuds, hat in der Nachkriegszeit eindrucksvoll geschildert, wie er es kraft eigener Geistesanstrengung schaffte, die Selbstaufgabe zu vermeiden, und es ihm so gelang, die Drangsal der Lager zu überleben.
Frankl erkannte aufgrund seiner Erfahrungen im KZ und in seiner psychiatrischen Praxis: Der Mensch „hat“ einen Charakter – aber er „ist“ eine Person. „Die Charakteranlage ist daher auf keinen Fall das jeweils Entscheidende; letztlich entscheidend ist vielmehr immer die Stellungnahme der Person. (…) Zuletzt entscheidet der Mensch über sich selbst. (…) Der Mensch hat also nicht nur Freiheit gegenüber Einflüssen je seiner Umwelt, sondern auch gegenüber seinem eigenen Charakter. Ja, in gewissem Sinne ist es sogar so, dass die Freiheit gegenüber der Umwelt in der Freiheit gegenüber dem Charakter fundiert ist.“
Frankls Analyse der Wechselwirkungen zwischen Geist und Körper scheint inzwischen in Deutschland leider fast vergessen. In der umfangreichen Bibliografie eines aktuellen Sachbuchs zum Thema unter dem Titel „Die gefühlte Moral“ (2008) aus der Feder des Wissenschaftsautors Frank Ochmann taucht sein Name gar nicht auf. Inzwischen hat aber das australische Wunderkind David Chalmers, dessen Name in Ochmanns Bibliografie ebenfalls fehlt, mit bestechender mathematischer Logik nachgewiesen, dass schon das Bewusstsein, das im jüdisch-christlichen Menschenbild unterhalb des Geistes in der Psychophysis angesiedelt ist, grundsätzlich nicht monistisch, d. h. auch nicht materialistisch, sondern nur mithilfe eines Dualismus von Geist und Körper erklärbar ist.
Immerhin sieht auch Ochmann ganz klar: „Reiner Utilitarismus, der nach dem Prinzip maximalen Glücks für die größtmögliche Zahl vorgeht und fordert, in jedem Fall entsprechend moralisch zu handeln, mag philosophisch richtig oder zumindest nachvollziehbar sein. Trotzdem überfordert er nicht nur die meisten Menschen, sondern offenbar den Menschen an sich.“ Aber was folgt daraus? Darüber schweigt sich der studierte Theologe und ehemalige Priester aus. Könnte es nicht doch sein, dass Viktor E. Frankl recht hat, wenn er gegen die nihilistische Reduktion des Menschen auf Biologisches, Psychologisches oder Soziologisches einwendet: „Die Wesenslehre vom Menschen muss offen bleiben – offen auf Welt und auf Überwelt hin; sie muss die Tür zur Transzendenz offen halten. Durch die offene Tür aber fällt der Schatten des Absoluten“?
Ich bin, angesichts der nun beginnenden Wirtschaftskrise und ihrer absehbaren sozialen Konsequenzen, mehr und mehr davon überzeugt, dass die Fronten in den kommenden gesellschaftlichen Auseinandersetzungen weniger zwischen Liberalen und Autoritären, sondern zwischen Nihilisten und jenen verlaufen, die an einen Übersinn des Lebens glauben. Dabei sollte man aber nicht vergessen, dass ein erfundener „Übersinn“, der sich gegen das wirkliche Leben wendet, nach Friedrich Nietzsche selbst die extremste Form von Nihilismus darstellt. Deshalb sollten islamistische Selbstmordattentäter (wie auch extreme christliche Asketen) nicht als Idealisten gelten, denen man bis zu einem gewissen Grad Verständnis entgegen bringt, sondern als Feinde des Lebens.
(Teilweise abgedruckt in: factum-magazin 8/08, Schwengeler Verlag, CH-Berneck)
============================================================
An Wunder glauben von Edgar Gärtner*)
Warum sind Liberale, wie jetzt durch empirische Untersuchungen bestätigt wurde, im Schnitt deutlich glücklicher, zufriedener und optimistischer als Anhänger des wohlfahrtsstaatlichen Sozialismus? Die Antwort auf diese Frage ist vermutlich einfacher, als viele denken: Liberale glauben an Wunder. Sie tun, was ihnen sichtbar nützt und vertrauen darauf, dass das freie Spiel von Angebot und Nachfrage hinter ihrem Rücken zu Wohlstand und Frieden für die ganze Gesellschaft führt.
Es geht bei diesem Wunderglauben nicht unbedingt um Übersinnliches oder Überirdisches, sondern um durchaus Diesseitiges. Es geht weder um optische Täuschungen noch um fromme oder abergläubische Einbildungen wie Marienerscheinungen, sondern zuallererst um greifbare Vorgänge in Politik und Wirtschaft, für die das deutsche Wirtschaftswunder der Nachkriegszeit als Paradebeispiel dienen kann. Bewusst schreibe ich hier Wirtschaftswunder ohne Anführungszeichen. Denn wie soll man die Tatsache anders benennen, dass schon wenige Tage nach Ludwig Erhards wagemutigen, dem sozialistischen Zeitgeist widersprechenden Beschluss, mitten in der Not des Jahres 1948 gleichzeitig mit der Währungsreform die Rationierung von Gütern des täglichen Bedarfs zu beenden und fast sämtliche Preiskontrollen abzuschaffen, die Geschäfte auf einmal voll Waren aller Art waren und lange Menschenschlangen vor einem knappen Angebot bald der Vergangenheit angehörten.
Bei aller streng evolutionistischen, antiteleologischen Argumentation wies gerade der Erzliberale Friedrich August von Hayek wiederholt auf seine Offenheit Wundern gegenüber hin. Denn es war ihm zutiefst bewusst, dass die Ergebnisse des Handelns der Vielen meist viel intelligenter sind als die Motive der einzelnen Handelnden. Hayek sah darin den eigentlichen Grund für die Borniertheit und Stupidität jeglicher Form von Planwirtschaft. Denn deren Ziele spiegeln nur das beschränkte Wissen der jeweiligen Machthaber wider. „Aus einem gelenkten Prozess kann nichts größeres entstehen, als der lenkende Geist voraussehen kann“, stellte Hayek fest. Er ging sogar so weit, die gewachsene Ordnung und den Zusammenhang großer Gemeinwesen als etwas Geheimnisvolles hinzustellen. „In der großen Gesellschaft profitieren die verschiedenen Mitglieder von den Tätigkeiten aller anderen nicht nur trotz, sondern oft sogar aufgrund der Verschiedenheit ihrer jeweiligen Ziele“, fügte er an anderer Stelle hinzu.
Gegenüber dem Mysterium des gesellschaftlichen Zusammenhalts trotz oder gerade wegen des Pluralismus individueller Motive und Ziele könnten Sozialforscher, wenn sie ehrlich sind, nur die Haltung der Demut einnehmen, meinte Hayek: „Die Erkenntnis von den unüberwindlichen Grenzen seines Wissens sollten den Erforscher der Gesellschaft eigentlich Demut lehren. Diese Demut sollte ihn davor bewahren, Mitschuldiger in dem verhängnisvollen menschlichen Streben nach der Herrschaft über die Gesellschaft werden“, forderte der Wirtschaftsnobelpreisträger von 1974. Demgegenüber gehöre es zum Wesen des Aberglaubens, dass die Menschen sich einbilden, genug zu wissen, um Wunder rational erklären und durch bewusste Maßnahmen ersetzen zu können. Hayek war sich also im Klaren, dass Politik und Ökonomie bis zum heutigen Tag weder in der Theorie noch in der Praxis der Theologie so leicht entgehen können. Und er hat in der Spätphase seines Wirkens selbst Überlegungen über eine Komplementarität von Evolutionismus und christlicher Religion angestellt, was ihn in den Augen der Sozialisten aller Parteien umso verdächtiger machte.
Als weniger suspekt erscheint da vielleicht die politisch eher links verortete große Philosophin Hannah Arendt. Aber gerade bei ihr spielt der Begriff des Wunders eine noch größere Rolle, und zwar gerade in ihrem Meisterwerk, der originellen politischen Theorie des tätigen Lebens. Auch wenn Arendt über das deutsche Wirtschaftswunder anders dachte als Ludwig Erhard oder Friedrich August von Hayek und „Wunder“ immer mit Anführungszeichen schrieb, teilt sie deren Auffassung über die grundsätzliche Beschränktheit der menschlichen Fähigkeit, mögliche Folgen ihres Handelns abzusehen. In Anlehnung an Friedrich Nietzsche, der den Menschen als Tier definierte, „das versprechen darf“, sah Hannah Arendt den Hauptunterschied zwischen freien Menschen und ihren unfreien Vorfahren nicht im größeren Wissen, sondern in der Fähigkeit zu versprechen und zu verzeihen. Gute Taten hängen nicht in erster Linie vom Umfang des Wissens und von den öffentlich proklamierten Absichten einer Person ab, sondern von ihrer Liebe und der Treue zu Mitmenschen gegenüber eingegangenen Verpflichtungen.
Alles wirklich Gute geschieht im Verborgenen, lehrte Jesus von Nazareth. Die rechte Hand soll nicht wissen, was die linke tut. Daran knüpfte Hannah Arendt in „Vita activa“ an und fügte mahnend hinzu: „Güte aber, die, ihrer Verborgenheit überdrüssig, sich anmaßt, eine öffentliche Rolle zu spielen, ist nicht nur nicht mehr eigentlich gut, sie ist ausgesprochen korrupt.“ Das könnte sie heutigen „Gutmenschen“ ins Stammbuch geschrieben haben. Sie selbst hält sich ans Neue Testament: Da die Menschen die ferneren Folgen ihres Handelns nur in sehr geringem Maße im Voraus abschätzen können, machen sie unweigerlich Fehler, fügen anderen Menschen und ihrer Umwelt Schaden zu und laden dadurch Schuld auf sich. Nur durch ihre Fähigkeit, eingegangene Versprechen allen Widrigkeiten zum Trotz einzuhalten und Schuld zu vergeben, kann der soziale Zusammenhalt gewahrt werden. In Arendts Worten: „Dass es in dieser Welt eine durchaus diesseitige Fähigkeit gibt, ‚Wunder’ zu vollbringen, und dass diese Wunder wirkende Fähigkeit nichts anderes ist als das Handeln, dies hat Jesus von Nazareth (dessen Einsicht in das Wesen des Handelns so unvergleichlich tief und ursprünglich war wie sonst nur noch Sokrates’ Einsichten in die Möglichkeiten des Denkens) nicht nur gewusst, sondern ausgesprochen, wenn er die Kraft zu verzeihen, mit der Machtbefugnis dessen verglich, der Wunder vollbringt, wobei er beides auf die gleiche Stufe stellte und als Möglichkeiten verstand, die dem Menschen als einem diesseitigen Wesen zukommen.“
Nicht weniger geheimnisvoll als das Wunder von Versprechen und Verzeihen war für Hannah Arendt ein anderes Band des sozialen und politischen Zusammenhalts: der Gemeinsinn oder gesunde Menschenverstand. Diesen hielt Arendt für die Grundlage des Politischen schlechthin, weil er erst dafür sorgt, dass die Mitglieder einer Gesellschaft in einer gemeinsamen Wirklichkeit leben. Der Gemeinsinn entsteht, wohlgemerkt, gerade nicht durch die Unterordnung aller unter vorgegebene Ziele. Vielmehr genügt es, dass zwei plus zwei für alle vier ist und bleibt. Wie der französische Literaturnobelpeisträger Albert Camus sah die jüdische Philosophin, dass die zunehmende Bürokratisierung des politischen und gesellschaftlichen Lebens im Wohlfahrtsstaat europäischer Prägung den Menschen nicht nur den Wunderglauben, sondern auch den gesunden Menschenverstand austreibt. Ein immer dichteres Geflecht bewusster, oft wissenschaftlich oder pseudowissenschaftlich begründeter administrativer Regelungen tritt an die Stelle von Wundern und Überraschungen. Die offene Welt wird mehr und mehr zu einem Zuchthaus.
Kurz: Wunder gehören ganz einfach zur Realität. Wer nicht daran glaubt, wird am Ende zum Nihilisten. „Der Nihilist glaubt nicht an nichts, sondern nicht an das, was ist“, definierte Albert Camus. Der Gemeinsinn geht gerade am Übermaß „sozial“ begründeter wohlfahrtsstaatlicher Reglementierungen (mit Extrawürsten für alle möglichen lautstarken Interessengruppen) zugrunde. Das zeigt sich m. E. derzeit am deutlichsten am verbreiteten Aberglauben, Staat und Wirtschaft könnten mithilfe von Milliardeninvestitionen in den „Klimaschutz“, durch die Rationierung des Energieeinsatzes über das Europäische Emissionshandelssystem, durch detaillierte Vorschriften für die Heizung und Wärmedämmung von Gebäuden (unter Missachtung von Eigentumsrechten) sowie durch die Gleichschaltung von Forschung und Lehre (alles in guter Absicht, versteht sich) das Wettergeschehen gezielt beeinflussen und den Klimawandel stoppen.
„Ein merkliches Abnehmen des gesunden Menschenverstands und ein merkliches Zunehmen von Aberglauben und Leichtgläubigkeit deuten immer darauf hin, dass die Gemeinsamkeit der Welt innerhalb einer bestimmten Menschengruppe abbröckelt, dass der Wirklichkeitssinn gestört ist, mit dem wir uns in der Welt orientieren“, mahnte Hannah Arendt. Diese Warnung ist aktueller denn je.
*) veröffentlicht in: DIE WELT vom 23. Oktober 2007
Warum der Gärtner keine Chance hat
Salomon Kroonenberg: Der lange Zyklus. Die Erde in 10 000 Jahren. Primus Verlag (Wissenschaftliche Buchgesellschaft). Darmstadt, 2008. Geb. 256 Seiten. € 24,90. ISBN 978-3-89678-362-2
„Die Leser dieses Buches wissen, dass der Gärtner keine Chance hat. Er denkt nur im Rahmen des menschlichen Maßes.“ Nach diesem ernüchternden Resumé könnte der Rezensent, der nicht nur Gärtner heißt und selbst zwei Gärten pflegt, sondern sich auch zu einer Art von Gärtner-Philosophie bekennt, das Buch des niederländischen Geologie-Professors Salomon Kroonenberg gleich wieder aus der Hand legen. Doch was Kroonenberg als Fachmann für langfristige Betrachtungen seinen Kollegen von der unklar umrissenen Disziplin „Klimaforschung“ ins Stammbuch schreibt, sollte meines Erachtens alle naturwissenschaftlich und politisch interessierten zum Nachdenken bringen. Weiterlesen