Ingenieure und Wissenschaftler ziehen Bilanz aus 20 Jahren Energiewende

Kritiker auf verlorenem Posten?

Edgar L. Gärtner

Uni Stuttgart: Ingenieure und Wissenschaftler ziehen Bilanz aus 20 Jahren Energiewende

Diskussion vor dem CO2-freien Kamin im IBZ der Universität Stuttgart

Ingenieure sieht man so gut wie nie in deutschen TV-Talk Shows. Dabei gibt es unter den führenden Köpfen ingenieurwissenschaftlicher Fachbereiche durchaus Leute (inzwischen oft im Rentenalter), die mit Witz und Verve vortragen können. Das zeigte sich vom 8. bis zum 10. Juli 2022 im Internationalen Begegnungszentrum IBZ des Uni-Campus Stuttgart-Vaihingen. Dort hatte Prof. Dr. André Thess, Inhaber des Lehrstuhls für Energiespeicherung am Institut für Gebäudeenergetik, Thermotechnik und Energiespeicherung (IGTE) für den 8. bis zum 10. Juli zu einer Fachtagung zum Thema „20 Jahre Energiewende“. Als Schirmherrn und Moderator der Veranstaltung gewann Prof. Thess (der in Dresden zu Hause ist) den bekannten Dresdner Politikwissenschaftler Prof. Dr. Werner J. Patzelt. So war gewährleistet, dass die Diskussionen nicht in Fachsimpelei versandeten. Weiterlesen

Wer sich „ganzheitliches“ Wissen anmaßt, hat logischerweise ein Problem mit der Freiheit

 

Interview mit Florian Müller im Magazin „Krautzone“, Heft 22

Heftwerbung22.png

Sie waren auf einem katholischen Internat und wurden dort mit der sogenannten Orthogenese vertraut gemacht. Können Sie unseren Lesern in einfachen Worten erklären worum es sich bei der Orthogenese handelt und von welchen Prämissen sie ausgeht.
Oh, das ist lange her. Ich kann deshalb nur holzschnittartig antworten. Die Theorie der Orthogenese wurde vom weltbekannten französischen Jesuiten und Paläontologen Pierre Teilhard de Chardin formuliert. Es handelt sich um den spekulativen Versuch einer Synthese zwischen der christlichen Schöpfungs- und Heilslehre und der Darwinschen Evolutionstheorie. Die Entwicklung von Geist und Materie streben nach Teilhard dem Punkt Omega zu, an dem sich die Materie im Menschen ihrer selbst bewusst werde. Ich lernte die Theorie Teilhards in Form der Ansprachen kennen, die der damalige Direktor des Bischöflichen Knabenkonvikts zu Fulda während der Mahlzeiten im Refektorium hielt. Diese Ansprachen fielen in die Zeit zwischen dem Abschluss des Zweiten Vatikanischen Konzils und dem Ausbruch der Studentenrevolte. Die Ideen Teilhards hatten über den französischen Kardinal Henri de Lubac und den mit ihm befreundeten katholischen Philosophen Jacques Maritain auch einen gewissen Einfluss auf die progressive Kardinals-Fraktion des Konzils. Ich muss gestehen, dass mich diese schwärmerischen Ideen zunächst faszinierten – gerade auch, weil sie im Widerspruch zur offiziellen Lehre der Kirche standen. Insbesondere Teilhards (kommunistische) Idee der Verwandlung der Biosphäre in die Noosphäre hatte es mir angetan. Junge Menschen, insbesondere wenn sie sich mitten in der Pubertät befinden, springen ja gerne auf die neueste Mode. Wir machten da keine Ausnahme. Heute distanziere ich mich sowohl von Darwin als auch von Teilhard. Ich glaube nicht, dass der Mensch durch das Wechselspiel von Mutation und Selektion, das heißt durch Zufall aus affenähnlichen Vorfahren entstanden ist. Vermutlich wird man das „missing link“ zwischen beiden auch in Zukunft nicht finden. Teilhard de Chardin spielte übrigens eine unrühmliche Rolle bei der Interpretation des Schädel-Fundes von Piltdown, der das lang gesuchte „missing link“ darstellen sollte. Dieser stellte sich später als aus Affenknochen zusammengebastelte Fälschung heraus. Weiterlesen

Die EU verliert den Kampf um die Energie-Zukunft

Von Edgar L. Gärtner
Artikelbild

Bildquelle: Vaclav Volrab / Shutterstock.com

Green Deal: Welche Rolle wird der Kernenergie künftig zugewiesen?

Ich gehöre gewiss nicht zu jenen, die den Gründervätern der (west-)europäischen Gemeinschaft, getrieben von viszeralem Antiamerikanismus, von vornherein fragwürdige Motive unterstellen. Seit fast einen halben Jahrhundert mehr oder weniger gleichzeitig in zwei Nachbarländern lebend, habe ich anfangs aus naheliegenden Gründen sogar die Einführung des Euro begrüßt. (Ich kann mich noch gut daran erinnern, als Journalist mitgefeiert zu haben, als Wim Duisenberg im Frankfurter BfG-Hochhaus auf provisorisch verlegten blauen Teppichen die ersten Euro-Banknoten vorstellte.) Der Franzose Jean Monnet, einer der Architekten des westlichen Nachkriegs-Europa, war kein Berufspolitiker, sondern ein Geschäftsmann, der zunächst mit Cognac handelte, was ihn in meinen Augen ohnehin sympathisch machte. International bekannter wurde Jean Monnet allerdings als Koordinator eines kriegswirtschaftlichen Beschaffungs-Kartells der Entente im Ersten Weltkrieg. Eine ähnliche Funktion übte er im Zweiten Weltkrieg für die Alliierten in den USA aus. Das hatte zwar wenig mit freier Marktwirtschaft zu tun, doch wie auf dem freien Markt kam es dabei darauf an, die wirtschaftlich effizientesten Problemlösungen zu finden. Was er dabei gelernt hatte, setzte Monnet nach dem Zweiten Weltkrieg beim Wiederaufbau der im Krieg weitgehend zerstörten europäischen Volkswirtschaften um.
Monnet wurde 1946 erster Chef des französischen Plan-Kommissariats. Er setzte dort ein umfassendes Modernisierungsprogramm der französischen Wirtschaft („Monnet-Plan“) ins Werk. Dieses beruhte auf einem starken Ausbau der französischen Stahl-Kapazität. Zusammen mit dem mit ihm befreundeten französischen Außenminister Robert Schumann gewann Monnet den deutschen Bundeskanzler Konrad Adenauer für die Gründung der Europäischen Gemeinschaft für Kohle und Stahl (Montanunion) im Jahre 1952. Monnet war von 1952 bis 1955 deren Präsident. Doch die Verwaltungsarbeit lag ihm nicht. Deshalb gab er das Amt wieder auf, blieb aber bis 1975 politisch einflussreich und engagierte sich insbesondere für die friedliche Nutzung der Kernenergie. Schon drei Jahre nach der Gründung der Montanunion, im Juni 1955 stellten die Außenminister der sechs Gründerstaaten der Europäischen Wirtschaftsgemeinschaft (EWG) bei einem wichtigen Treffen im sizilianischen Messina fest, dass Ludwig Erhards Vision vom „Wohlstand für alle“ eines großen Marktes für preiswerte Energie im Überfluss bedarf. Dabei gingen sie bereits davon aus, dass die friedliche Nutzung der Atomenergie (die damals in den offiziellen Dokumenten tatsächlich noch so hieß) bald die Kohle als wichtigste Energiequelle ablösen würde. Weiterlesen

Waldbrände in Kalifornien und Südeuropa, eine Folge des Klimawandels?

Edgar L. Gärtner

Artikelbild

Bildquelle: shutterstock

In Nord-Kalifornien tobten im Herbst 2018 Waldbrände, die an Dantes Inferno erinnern. Man zählte über 80 Todesopfer und über tausend Vermisste. Dagegen nimmt sich die verbrannte Fläche mit etwa 600 Quadratkilometern im Vergleich zu früheren Ereignissen eher bescheiden aus. Inzwischen sind die Feuer, dank verspäteter, dafür aber umso heftigerer Regenfälle erloschen. Die größte Zahl von Todesopfern (über 60) forderte das „Wild Fire“ um das Städtchen Paradise. Als ungewöhnlich gilt die Tatsache, dass die Brände diesmal nicht im Sommer, sondern zu vorgerückter Herbstzeit ausgebrochen sind, nachdem die üblichen Herbstregenfälle in diesem wie auch schon im vergangenen Jahr ungewöhnlich schwach ausgefallen waren. Insofern lag es für den scheidenden kalifornischen Gouverneur Jerry Brown nahe, die Ursache für diese „außergewöhnliche Situation“ im Klimawandel zu suchen, den US-Präsident Donald Trump leider nicht ernst nehme.

Langjährige Statistiken widersprechen jedoch dieser Erklärung. Häufige Waldbrände sind typisch für das mediterrane Klima, das gekennzeichnet ist durch eine ausgeprägte, oft extreme Trockenheit im heißen Sommer und ein Niederschlagsmaximum im milden Winterhalbjahr. Es gibt auf der Welt nur vier Zonen, auf die die Definition des Mittelmeerklimas zutrifft: der relativ schmale Küstensaum rund um das Mittelmeer, die Kap-Region Südafrikas, die Südspitzen Australiens und nicht zuletzt Kalifornien. Für die Pflanzen bringt das Mittelmeerklima extreme Standortbedingungen mit sich, weshalb man dort eine Vielzahl endemischer, d.h. nur dort heimischer Baum- und Straucharten antrifft. Einjährige Gräser und Kräuter verlegen ihre Winterruhe in den Sommer und erblühen, wenn sich die Pflanzen der gemäßigten Klimazonen auf die Winterruhe vorbereiten. Die an die lange Sommertrockenheit angepassten Bäume und Sträucher nennt man Xerophyten. Diese schützen sich durch eine dicke Rinde, durch eine Wachs- oder Harzschicht, durch Dornen und Stacheln und/oder die Einlagerung von Öltröpfchen vor der Austrocknung.
Doch was gegen die Austrocknung hilft, vergrößert gleichzeitig die Brennbarkeit der Vegetation. Ökologisch gesehen, ist das nur auf den ersten Blick ein Widerspruch. Weiterlesen

Öko-Terror mit „erneuerbarer“ Energie

Es geht nicht um die Umwelt, sondern um die Macht

Von Edgar L. Gärtner

Artikelbild

Bildquelle: shutterstock

Ich kann mich noch gut daran erinnern, dass Freunde, die Geisteswissenschaften studiert hatten, schon in den 1980er Jahren leuchtende Augen bekamen, wenn die Rede auf erneuerbare Energien kam. Nach einer Elektrolehre und einem naturwissenschaftlichen Studienabschluss stand ich diesem Thema viel nüchterner gegenüber. Das Streben nach erneuerbarer Energie erschien mir, ähnlich wie die allesamt enttäuschenden Versuche, ein Perpetuum mobile zu bauen, als reines Wunschdenken, das an der harten Realität scheitern muss. Der Schöpfer hat uns vermutlich nicht den Gefallen tun wollen, so etwas möglich zu machen. Energie geht zwar nach heutigem Wissen im Universum nicht verloren. Lässt man sie jedoch Arbeit leisten, verwandelt sie sich von einer edlen, das heißt konzentrierten, in eine weniger edle, diffuse Form. Am Ende dieses von den Physikern so genannten dissipativen Prozesses steht Abwärme niedriger Temperatur, die keine Arbeit mehr leisten kann.
Im heutigen Sprachgebrauch bezieht sich der Begriff „erneuerbar“ auf Formen der Energie, die direkt oder indirekt auf die Fusionsenergie der Sonne zurückgehen. Dazu zählt also nicht nur die Photovoltaik, die mithilfe lichtsensibler Halbleiter eine direkte Umwandlung des Sonnenlichts in elektrische Spannung ermöglicht, sondern auch die Kraft des Windes und der Gebirgsflüsse sowie die in pflanzlicher Biomasse wie Holz, Biogas oder Kuhdung gespeicherte Energie. Ginge es nach dem „Klimaschutzplan 2050“ der deutschen Bundesregierung, dann müsste Deutschland bereits im Jahre 2050 nahezu vollständig „dekarbonisiert“ sein, das heißt ohne den Einsatz so genannter fossiler Energieträger auskommen müssen. Weiterlesen

Es gibt keine Energiewende, nur eine Kostenlawine

Edgar L. Gärtner

Glaubt man den regierungsnahen Massenmedien, stellt kaum jemand in Deutschland die Notwendigkeit einer „Energiewende“ in Frage. Es scheint keine Alternative zu geben zum klimapolitisch gebotenen Radikalumbau eines bislang durchaus zufriedenstellenden Energieversorgungsystems. Hauptziel der massiven Subventionierung angeblich erneuerbarer Energien durch die Stromkunden nach dem EEG soll die Reduzierung des Ausstoßes des von Bürokraten und vom Staat bezahlten Computersimulanten für „klimaschädlich“ erklärten Pflanzennährstoffs Kohlenstoffdioxid (CO2) sein. Diesem erklärten Ziel widerspricht bereits der im Jahre 2011 von Bundeskanzlerin Angela Merkel im Eilverfahren eingeleitete vorzeitige Ausstieg Deutschlands aus der Nutzung der CO2-freien Kernenergie. Weiterlesen

Holzpellets oder der Traum von der Autarkie

 

Die deutsche „Energiewende“ kann nicht einmal auf dem Papier funktionieren. Ich habe das bereits an etlichen Beispielen demonstriert. Als besonders hirnverbrannt wirken Autarkie-Bestrebungen, die an die unselige Nazi-Zeit erinnern. Bei der Verbrennung beziehungsweise Vergärung von heimischer Biomasse (aus „Energiepflanzen“ wie Mais oder gar Weizen, aus Stroh und anderen Pflanzenresten sowie aus Holz beziehungsweise Holzabfällen) wird im Prinzip nicht mehr „Klimagas“ CO2 freigesetzt, als die Pflanzen während ihres Wachstums gebunden haben. Deshalb gilt Bioenergie als besonders „klimafreundlich“. So sollten, nach dem erklärten Willen der schwarz-gelben Bundesregierung unter Angela Merkel, im Jahre 2050 sage und schreibe 23 Prozent der gesamten in Deutschland eingesetzten Primärenergie aus heimischer Biomasse erzeugt werden – allerdings bei einer angestrebten Halbierung des gesamten Energieeinsatzes. Heute liegt der Anteil der Bioenergie aus heimischer Produktion lediglich bei etwa drei Prozent. Um das Ziel der Regierung zu erreichen, müsste sich der Einsatz von Biomasse zur Energiegewinnung mindestens verdreifachen. Die nationale Akademie der Wissenschaften Leopoldina hat in einer im Sommer 2012 vorgelegten 124-seitigen Stellungnahme ausdrücklich davor gewarnt, dieses Ziel zu verfolgen. Weiterlesen

Die Ära preisgünstiger Agrarprodukte ist zu Ende

Der deutsche Industrieverband Agrar (IVA), in dem 51 Unternehmen der Agro-Chemie (darunter der in der Schweiz beheimatete Marktführer Syngenta) organisiert sind, macht sich trotz guter Geschäfte Sorgen um die Zukunft der Branche. Der EU geht es jedoch weniger um die Steigerung der landwirtschaftlichen Produktivität, sondern um die Ausweitung bürokratischer Kontrolle.

In einem im April 2011 vorgelegten Positionspapier über den Nutzen des chemischen Pflanzenschutzes weist der Industrieverband Agrar darauf hin, dass die Ära reichlicher und preisgünstiger Nahrungsmittel und anderer Agrar-Rohstoffe seit der Jahrtausendwende vorbei ist. Ohne den Einsatz von Mineraldünger und chemischer Schädlingsbekämpfung wäre die Lage längst katastrophal, denn dann bräuchte man für die Erzielung vergleichbarer Ernteergebnisse mindestes die doppelte Landfläche. Dennoch werde die Agro-Chemie in der breiten Öffentlichkeit heute mehr als Risiko denn als Segen betrachtet. Da ein wachsender Teil der Ackerböden dem subventionierten Anbau von Energiepflanzen wie Mais oder Raps gewidmet wird, hat die Nahrungsmittelerzeugung Mühe, mit dem Fortschreiten des Wachstums der Weltbevölkerung Schritt zu halten. Nicht von ungefähr steht das Thema „Food Security“ auf der Agenda der G20-Gipfeltreffen. Weiterlesen

Gehen uns die Rohstoffe aus?

Nach dem Platzen der CO2-Blase in Kopenhagen rechtfertigen die Lebenskraft-Rationierer ihren Eifer mit der angeblich drohenden Rohstoff-Knappheit. Ein neues Positionspapier von vier Chemieverbänden versucht auszumachen, wie die Rohstoffversorgung der chemischen Industrie in den nächsten Jahrzehnten gesichert werden könnte. Die Engpässe liegen nicht da, wo die Politik sie vermutet.

Gehen der Chemie die Rohstoffe aus?

„Erdöl wird auf absehbare Zeit der dominierende Rohstoff für die chemische Industrie bleiben.“ Das betonte Prof. Michael Röper am 11. Januar 2010 bei der Vorstellung des Positionspapiers „Rohstoffbasis im Wandel“, hinter dem die Chemieverbände DECHEMA, die GDCh, die DGMK und der VCI stehen. Röpers Einschätzung mag insofern erstaunen, als er die BASF vertritt, die über einen privilegierten Zugang zum alternativen Rohstoff Erdgas verfügt. Doch Erdgas beziehungsweise dessen Hauptbestandteil Methan bleibt trotz seiner absehbaren Verbilligung gegenüber dem Rohöl in der Praxis ein problematischer Chemie-Rohstoff, weil es bis heute keine Verfahren gibt, um daraus mit wirtschaftlich vertretbarem Aufwand Ethylen, Propylen, C4-Olefine, Benzol und Xylole herzustellen, die mehr als 90 Prozent der Basischemikalien der organischen Chemie ausmachen. Methan muss zunächst mithilfe von Katalysatoren energieaufwändig in Synthesegas umgewandelt werden, um zu Methanol und Olefinen weiter verarbeitet werden zu können. So stagniert der Anteil des Erdgases an der Rohstoffversorgung der deutschen Chemie bei 8 Prozent.
Weiterlesen

Ressourcenschutz von unten

Der Wirtschaftsnobelpreis ging im Jahr 2008 an Elinor Ostrom und Oliver Williamson. Ostrom, die als erste Frau überhaupt die begehrte Auszeichnung erhielt, hat gezeigt, dass die nachhaltige Nutzung knapper Ressourcen nicht zentraler staatlicher Vorgaben und Kontrollen bedarf. Die Selbstorganisation der Ressourcen-Nutzer vor Ort erweist sich als viel effizienter. Eine Ohrfeige für die CO2-Rationierung durch die UN?

Ressourcenschutz von unten (Teil II)

Warum Almweiden nichts mit dem „Klimaschutz“ zu tun haben, die FAS aber Planwirtschaft gut findet

Von Edgar L. Gärtner

Es gibt Wirtschaftsjournalisten, die meine hier vorgetragene Schlussfolgerung, die diesjährige Verleihung des Wirtschaftsnobelpreises an Elinor Ostrom könne als Ohrfeige für die „Klimapolitik“ interpretiert werden, ganz und gar nicht teilen. Es geht dabei nicht nur um ein paar positive Bemerkungen der Preisträgerin über die „Klimapolitik“, es geht um Grundsätzliches. So schreiben Alexander Armbruster und Christian Siedenbiedel in der „Frankfurter Allgemeinen Sonntagszeitung“ (FAS) vom 18. Oktober 2009: „Was haben Bauern, die sich eine Alpen-Alm teilen, und Staaten, die den Klimawandel bremsen müssen, gemeinsam? Sie stehen im Grunde vor demselben Problem. Denn so, wie nicht jeder Bauer so viele Kühe, so lange er will, auf die Wiese drängeln darf, kann auch nicht jeder Kohlendioxid-Emittent ohne Ende Treibhausgas in den Himmel blasen.“

Dieser Satz enthält gleich mehrere ungeprüfte Behauptungen. Wieso müssen sich Staaten dem Klimawandel entgegenstellen? Und warum sollen sie sich dann ausgerechnet darauf konzentrieren, den Ausstoß des Atemgases Kohlendioxid zu verringern? Wäre es nicht besser, sich von vornherein mit der Frage zu beschäftigen, wie sich die Menschen am besten an Veränderungen ihrer Lebensbedingungen, die unabhängig von ihren Wünschen und Handlungen ohnehin stattfinden, anpassen können? „Die Wissenschaft geht momentan davon aus, dass bis zum Jahre 2050 noch rund 750 Gigatonnen Kohlendioxid (in der Atmosphäre) abgelagert werden können, wenn es nicht mehr als zwei Grad wärmer werden soll“, berichten die beiden Wirtschaftsredakteure. Auf welches wissenschaftliche Experiment stützt sich diese Aussage? Und auf welche historischen und prähistorischen Forschungen stützt sich die im FAS-Artikel zitierte Auffassung des Evolutionsbiologen Jared Diamond, die vollständige Entwaldung der Osterinsel sei ein Beispiel für die „Tragik der Allmende“? Man wird auf keine dieser Fragen eine Antwort erhalten.

Die Legenden, die Jared Diamonds in seinem Bestseller „Collapse“ weiterstrickte, wurden übrigens von Julian Morris, Wolfgang Kasper und Benny Peiser schon vor Jahren Punkt für Punkt widerlegt. Die Auslöschung der Osterinsel-Kultur ging, wie es scheint, mehr auf Invasionen von Sklavenhändlern denn auf selbstmörderische Ressourcenübernutzung zurück. Vermutlich wird man in der ganzen Weltgeschichte kaum ein Beispiel dafür finden, dass Menschen, obwohl zum vorausschauenden Denken und hinweisenden Kommunizieren befähigt, sehenden Auges den Ast absägten, auf dem sie saßen. Es bedurfte in der Regel äußeren Zwanges durch Naturkatastrophen oder fremde Eroberer oder aber innerer Repression durch religiös beziehungsweise pseudoreligiös begründete Diktaturen, um ganze Gesellschaften in den Selbstmord zu treiben. Das scheint beim Untergang der Maya-Kultur in Mittelamerika der Fall gewesen zu sein.

Wer den „Klimaschutz“ in Zusammenhang bringt mit der Abwendung eines „Kollapses“ durch Ressourcen-Rationierung, hat in Wirklichkeit weniger ein Problem mit dem Klima, sondern mit der menschlichen Freiheit. Angstkampagnen haben immer dazu gedient, Einschränkungen, wenn nicht schlicht die Abschaffung der Freiheit zu rechtfertigen. Derzeit gibt es für eine Begründung der globalen Rationierung des CO2-Ausstoßes nicht einmal den Schein eines wissenschaftlichen Arguments. Zwar wissen wir, dass die Erhaltung der Lebensbedingungen auf dem Planeten Erde von einem empfindlichen Gleichgewicht der Luftzusammensetzung abhängt. Das gilt aber nur für den Sauerstoff. Stiege dessen Konzentration in der Atmosphäre um nur ein, zwei Prozentpunkte, ginge die Erde spontan in Flammen auf. Wegen dieser und anderer Sauerstoff verbrauchender Prozesse ist die Sauerstoffkonzentration über Jahrmillionen annähernd konstant geblieben. Sie könnte allerdings durchaus von etwa 21 auf 16 Prozent sinken, ohne dass uns der Atem ausginge. Demgegenüber war die Konzentration des als Kohlenstoffquelle für die pflanzliche Fotosynthese unabdingbaren Spurengases CO2 in der Erdgeschichte großen Schwankungen unterworfen, die ganz unterschiedliche Ursachen haben können. Würde man den CO2-Gehalt der Atmosphäre, der heute bei gerade einmal 385 ppm (parts per million) liegt, verzehnfachen, würde mit Sicherheit kaum etwas passieren – außer dass ein Teil der Pflanzen ihre Fotosyntheseleistung deutlich steigern könnte, was zur Verbesserung der Welternährung führen würde. Die Menschen würden den höheren CO2-Gehalt jedenfalls nicht negativ wahrnehmen. Die von der Arbeitsmedizin festgelegte zulässige maximale Arbeitsplatzkonzentration (MAK) von CO2 liegt bei 5.000 ppm, früher sogar bei 10.000 ppm. (Diese Werte sollte man im Hinterkopf behalten. Sollte an der gängigen Vorstellung über die Rolle des CO2 bei der Klimaentwicklung etwas dran sein, müsste der CO2-Ausstoß in den kommenden Jahren kräftig erhöht werden, um eine Kleine Eiszeit zu verhindern.)

Das Beharren von Berufspolitikern und Spitzenbürokraten auf strengen CO2-Obergrenzen kann deshalb nur den Zweck haben, von folgender Binsenweisheit abzulenken: Klimawandel hat es immer gegeben. Perioden der Abkühlung stellten die Menschen vor viel größere Probleme als Warmphasen. Setzte man statt auf die (unnötige) Bekämpfung der vermeintlich CO2-gesteuerten globalen Erwärmung auf die flexible Anpassung der Menschen an den ohnehin ständig ablaufenden Klimawandel, dann würde offenkundig, dass zentralistische Vorgaben nicht weiter helfen. Vielmehr käme es darauf an, die Menschen vor Ort selbst frei entscheiden zu lassen, in welcher Form sie dem Klimawandel individuell und/oder gemeinschaftlich begegnen wollen. (20. Oktober 2009)

Internet:

Teil I: Eine Ohrfeige für den „Klimaschutz“

Alexander Armbruster/Christian Siedenbiedel: Auf der Alm, da gibt’s nur selten Streit

Jared Diamond: „Collapse. How Societies Choose to Fail or Survive”

Kollaps. Warum Gesellschaften überleben oder untergehen

Julian Morris: How Jared Diamond fails to convince

Wolfgang Kasper: Human Progress and Collapse

Benny J. Peiser: From Genocide to Ecocide

Interview mit Elinor Ostrom zur Kopenhagen Konferenz

Was würde Ostrom sagen, wenn sie davon ausginge, dass an der CO2-Treibhaus-Hypothese nichts dran ist?

Teil I:

Wirtschaftsnobelpreis 2009 an Elinor Ostrom und Oliver Williamson

von Edgar L. Gärtner

Eine Ohrfeige für den „Klimaschutz“?

Ob die Schwedische Akademie auch bei der Auswahl der diesjährigen Träger des Alfred-Nobel-Gedächtnispreises für Ökonomie politische Hintergedanken verfolgte, steht nicht fest. Es scheint eher, als sei dem Nobel-Komitee die Tragweite seiner Entscheidung nur halb bewusst gewesen. Denn insbesondere die Arbeiten der inzwischen 76-jährigen Politikwissenschaftlerin Elinor Ostrom, die die begehrte Auszeichnung als erste Frau überhaupt erhielt, lassen die offiziell als alternativlos dargestellte „Klimapolitik“ nach dem Muster des Kioto-Protokolls in einem ungünstigen Licht erscheinen. Sie hat die Frage, wie gemeinschaftlich genutzte knappe Ressourcen vor der Erschöpfung bewahrt werden können, durch empirische Beobachtung von Fischern und anderen Nutzergruppen ganz anders beantwortet als die UN und ihre Bürokratien.

Seit den Anfängen der Umweltpolitik in den USA ist die von Ostrom untersuchte Problematik unter dem Schlagwort „Tragik der Allmende“(Tragedy of the Commons) bekannt. Sie gilt noch heute als wichtigster Ausgangspunkt umweltökonomischer Überlegungen. Das Schlagwort wurde in einem Aufsatz geprägt, den der amerikanische Mikrobiologe Garret Hardin 1968 in „Science“ veröffentlichte. Hardin behauptete darin, auf eine entsprechende Theorie des reaktionären englischen Landgeistlichen Thomas Robert Malthus (1766-1834) verweisend, die Weltbevölkerung lasse sich mit Bakterien vergleichen, die sich in einer Kulturflüssigkeit so lange exponentiell vermehren, bis ihre Population infolge von Nährstoffmangel zusammenbricht. Die größte Gefahr für die Umwelt geht, so gesehen, von der menschlichen Freiheit aus. Denn freie Menschen, so die Vorstellung Hardins, werden in egoistischer Manier versuchen, ein möglichst großes Stück des Kuchens zu ergattern. Almbauern werden danach trachten, auf der Gemeindeweide (Allmende) den Viehbestand zu maximieren, bis kein Gras mehr wächst. Fischer werden versuchen, ihre Fangflotte und ihre Netze zu vergrößern beziehungsweise deren Maschen zu verkleinern, bis die Fischgründe leer gefischt sind.

Hardin beschreibt die Problematik in folgenden Worten: „Als rational denkendes Wesen strebt jeder Viehhalter danach, seinen Gewinn zu erhöhen, … mehr oder weniger bewusst stellt er sich die Frage: Was nützt es mir, wenn ich meiner Herde ein weiteres Stück Vieh hinzufüge. Diese Nutzung hat eine positive und eine negative Komponente.

1. Die positive Komponente besteht in der Funktion der Hinzufügung eines Stückes Vieh. Da der Viehhalter den ganzen Erlös vom Verkauf eines zusätzlichen Tieres erhält, beträgt der positive Nutzwert fast plus 1.

2. Die negative Komponente besteht in der Funktion der zusätzlichen Abgrasung durch ein weiteres Stück Vieh. Da nun die Auswirkungen des Abgrasens alle Viehhalter betreffen, beträgt der negative Nutzwert für den einzelnen Viehhalter nur einen Bruchteil von minus 1.

Wenn er die anteiligen Nutzwerte addiert, wird der rational denkende Viehhalter zu dem Schluss kommen, es sei für ihn das einzige Vernünftige, seiner Herde ein weiteres Tier hinzuzufügen und noch eins und so weiter. Aber zu diesem Schluss wird jeder rational denkende Viehhalter bei freier Nutzung der Allmende kommen, und darin liegt die Tragödie.“

Von diesen Überlegungen ausgehend, scheint die Lösung auf der Hand zu liegen: Der Geist Adam Smiths muss aus der Wirtschaft verbannt werden. Der Staat muss eingreifen und die knappen Ressourcen rationieren, zum Beispiel durch die Zuteilung oder Versteigerung einer streng begrenzten Zahl handelbarer Nutzungsrechte. Diese Hauruck-Methode liegt dem Kioto-Abkommen über die Reduktion von „Treibhausgasen“ und dem darauf aufbauenden Handel mit CO2-Emissionsrechten zugrunde.

Elinor Ostrom zeigte demgegenüber in ihrem bekanntesten Werk „Governing the Commons“, dass Almbauern, Fischer oder Wassernutzer durchaus in der Lage sind, die Verwertung ihrer Ressourcen ohne staatliche Auflagen und Eingriffe selbst zu regulieren – und zwar viel effizienter als der Staat das könnte. Weit davon entfernt, sich so stur egoistisch zu verhalten wie Hardins Modell-Strichmännchen, reden Menschen aus Fleisch und Blut, also auch Viehzüchter, Ackerbauern und Fischer nämlich miteinander, handeln gemeinsame Nutzungsregeln aus und überwachen deren Einhaltung selbst, wenn sie ein Problem auf sich zukommen sehen. Gesunder Menschenverstand ist unter einfachen Menschen offenbar viel weiter verbreitet, als es sich viele Wirtschaftstheoretiker vorstellen können. Dafür gibt es eine Fülle historischer Beispiele. Probleme der Übernutzung von Ressourcen traten meist nur in der Folge von Naturkatastrophen, Kriegen oder Revolutionen auf. Althistorikern ist zum Beispiel bekannt, dass die Versalzung von Ackerböden im Zweistromland keine unausweichliche Konsequenz Jahrtausende währender intensiver Bewässerungslandwirtschaft war, sondern die Folge von Kriegen und gesellschaftlichen Umbrüchen. In diesen Zeiten wurde die Unterhaltung der Kanäle vernachlässigt, so dass das labile Gleichgewicht zwischen Wasserzu- und –abfluss gestört wurde. Ähnlich kam es in Europa in der Regel nicht deshalb zu wiederholten Hungersnöten, weil die Menschen zu viele Kinder in die Welt setzten und zu viel aus ihren Böden herauszuholen versuchten, sondern weil die Ertragskraft der Äcker infolge der „Kleinen Eiszeit“ deutlich abnahm oder weil Konflikte wie der 30-jährige Krieg eine ordentliche Bestellung der Äcker nicht mehr zuließen.

Im Kioto-Prozess versuchen Berufspolitiker und Bürokraten diese historischen Erfahrungen in den Wind zu schlagen, indem sie von vornherein ausschließen, dass die arbeitenden Menschen Probleme ein Stück weit auf sich zukommen lassen und selbst überlegen können, wie sie Ihnen als Einzelne und als Angehörige von Kollektiven begegnen wollen. Die Menschen sollen dazu erzogen werden, ihren fünf Sinnen zu misstrauen, ihren Verstand abzuschalten und nur offiziellen Modellrechnungen Glauben zu schenken. Eine selbst ernannte Elite von Weltrettern rechnet den zu Untertanen degradierten Menschen gerade im Vorfeld der Kopenhagen-Konferenz über eine Fortschreibung und Verschärfung des Kioto-Protokolls vor, dass weltweit nur noch 750 Milliarden Tonnen CO2 in die Atmosphäre freigesetzt werden dürfen, wenn der Anstieg der bodennahen Durchschnittstemperatur auf zwei Grad Celsius begrenzt werden soll. Dieser Vorgabe sollen sich die Menschen fügen.

Um uneinsichtige Erdbürger gefügig zu machen, gilt der Handel mit rationierten Emissionsrechten als Mittel der Wahl. Gegenüber dem spontanen Aushandeln von Regeln der Ressourcennutzung vor Ort zeichnet sich der Handel mit „heißer Luft“ durch maximale Intransparenz aus. Er wird im Unterschied zu den bewährten Formen lokaler Selbstorganisation mit ziemlicher Sicherheit nicht die an ihn geknüpften offiziellen Erwartungen erfüllen, sondern vor allem eines bewirken: eine gigantische Umverteilung von Geldern von unten nach oben, d.h. in die Kassen eines internationalen Finanzkartells. Um dessen Interessen und nicht um das (ohnehin nicht definierbare) Weltklima geht es offenbar beim „Klimaschutz“. Elinor Ostroms starkes Plädoyer für die Anwendung des Subsidiaritätsprinzips beim Ressourcenschutz könnte durchaus helfen, diesen Schwindel auffliegen zu lassen.

Auch die Arbeiten Oliver Williamsons liegen, soweit ich das einschätzen kann, nicht gerade auf der Linie des derzeitigen Mainstreams rein theoretischer Modellspielereien, sondern beschäftigen sich mit konkreten Problemen der Corporate Governance. So zum Beispiel mit dem Problem der Transaktionskosten in Unternehmer-Netzwerken und der damit zusammenhängenden Frage nach der geeigneten Unternehmensgröße in Abhängigkeit vom jeweils gewählten Geschäftsmodell. Auch mit der oft überlebenswichtigen Entscheidung für oder wider den Aufbau eigener Entwicklungsabteilungen hat sich Williamson auf undogmatische Weise beschäftigt. Wie Ostrom geht auch er davon aus, dass der Markt beim Versuch, Probleme der Ressourcenknappheit zu lösen, nicht vergötzt werden darf. Beide begreifen den Markt vielmehr als eine Institution neben anderen, die sich im Laufe der Geschichte bewährt haben. Gerade damit rücken sie in die Nähe der österreichischen Schule der Politischen Ökonomie mit dem Wirtschaftsnobelpreisträger Friedrich August von Hayek und der Public Choice Theorie von Wirtschaftsnobelpreisträger James Buchanan. Denn die österreichische Schule hat sich, aufbauend auf der subjektiven Wertlehre, nie mit Modellmenschen wie dem berühmt-berüchtigten Konstrukt Homo oeconomicus beschäftigt, sondern mit den mehr oder weniger vernünftigen Entscheidungen von Individuen mit Leib und Seele. (veröffentlicht in: WirtschaftsBild 59. Jg. November 2009)

Internet:

Die Tragik der Allmende

Wofür Ostrom und Williamson geehrt wurden

Literatur:

Garret Hardin: The Tragedy of the Commons. In: Science. 162/1968. S. 1243-1248 (deutsch in: Michael Lohmann (Hrsg.): Gefährdete Zukunft. Hanser, München 1970, S. 30-48 und dtv Bd. 920, München 1973, S. 29-46)

Elinor Ostrom: Governing the Commons: The Evolution of Institutions for Collective Action. Cambridge University Press, Cambridge 1990, ISBN 0-521-40599-8, deutsch.: Die Verfassung der Allmende. Mohr, Tübingen 1999, ISBN 3-161-46916-X

=================================================================================

Ein Nobelpreis für nichts? von Edgar L. Gärtner

Vermutlich bekommt Barack Obama den Friedensnobelpreis nicht unbedacht

Nachdem bereits Polit-Gauner wie Yassir Arafat und Al Gore mit der begehrten Auszeichnung bedacht wurden, konnte man sich kaum noch vorstellen, dass es dem Osloer Nobel-Komitee noch gelingen würde, seine Fehlentscheidungen noch zu toppen. Doch mit der Wahl des 44. US-Präsidenten Barack Hussein Obama zum diesjährigen Träger des Friedensnobelpreises scheint das den Juroren gelungen. Denn um jetzt ausgezeichnet zu werden, muss Obama bereits am 1. Februar 2009, kaum 12 Tage im Amt, auf der Kandidatenliste für den Preis gestanden haben. Selbst Anhänger Obamas diesseits und jenseits des Atlantik gaben sich daher höchst verwundert über die Entscheidung des Osloer Komitees. Einige Freunde haben Obama nahegelegt, den Preis abzulehnen. Der Ausgezeichnete selbst konnte sich der Lächerlichkeit nur durch ein Lippenbekenntnis zur Demut entziehen.

Kaum jemand behauptet, Obama habe die Auszeichnung verdient. Über Versprechen und Ankündigungen sind seine Friedensinitiativen bisher in der Tat nicht hinausgelangt. Vielmehr wurde ein neuer, die vorsorgliche Kapitulation des Westens nicht ausschließender Ton in der US-Außenpolitik mit Vorschuss-Lorbeeren bedacht. Obamas Freunde fürchten (wohl nicht zu Unrecht), diese Lorbeeren könnten schon bald zur Hypothek der gerade erst begonnenen Amtszeit ihres Lieblings werden. „Mehr Bürde als Ehre“, überschreibt Obama-Fan Claus Christian Malzahn seinen Kommentar auf SPIEGEL-online.

Worum es dem Osloer Nobel-Komitee wohl in Wirklichkeit ging, offenbart ein Vergleich zwischen Obama und der Frau, die genau 30 Jahre vor ihm mit dem Friedensnobelpreis ausgezeichnet wurde: Mutter Teresa. In ihrer noch heute zu Tränen rührenden Dankesrede erklärte die inzwischen selig gesprochene, wenn auch nach wie vor umstrittene katholische Ordensschwester am 10. Dezember 1979 in Oslo: „Der größte Zerstörer des Friedens ist heute der Schrei des unschuldigen, ungeborenen Kindes. Wenn eine Mutter ihr eigenes Kind in ihrem eigenen Schoß ermorden kann, was für ein schlimmeres verbrechen gibt es dann noch, als wenn wir uns gegenseitig umbringen?“ Eine der ersten Amtshandlungen des 44. US-Präsidenten bestand demgegenüber darin, ein Gesetz außer Kraft zu setzen, das es der US-Regierung verbot, Entwicklungshilfeleistungen an Empfängnisverhütungs- und Abtreibungs-Kampagnen zu koppeln. So gesehen, erscheint die diesjährige Entscheidung des Nobel-Komitees als durchaus gewollte Korrektur der Wahl, die es vor drei Jahrzehnten traf. Obama bekommt den Nobelpreis also nicht für nichts, sondern für das Nichts, für praktizierten Nihilismus, der in den vergangenen Jahrzehnten unter Synonymen wie „Null-Emission“, „Nachhaltigkeit“ und „Klimaschutz“ die Weltarena erobert hat. (10. Oktober 2009)

Internet:

Obama schon nach 12 Tagen Amtszeit in der engeren Auswahl

Mehr Bürde als Ehre

Mutter Teresa bei der Entgegennahme des Friedensnobelpreises 1979

================================================================================

Der größte Mensch, der je gelebt hat, erntet Undank

Dankbarkeit scheint in der heutigen Welt, in der so vieles knapp wird, zu einer der seltensten Gemütsregungen zu werden. In meiner frühen Kindheit in der Nachkriegszeit war es noch keineswegs selbstverständlich, dass zu den Mahlzeiten immer genügend Essen auf dem Tisch stand. Deshalb empfand ich es, auch ohne den Katechismus gepaukt zu haben, als selbstverständlich, dass jedes Essen mit einem Dankesgebet begann. Heute gilt das tägliche Brot den Bürgern von Wohlfahrtsstaaten als „Commodity“, auf die sie einfach einen Anspruch haben. Man bittet nicht darum und dankt auch niemandem dafür. Erst recht verschwendet man keinen Gedanken an die menschlichen Leistungen und institutionellen Bedingungen, denen wir unsere Nahrungsmittelüberschüsse verdanken.

„Undank ist der Welten Lohn“, lautet ein oft zitierter Spruch. Auch Norman Borlaug, der als Vater der „Grünen Revolution“ 1970 mit dem Friedensnobelpreis geehrt wurde und am 12. September 2009 in Dallas/Texas im biblischen Alter von 95 Jahren an Krebs gestorben ist, kannte wahrscheinlich diesen Spruch beziehungsweise dessen amerikanische Entsprechung. So hat er sich wohl nicht sonderlich darüber geärgert, dass sein Name am Ende seines langen, erfüllten Lebens sowohl in seiner amerikanischen Heimat als auch in Europa beinahe in Vergessenheit geraten war. Die Auskünfte, die die Online-Enzyklopädie Wikipedia über ihn gibt, passen bequem auf eine Druckseite. Und doch galt dieser Mann, in den Worten des bekannten US-Comedian Penn Jilette, einmal als „der größte Mensch, der je gelebt hat.“ Nach Jesus Christus, sollte man wohl hinzufügen. Aber dieser war ja nicht nur Mensch, sondern Gottessohn. Das US-Magazin „Atlantik Monthly“ schätzte 1999, dass Borlaug durch die Züchtung widerstandsfähiger Hochleistungs-Getreidesorten nicht weniger als eine Milliarde Menschenleben gerettet hat.

Norman Ernest Borlaug wurde 1914 als Sohn eines kleinen Farmers in Iowa geboren. Nach dem Studium der Agrarwissenschaften arbeitete er zunächst im Forschungslabor der DuPont de Nemours Foundation und fand dann 1943 einen Job in einem kleinen Pflanzenzüchtungsinstitut der Rockefeller Foundation in Mexiko. Dank Borlaugs bahnbrechenden Erfolgen bei der Züchtung neuer Getreidesorten wuchs dieses Institut zum Internationalen Mais- und Weizen-Zentrum CIMMYT von Weltbedeutung heran. Borlaugs Erfolgsserie begann mit der Einkreuzung eines von einer japanischen Weizensorte stammenden Zwergwuchs-Gens in mexikanischen Weizen. Nach weiteren geduldigen Kreuzungsversuchen entstand eine robuste Hochleistungssorte, deren kurze, kräftige Halme besonders schwere Ähren tragen konnten. Seit 1962 wird dieser Weizen in Indien angebaut. Innerhalb eines einzigen Jahrzehnts stiegen die landwirtschaftlichen Erträge auf dem zuvor von chronischen Hungersnöten geplagten Subkontinent Dank des besseren Saatguts auf fast das Dreifache. Das Land wurde zum Weizenexporteur. Später erzielte Borlaug in China ähnliche Erfolge mit Reis.

Vor allem Dank dieser „Grünen Revolution“ stieg die Kalorienaufnahme je Kopf der Weltbevölkerung zwischen 1965 und 2005 von 2.065 auf 2.798. Trotz der in diesem Zeitraum abgelaufenen Bevölkerungsexplosion konnte die Welternährungsorganisation FAO den Hunger im Jahre 2006 für beinahe besiegt erklären. Seither hat sich die Situation aus ganz anderen Gründen leider wieder verschlechtert. Jedenfalls war Borlaugs Landsmann Paul Ehrlich, der die Welt 1968 in seinem Bestseller „Die Bevölkerungsbombe“ mit düsteren Prognosen in Angst und Schrecken versetzt hatte, von der Wirklichkeit gründlich widerlegt worden.

Doch beeinflussten Ehrlichs Weltuntergangs-Prognosen und nicht die 1970 mit dem Friedensnobelpreis gekrönte erfolgreiche Arbeit Borlaugs seit den 70er Jahren mehr und mehr die öffentliche Meinung. Borlaug hätte später nicht mehr die geringste Chance gehabt, mit einem Nobelpreis geehrt zu werden. Stattdessen musste er sich immer häufiger wegducken, um nichts von den Schmutzkübeln abzubekommen, die „grüne“ Misantropen über ihm ausgossen. Diese warfen ihm vor, die Bauern in die Anhängigkeit der Saatgut-, Pestizid- und Kunstdüngerkonzerne zu treiben und eine Klimakatastrophe heraufzubeschwören. In Indien versuchte die Oberkasten-Angehörige Vandana Shiva den armen Bauern die Anwendung von Hochleistungs-Saatgut auszureden, insbesondere solches, das mithilfe der Gentechnik erzeugt wurde.

Norman Borlaug hat sich im „Unruhestand“ in der Tat ganz selbstverständlich für die Grüne Gentechnik stark gemacht, weil er auch darin einen viel versprechenden Weg sah, die weiter wachsende Weltbevölkerung auf der vorhandenen Ackerfläche zu ernähren. Wäre es in der Nachkriegszeit nicht zu den zitierten Produktivitätssteigerungen gekommen, rechnete er vor, hätten längst die letzten Wälder der Erde in Äcker verwandelt werden müssen. Er befürwortete die Grüne Gentechnik gerade auch aus Gründen des Naturschutzes. Doch damit konnte er sich in seinen letzten Lebensjahren keine Sympathie erwerben.

Nahe liegender Schluss: Wer heute auf den Friedensnobelpreis aus ist, der sollte es tunlichst vermeiden, etwas für die Menschen Nützliches zu erfinden. Als nobelpreiswürdig gelten vielmehr Studien, die den Menschen Angst und Schuldkomplexe einjagen. Das zeigt die Ehrung Al Gores und des „Weltklimarates“ IPCC vor zwei Jahren. Als besonders aussichtsreich erscheinen heute Studien, die zeigen, dass es für das Weltklima besser ist, die Menschheit zu verkleinern als sich um die Ernährung der weiter wachsenden Menschenzahl zu kümmern. Studien, die aufzeigen, wie die Menschen mithilfe ihres Erfindergeistes sich an wärmere oder kühlere Zeiten anpassen können, haben eine schlechte Presse. Dank Norman Borlaug hatte Paul Ehrlich mit seiner Prognose zum Glück nicht recht. George Orwell dagegen leider doch.

Internet:

Norman Ernest Borlaug auf Wikipedia

Michael Miersch über den Mann, der Millionen Menschenleben rettete

Gregg Easterbrook about the Man who defused the ‚Population Bomb’

Paul Driessen: Adapting to climate change through technology

Contraception cheapest way to combat climate change

(4. Oktober 2009)

===========================================================================

Deutsche Waldwirtschaft auf dem Wege zur Nachhaltigkeit?

Etwa ein Vierteljahrhundert ist es nun her, da schienen die Tage des deutschen Waldes gezählt. Im Schwarzwald und in anderen deutschen, ostfranzösischen und schweizerischen Mittelgebirgen war Förstern und Spaziergängern eine Häufung vergilbter und kahler Nadelbäume ins Auge gesprungen. Da bekannte Ursachen der Austrocknung von Baumkronen wie etwa die Verbreitung des Borkenkäfers ausschieden, belegte die Bürokratie das Syndrom kurzerhand mit dem wenig phantasievollen Begriff „neuartige Waldschäden“. Umso mehr Phantasie entwickelte dagegen die seit der Gründung der Partei „Die Grünen“ im Jahre 1980 erstarkte Öko-Bewegung. „Erst stirbt der Wald, dann der Mensch“, sagt ein Sprichwort, von dem man nicht genau weiß, ob es schon älter ist oder eigens erfunden wurde, um auf das „Waldsterben“ als vermeintlich objektive Begründung der in Deutschland sich ausbreitenden Endzeitstimmung aufmerksam zu machen. Verschiedene Naturschutzverbände und Bürgerinitiativen hatten diesen Spruch im Herbst 1983 auf einer „Aktionskonferenz gegen das Waldsterben“ in Freudenstadt im Schwarzwald aufgegriffen und dafür gesorgt, dass die an die Wand gemalte Gefahr eines „ökologischen Holocaust“ zum dominierenden Thema des damals gerade laufenden Bundestagswahlkampfes wurde.

Schon 1981 hatte der Göttinger Bodenkundler Bernhard Ulrich prophezeit, in spätestens fünf Jahren würden ganze Wälder absterben. Der Hauptgrund dafür sei der „saure Regen“ infolge des massiven Ausstoßes von giftigem Schwefeldioxid (SO2) durch die hohen Schornsteine von Kohlekraftwerken. Das Schreckensbild kahler deutscher Mittelgebirge, bedeckt von eintönigen Grasflächen, in der kein Baum mehr Wurzeln fasst und kaum noch ein Vogel singt, schien in rasendem Tempo von der Wirklichkeit eingeholt zu werden. In den Kammlagen des Erzgebirges, an der Grenze zwischen den heute schon beinahe vergessenen sozialistischen Volksrepubliken DDR und CSSR, konnten die wenigen, die damals dorthin kamen, diese Zukunft bereits besichtigen. Doch das Absterben ganzer Baumbestände hatte dort greifbare Ursachen. Sozialistische Mangelwirtschaft hatte dazu geführt, dass große Kohlekraftwerke ihren Rauch völlig ungefiltert in Rübezahls Heimat bliesen.

Die im Westen beobachteten Symptome erwiesen sich als vorübergehend und hatten mit der großflächigen Waldzerstörung im Osten nichts zu tun. Das belegten in den folgenden Jahren vor allem schweizerische und französische Fortwissenschaftler, während ihre deutschen Kollegen mit der bürokratischen Zeremonie der jährlichen Waldschadenserhebung fortfuhren. Es gelang einer Initiative von privaten Waldbesitzern und Umweltverbänden, die vom Staat Schadensersatz für forstwirtschaftliche Ertragsausfälle durch das „Waldsterben“ gefordert hatte, nicht zu belegen, dass sich der Zuwachs der Holzvorräte in Deutschland verlangsamte. Wie auch: Die in größeren Abständen durchgeführten Bundeswaldinventuren zeigten, dass sich das Baumwachstum im Gegenteil beinahe explosionsartig beschleunigte. Die Förster mussten die ihren Planungen zugrunde liegenden Ertragstafeln deutlich nach oben korrigieren.

Die Bundeswaldinventur von 2004 förderte zutage, dass Deutschland heute mit fast 3,4 Milliarden Kubikmetern über die mit Abstand größten Holzvorräte in Europa verfügt. Es stellt damit selbst die „klassischen“ Waldländer Finnland und Schweden in den Schatten. Seit 1960 hat die Waldfläche in Deutschland im Schnitt in jedem Jahr um 10.000 Hektar zugenommen. Ob die Ende Februar 1983 eilig verabschiedete Großfeuerungsanlagen Verordnung bzw. der darin vorgeschriebene Bau riesiger Rachgasentschwefelungsanlagen dazu nennenswert beigetragen hat, blieb höchst umstritten. Jedenfalls wachsen bei uns heute in jedem Jahr auf jedem Hektar Wald mehr als 12, auf dem „grünen Drittel“ (d.h. etwa 31 Prozent) Deutschlands also insgesamt über 120 Millionen Kubikmeter Holz nach. Davon wird bislang nur etwas mehr als die Hälfte wirtschaftlich genutzt. Erheblich mehr, nämlich etwa 80 Millionen Kubikmeter, gilt aber als problemlos nutzbar.

Die deutsche Forstwirtschaft entspricht also formal durchaus dem Kriterium der Nachhaltigkeit, nicht mehr Holz zu schlagen als nachwächst und verfügt sogar noch über einen beträchtlichen Sicherheitsabstand. Dieser Abstand ist erst in jüngster Zeit durch die verstärkte Nutzung von Brennholz kleiner geworden. Hintergrund ist der starke Anstieg der Heizöl- und Gaspreise. Bei der Brennholzgewinnung auf eigene Faust kommt es nicht selten auch zu Freveltaten wie dem Fällen von kräftigen Randbäumen, die für den Windschutz von Baumbeständen wichtig sind. Alles in allem kann sich die deutsche Waldwirtschaft heute aber zu recht rühmen, das zu beherzigen, was der sächsische Oberberghauptmann Carl von Carlowitz, stark beeinflusst von der Romantik, schon im Jahre 1713 in seiner „Sylvicultura oeconomica“ forderte, nämlich „den Anbau des Holzes so anzustellen, dass es eine continuierliche, beständige, nachhaltige Nutzung gebe.“

Bis zur systematischen Umsetzung dieser Forderung ging aber noch mehr als ein Jahrhundert ins Land. Das ganze 18. Jahrhundert war gekennzeichnet durch einen sich zuspitzenden Holzmangel – eine Folge Jahrhunderte währender Übernutzung des Waldes als Brennholz-, Baumaterial- und Streulieferant sowie als Viehweide. Es war paradoxerweise die im 19. Jahrhundert mit der Erfindung der Dampfmaschine einsetzende industrielle Revolution, die den deutschen Wald vor dem weiteren Niedergang rettete. Dampfgetriebene Pumpen und Aufzüge machten den Kohlebergbau in großem Stil möglich. Durch den zunehmenden Einsatz von Kohle als Brennmaterial sank der Brennholzbedarf. Die aufkommenden Industrien benötigten statt des Knüppelholzes, das die heruntergekommenen Wälder vielerorts gerade noch lieferten, jede Menge gutes Stammholz. So brauchte man z.B. für den Bau der ersten Eisenbahnen ironischerweise doppelt so viel Holz wie Eisen.

Die Holzproduktion konnte nicht mehr dem Zufall überlassen bleiben, sondern musste so weit wie möglich auf eine rationale betriebswirtschaftliche Grundlage gestellt werden. Zu den noch heute zitierten Begründern der wissenschaftlichen Forstbetriebslehre zählen Heinrich Cotta, der in Tharandt bei Dresden lehrte, und der preußische Oberlandforstmeister Georg Ludwig Hartig, der in Berlin wirkte. Anders als von Carlowitz waren diese weniger von der Romantik als vielmehr von den liberalen Ideen des schottischen Moralphilosophen Adam Smith, dem Begründer der Nationalökonomie, beeinflusst. Um eine Nation auf den Weg zum Wohlstand zu führen, kommt es danach lediglich darauf an, dem Gewinnstreben und dem gesunden Menschenverstand der Einzelnen freien Lauf zu lassen. „Denn“, so Smith, „verfolgt er sein eigenes Interesse, so fördert er das der Gesellschaft weit wirksamer, als wenn er dieses wirklich zu fördern beabsichtigte.“

Smith hatte in seiner „Untersuchung über Wesen und Ursachen des Reichtums der Nationen“ (1776) hergeleitet, dass Arbeit, Kapital und Boden ebenbürtige Quellen für Lohn, Zins und Rente sind. Als Kapital der Forstwirtschaft erscheint danach der Holzvorrat lebender Bäume, als dessen Zinsen der jährliche Zuwachs. Folglich müsse die Forstwirtschaft danach trachten, von den Zinsen zu leben und ihr Kapital zu pflegen und zu mehren. Während Cotta in seiner „Bodenreinertragslehre“ den Nutzen forstwirtschaftlicher Investitionen allein aus der erforderlichen Umtriebszeit errechnete und somit der Kahlschlagswirtschaft mit schnell wachsenden Baumarten wie Pappeln, Fichten oder Kiefern Vorschub leistete, legte Hartig in seiner „Waldreinertragslehre“ mehr Gewicht auf die längerfristige Entwicklung des Überschusses der Einnahmen über die Ausgaben der Betriebe. Dadurch schlugen auch die deutlich höheren Verkaufspreise langsam wachsender Buchen und Eichen sowie die größere Widerstandsfähigkeit von Mischwäldern gegenüber Stürmen und Schädlingsbefall positiv zu Buche. So wurde Hartig zum eigentlichen Vater der auf Nachhaltigkeit bedachten Forstbetriebslehre.

Hartig riet den Förstern im Jahre 1795: „Jede weise Forstdirektion muss daher die Waldungen … ohne Zeitverlust taxieren lassen, und sie zwar so hoch als möglich, doch zu nutzen suchen, dass die Nachkommenschaft wenigstens ebenso viel Vorteil daraus ziehen kann, als sich die jetzt lebende Generation zueignet.“ An diesem Verständnis von Nachhaltigkeit knüpfte 1987 die UN-Kommission für Umwelt und Entwicklung (Brundtland-Kommission)an, wobei sie allerdings nicht klärte, wieweit das betriebswirtschaftliche Konzept überhaupt auf gesellschaftliche Entwicklungen außerhalb der Forstwirtschaft sinnvoll anwendbar ist. Als nachhaltig definierte die Kommission eine „Entwicklung, die den Bedürfnissen der heutigen Generation entspricht, ohne die Möglichkeiten künftiger Generationen zu gefährden, ihre eigenen Bedürfnisse zu befriedigen und ihren Lebensstil zu wählen.“ Im Jahre 1992 wurde diese Definition auf dem „Erd-Gipfel“ von Rio de Janeiro von allen vertretenen Staaten einstimmig als weltweit gültiges Leitbild angenommen. Im Jahre 2007 schließlich verabschiedete die UN-Vollversammlung in New York ein spezielles Waldabkommen, das die Erhaltung der Wälder durch die in Richtung von Schutzzonen und eine nachhaltige Bewirtschaftung fordert.

Um dieses Leitbild in der Waldwirtschaft umsetzen zu können, müssen vor allem die Eigentumsverhältnisse geklärt sein, was in vielen Gegenden der Welt bis heute leider nicht der Fall ist. Nicht zufällig befinden sich heute unsere schönsten Mischwälder mit den ältesten Bäumen und den größten Holzvorräten seit Jahrhunderten im Besitz adliger Familien, während die Pflege von Staatswäldern nicht selten kurzfristigen kriegs- oder devisenwirtschaftlichen Interessen geopfert wurde. Deshalb gelten inhabergeführte Familienbetriebe zu Recht als das Rückgrat einer am Leitbild der Nachhaltigkeit orientierten Forst- und Holzwirtschaft. In Deutschland erzielten im Jahre 2004 insgesamt 185.000 Betriebe der Forst- und Holzwirtschaft (einschließlich der Papierverarbeitung und des Druckereigewerbes) einen Jahresumsatz von über 180 Milliarden Euro und beschäftigten mehr als 1,3 Milliarden Menschen. Das sind nach EU-Kriterien mehr als in der Automobilindustrie!

In der EU gelten die sechs allgemeinen Kriterien für eine nachhaltige Waldwirtschaft, die die europäische Ministerkonferenz zum Schutz der Wälder im Jahre 1993 in Helsinki beschlossen hat. In Deutschland werden diese Kriterien durch die Waldgesetze des Bundes und der Länder sowie in Form freiwilliger Zertifizierungen umgesetzt. Dabei konkurrieren zurzeit zwei Systeme: das Programme for the Endorsement of Forest Certification Schemes (PEFC) und das etwas strengere System des Forest Stewardship Council (FSC). Rund 65 Prozent (über 7 Millionen Hektar) der deutschen Waldfläche wurden nach dem PEFC-System zertifiziert. Den konkurrierenden FSC-Kriterien entsprechen zurzeit weniger als 600.000 Hektar.

Das deutet an, dass auch in Deutschland durchaus noch einiges zu tun bleibt, um den Leitbild der Nachhaltigkeit noch näher zu kommen. Zum Beispiel ist der Anteil der Nadelwälder mit 59 Prozent noch immer deutlich größer, als es im Sinne der Steigerung der Widerstandsfähigkeit gegenüber Witterungsunbilden, Krankheiten und Schädlingsbefall wünschenswert erscheint. Der begonnene Umbau des deutschen Waldes in Richtung auf eine stabilere Baumartenzusammensetzung wird wohl noch Jahrzehnte in Anspruch nehmen. Dabei sind Rückschläge nicht ausgeschlossen. Erfahrene Förster wissen wie die Gärtner und die Bauern, dass sie sich nie zu früh freuen dürfen…

Edgar Gärtner (erschienen in: WirtschaftsBild 58.Jg. August 2008, UBG Rheinbach)