Am 27. August 2019 verstarb im Alter von 77 Jahren der Harvard-Ökonom Martin Weitzman, eine der interessanteren Gestalten der „Mainstream“-Ökonomik. Er war schon länger auf meiner und vieler anderer Wunschliste für den Nobel-Gedenkpreis für Wirtschaftswissenschaften, insbesondere für seine Beiträge zur Umweltökonomik. 2011 wurde er immerhin mit dem Leontief-Preis ausgezeichnet (zusammen mit Nicholas Stern). Da ich Weitzman in meiner Auseinandersetzung mit der Ökonomik immer wieder begegnete, möchte ich hiermit ein paar seiner besonders interessanten Beiträge kurz würdigen.
Weitzman war einer der vielen Ökonomen mit einem starken Hang zur Mathematik und theoretischer Modellierung. Partha Dasgupta, ein anderer von mir sehr geschätzter Umweltökonom, schrieb einmal über Weitzmans Diskontierungsansatz:
The advice economists offer policy makers takes this form only when their research is prompted by mathematical curiosities, not economics.
Partha Dasgupta (2001), Human Well-Being and the Natural Environment, S. 190.
Das ist natürlich eine recht harsche Einschätzung (für Dasgupta nicht untypisch – ich empfehle an dieser Stelle seine Kritik an Friedrich Hayek in Amartya Sens und Bernard Williams‘ Buch Utilitarianism and Beyond). Denn auch wenn Weitzmans Argumentation meist in sehr viel zum Teil schwer nachvollziehbare Mathematik verpackt war, so war sie doch oft sehr interessant. Und er hat sich mit allen möglichen Themen befasst: außer der bereits erwähnten Diskontierung (insb. das sogenannte und von Dasgupta kritisierte Gamma discounting) arbeitete er auch zur konjunkturabhängigen Gewinnbeteiligung von Arbeiter*innen (unter dem Stichwort share economy, nicht zu verwechseln mit sharing economy), zur Verbesserung und Erweiterung der Volkswirtschaftlichen Gesamtrechnung (Stichwort (green) net national product) oder auch zum Equity Premium Puzzle. Aus dieser Fülle von Beiträgen möchte ich jedoch drei hervorheben, die ich im Kontext meiner eigenen Arbeit für besonders wichtig halte: die Abwägung zwischen preis- und mengenorientierten Instrumenten der Umweltpolitik (also, vereinfacht: Steuern vs. Zertifikatehandel), die Messung und Bewertung von Biodiversität (das sogenannte Noah’s Ark problem) sowie das dismal theorem (etwas: „trostloses Theorem“) der Klimapolitik.
Der wohl bekannteste Beitrag Weitzmans zur Umweltökonomik (und wohl auch sein bekanntester und einflussreichster Beitrag zur Ökonomik überhaupt) ist sein 1974er Artikel über Prices vs. Quantities. In diesem geht es um die Frage, wann preisorientierte Instrumente der Umweltpolitik (also insb. Steuern bzw. Abgaben) und wann mengenorientierte Instrumente (cap-and-trade) zum Zuge kommen sollten. Wie ich kürzlich aus einem Nachruf erfuhr, war diese Unterscheidung in der aktuellen Debatte über eine mögliche CO2-Steuer Thema und mutmaßlich der Grund, warum Weitzman die „Ökonom*innen-Petition“ für eine CO2-Steuer nicht unterschrieb. Weitzmans Argument lief auf Folgendes hinaus (ich zitiere aus dem oben verlinkten Nachruf):
in a world of non-certainty regarding costs and benefits of environmental policies, the use of a tax versus a quantity control such as cap and trade depended on the relative slopes of the marginal cost and marginal damage functions. If the former is steeper then a price-oriented policy such as a tax is preferred whereas if the marginal damage function is steeper than a quantity-oriented policy such as cap and trade would be preferred. Regarding global climate many of us think the latter is the case
Mit anderen Worten: je nachdem, ob es Umweltkosten (damage functions) oder die Kosten ihrer Vermeidung (costs) sind, die relativ stärker auf Änderungen in der Menge oder Intensität der Umweltbelastung reagieren, sollte man eher auf Mengen- oder Preislösungen setzen. Angesichts der häufigen Diskussionen über die relativen Vor- und Nachteile von Steuern und Emissionshandelssystemen, gerade im Kontext des Klimaschutzes, ist dies eine wichtige grundlegende Erkenntnis (auch wenn natürlich weitere Faktoren ebenfalls eine Rolle spielen, wie bspw. Preisunsicherheit, Innovationsanreize oder Transaktionskosten), die zuletzt an Prominenz und Relevanz gewann. Es ist nur ein Beispiel dafür, was man alles beachten muss, wenn man Politikinstrumente mit Bedacht auswählen möchte, und nicht nur in Reaktion auf kurzfristige Stimmungen und weil es gerade opportun ist oder sexy klingt.

Was hat es mit der Arche Noah auf sich? Das Noah’s Ark problem ist der Beitrag Weitzmans, mit dem ich am meisten zu tun hatte, weil er für meine Doktorarbeit relevant war. Weitzman formulierte das Problem erstmals Anfang der 1990er und befasste sich mit ihm in einer Serie von Publikationen. Der Ausgangspunkt ist die Annahme, dass man nicht alle vom Aussterben bedrohten Arten schützen kann (wegen Knappheit der Ressourcen, die für den Naturschutz zur Verfügung stehen) – also muss man priorisieren, welche Arten auf der Arche Noah vertreten sein sollen und welche nicht. Aber nach welchen Kriterien sollte priorisiert werden? Diese Frage stellte sich Weitzman und einige Forscher*innen, die seine Arbeit fortsetzten. Zunächst betonte Weitzman selbst die Bedeutung der Diversität bzw. der Dissimilarität (Unterschiedlichkeit) der zu erhaltenden Arten – damit man sich einen möglichst breiten „Optionsraum“ für die Zukunft offen hält. Dieser sogenannte Optionswert ist eines der zentralen Elemente des ökonomischen Wertes von Biodiversität und hat z. B. im landwirtschaftlichen Kontext eine große Relevanz. So zeigt er beispielsweise, warum Diversifizierung in der Landwirtschaft so wichtig ist – und das obwohl Monokulturen in der Regel höhere Erträge liefern. Denn „a relatively cheap way of buying catastrophe insurance is to cultivate or hold small positive amounts of as many different kinds of potential domesticates as it may be possible to preserve“ (Weitzman [2000], Economic profitability versus ecological entropy, S. 261). Gleichzeitig löste Weitzmans zunächst stark vereinfachende Analyse eine Debatte aus, im Zuge derer die Liste von Auswahlkriterien mehrfach erweitert (von ihm und von Anderen) und die inhärente Komplexität von Ökosystemen betont wurde, die nicht einfach eine „Summe“ aus einzelnen Artenpopulationen sind (biocomplexity).
Der dritte wichtige Beitrag von Weitzman und meine erste Begegnung mit ihm ist neueren Datums, befasst sich aber ebenfalls mit Entscheidungen unter Unsicherheit. Nach der Publikation des Stern-Reports, The Economics of Climate Change, entbrannte unter Ökonom*innen eine Debatte über viele Entscheidungen, die Stern in seinem klimaökonomischen Modell traf und mit denen bspw. der letztjährige Träger des Nobel-Gedenkpreises William Nordhaus nicht einverstanden war. Neben der Wahl der Diskontrate wurde vor allem das Problem der Schadensfunktion viel diskutiert. Die Kurzfassung: klimaökonomische Modelle (sog. Integrated Assessment Models, IAMs) „übersetzen“ prognostizierte Temperaturanstiege in ökonomische, in Geldeinheiten ausgedrückte Schäden mittels sog. Schadensfunktionen, die so lächerlich simplistisch sind, dass es eigentlich ein Wunder ist, warum irgendjemand Klimaökonom*innen und ihre Modelle überhaupt ernst nimmt (sehr empfehlenswert dazu der Beitrag von Robert Pindyck, The Use and Misuse of Models for Climate Policy im Review of Environmental Economics and Policy). Gleichwohl haben die Wahl der Schadensfunktion sowie der Diskontrate eine entscheidende Bedeutung für die Modellergebnisse (und sind der Hauptgrund für ihre große Spannweite). Dass diese Modelle nicht viel taugen, demonstrierte auf eine interessante Art und Weise auch Weitzman. Ein klimaökonomisches Modell ist de facto eine große Kosten-Nutzen-Analyse – bloß auf globaler Ebene und mit sehr langen Zeiträumen, die betrachtet werden, weswegen Diskontierung eine so große Rolle spielt. Nun zeigte Weitzman, dass im Falle einer solchen Kosten-Nutzen-Analyse das Vorhandensein einer nicht vernachlässigbaren Wahrscheinlichkeit katastrophaler Schäden (was laut manchen Schätzungen der sog. Klimasensitivität und angesichts der vielen positiven Rückkopplungseffekte, z. B. tauende Permafrostböden oder absterbende boreale Wälder, durchaus im Bereich des Möglichen ist) die Diskontrate und die „normale“ Schadensfunktion unerheblich sind – wenn die Katastrophe denkbar ist, ist ambitioniertes Handeln die einzige Option (Weitzman nannte dieses Ergebnis das dismal theorem). Und um das zu zeigen, braucht man keine kompliziert und anspruchsvoll wirkenden IAMs.
Insgesamt habe ich den Eindruck, dass der Wert von Weitzmans Arbeit vor allem darin besteht, dass er ungewöhnliche Fragestellungen wählte und auf diese ungewöhnliche Antworten gab. Diese lösten Diskussionen aus, die wiederum zu wichtigen und bedeutenden Erkenntnissen führten. Ein Nobel-Gedenkpreis wird nicht mehr daraus – aber hoffentlich gehen uns Weitzmans innovative Gedanken nicht verloren.
UPDATE: Anfang September wurde bekannt, dass Weitzman Suizid begangen hatte.