Im vorherigen Beitrag habe ich versucht zu begründen, warum ich es (inzwischen) für sinnvoll und nützlich halte, mich Fragen der Umweltpolitik mithilfe von Modellen zu nähern. Nun möchte ich die dort gemachten Aussagen zum Potenzial der Modellierung sozial–ökologischer Systeme qualifizieren, indem ich auf ein paar ausgewählte Herausforderungen und Grenzen hinweise.
Nutzt man Modelle, beispielsweise agentenbasierte Modelle (ABMs), um im Kontext komplexer, dynamischer sozial–ökologischer Systeme kontrafaktuelle Änderungen (bspw. Politikreformen) hinsichtlich ihrer intendierten und nicht-intendierten Wirkungen zu analysieren, gilt es zunächst die Systemgrenzen zu beachten. Was wird modelliert, was hingegen ignoriert oder „ausgelagert“? Jedes Modell muss diesbezüglich transparente Annahmen treffen. Ein Nachteil von Simulationsmodellen besteht darin, dass sie sehr schnell überkomplex werden können – die Zahl der Elemente, Regeln, Interaktionen etc. wird schnell so hoch, dass sie sogar die heutzutage enormen Rechenkapazitäten von Computern vor unlösbare Herausforderungen stellen. Daher sind diese Modelle vor allem zur Beschreibung kleinerer Teilsysteme anwendbar (z. B. eine bestimmte Landschaft); die Grenzen des zu modellierenden Systems müssen vorab klar bestimmt werden. Das Problem bei der Festlegung der Systemgrenzen ist, gerade bei komplexen und dynamischen Systemen, dass man in der Regel nicht vorab wissen kann, ob bestimmte als „extern“ angenommene Prozesse nicht doch eine wichtige Rolle spielen. Es gibt mehrere Möglichkeiten, mit diesem Problem umzugehen. Ein üblicher Ansatz ist die Verwendung von Szenarien und Sensitivitätsanalysen. Szenarien dienen der Beschreibung solcher Prozesse, die als exogen (d. h. nicht direkt modelliert bzw. modellierbar), aber dennoch für das interessierende Phänomen relevant angenommen werden. Für diese Prozesse werden mehrere möglichst kohärente Szenarien formuliert – untereinander variierende Bündel aus stilisierten Annahmen, z. B. bezüglich der künftigen Auswirkungen des Klimawandels, der Weltmarktpreise, des internationalen Politikregimes. Das Modell wird dann für jedes Szenario analysiert; geht es beispielsweise um die Auswirkungen eines Politikinstruments, sind die Aussagen des Modells umso verlässlicher (robuster), je weniger sie zwischen Szenarien variieren. In diesem Sinne sind solche szenarienbasierten Analysen eine spezielle Art der Sensitivitätsanalyse. Sensitivitätsanalysen dienen der systematischen Untersuchung der Robustheit eines Modells mittels der gezielten Variation von Parametern und (bei Szenarien) Randbedingungen.
Eine andere Möglichkeit speziell bei lokalen bzw. regionalen sozial–ökologischen Modellen ist die Kopplung mit CGEs (computational general equilibrium models) oder ähnlichen globalen Modellen. Während ABMs und bioökonomische Modelle partialanalytische Modelle sind, d. h. solche, die sich nur mit speziellen Märkten befassen, sollen CGEs die gesamte Volkswirtschaft mit allen Teilmärkten modellieren – wodurch z. B. indirekte Preis- und Nachfrageverschiebungen betrachtet werden können. In einem gewissen Sinne erfüllen CGEs dabei eine ähnliche Rolle wie Szenarien – mit dem Unterschied, dass sie dynamisch anstatt von statisch sind. Ihr Nachteil ist natürlich ihr Umfang – ähnlich wie globale sozial–ökologische Modelle oder klimaökonomische IAMs sind sie zwangsläufig grobschlächtig und basieren auf sehr vielen stark vereinfachenden Annahmen. In bestimmten Kontexten können sie trotzdem hilfreich sein, um indirekte Effekte und Rückkopplungen mit Bereichen außerhalb der Systemgrenzen des eigentlichen sozial–ökologischen Modells im Auge zu behalten.
In jedem Fall sind die Ergebnisse sozial–ökologischer Modelle unsicher. Dabei kann man zwischen zwei Unsicherheitstypen unterscheiden, die unterschiedlich problematisch sind: alleatorische und epistemische Unsicherheit. Erstere resultiert aus der „natürlichen“ Veränderlichkeit der modellierten Systeme. So sind wir in der Lage, Trends im Verhalten sozial–ökologischer Systeme zu modellieren, in der Regel aber nicht kleine stochastische Schwankungen wie beispielsweise das Wetter an einem bestimmten Tag. Mit diesem Problem kann man umgehen, indem man aggregierte (z. B. gemittelte) Ergebnisse aus mehreren Modellläufen betrachtet. Epistemische Unsicherheit bedeutet die Unsicherheit unseres Wissens (bzw. Unwissens) über das modellierte System: sind die ökologischen Zusammenhänge und Interaktionen korrekt abgebildet? Sind die Annahmen bezüglich des menschlichen Verhaltens zutreffend? Welche Rückkopplungen gibt es zwischen einzelnen Teilsystemen? Diese Unsicherheiten sind umso relevanter, je komplexer das Modell bzw. die miteinander gekoppelten Modelle sind – denn ein an einer Stelle gemachter Fehler wird im Modell(verbund) „propagiert“ und verzerrt die Ergebnisse durch „Folgefehler“ sogar stärker, als er es in Isolation tun würde. Was kann man dagegen tun? Eine endgültige Lösung gibt es nicht; Transparenz, umfassende Tests alternativer Modellspezifikationen, Validierung und Modellvergleiche können allerdings helfen (mehr dazu in den aktuellen Publikationen von Saltelli (2019) und Elsawah et al (2020)).
Die bisher diskutierten Grenzen von Modellierungsansätzen betreffen vor allem die Formulierung von Modellen, die Verknüpfung der einzelnen Entitäten, die Ziehung von Systemgrenzen und den Umgang mit Unsicherheit. Doch eine weitere große Herausforderung selbst für korrekt spezifizierte sozial–ökologische Modelle sind Daten. Es gibt zwar sogenannte konzeptionelle Modelle, die mit stilisierten, hypothetischen „Welten“ arbeiten, um Grundprinzipien des Verhaltens von Systemen zu identifizieren – ein schönes Beispiel sind viele Arbeiten meiner Kollegen Martin Drechsler und Frank Wätzold, beispielsweise Martins Modell zum Vergleich ergebnis- und handlungsorientierter Agrarumweltprogramme (zu diesem Thema s. auch hier). Die meisten Modelle bilden jedoch zumindest teilweise eine konkrete Region der Welt ab. Manche tun dies in stärkerem Maße, manche behalten konzeptionelle Elemente; doch die meisten Modelle sind zumindest teilweise empirisch und damit auf Daten angewiesen. Diese sind notwendig, um das spezifizierte Modell zu parametrisieren (einzelne Parameter mit konkreten Zahlenwerten zu versehen) und die Performanz des Modells zu testen (z. B. durch „Nachmodellierung“ der Vergangenheit). An viele Daten kommt man jedoch nicht so leicht heran. Ein für meine Arbeit besonders relevantes Beispiel sind Daten über landwirtschaftliche Betriebe: welche Felder gehören wem (welche Felder es überhaupt wo gibt, lässt sich inzwischen glücklicherweise mithilfe von Satellitendaten ganz gut ermitteln; s. Bild); welche Managementmaßnahmen (Düngung, Unkrautbekämpfung etc.) werden wo, wie und wann angewendet etc.

Diese Daten existieren zum Teil; viele von ihnen findet man im Integrierten Verwaltungs- und Kontrollsystem (InVeKoS), das im Kontext der Gemeinsamen Agrarpolitik der EU aufgesetzt wurde. Eigentlich sollte es heißen: man fände sie, wenn man zu ihnen Zugang hätte. Aufgrund (verständlicher) Datenschutzbedenken werden InVeKoS-Daten von den zuständigen Behörden nur sehr ungern herausgerückt (es sei denn, man arbeitet im BMEL-eigenen Thünen-Institut). Normalsterbliche Forscher*innen bekommen auf Nachfrage Zugang zu Teildatensätzen – aus einer bestimmten Region, ohne bestimmte Verknüpfungen (z. B. Betriebs- mit zugehörigen Feldschlagdaten). Der „Vorteil“ dieser Situation liegt darin, dass sie die Kreativität von Forscher*innen fördert, Ansätze zu entwickeln, die auch angesichts der Datenarmut verlässliche Aussagen erlauben. Ein schönes aktuelles Beispiel ist der von Sandra Uthes und Joachim Kiesel (ZALF) entwickelte Ansatz zur Generierung von „synthetischen Landschaften“ auf Grundlage von InVeKoS-Teildaten, die zwar nicht mit der Realität identisch, aber ausreichend nah an ihr sind. Interessanterweise greift der Datenschutz in anderen Bereichen nicht – aufgrund eines Gerichtsurteils sind die jährlich an jede*n Landwirt*in im Rahmen der GAP geleisteten Zahlungen öffentlich einsehbar (hier) und nach Namen und Postleitzahlen durchsuchbar (sie sind zwar nicht als gesamter Datensatz verfügbar, das lässt sich allerdings mithilfe von Webscrapern umgehen, s. hier). Andere Daten existieren wiederum nur in den einzelnen Betrieben – beispielsweise sind Landwirt*innen verpflichtet, eine Schlagkartei zu führen, in der stehen u. a. soll, wo, wann und wie viel gedüngt wurde sowie ggf. auch Informationen zur Unkrautbekämpfung. Gesammelt werden diese Daten im Normalfall allerdings nicht. All dies stellt eine Herausforderung für sozial–ökologische Modellierung dar; je schlechter die Daten, desto weniger aussagekräftig die Modellergebnisse. Zum Glück erlauben moderne Technologien immer präzisere Generierung von „synthetischen“ Daten – von satellitenbasierten Feldschlagdaten bis hin zu durch maschinelles Lernen und Satellitenbilder generierte Schätzungen von Slum-Populationen (für Modellierung der Wassernachfrage und -versorgung im Projekt SmartSlum am UFZ).
Grenzen und Herausforderungen sozial–ökologischer Modellierung gehen natürlich über die oben andiskutierten hinaus; die hier präsentierte, recht idiosynkratische Zusammenstellung spiegelt vor allem meine aktuellen Interessen wider. Die von mir beabsichtigte Schlussfolgerung sollte sich allerdings auch nicht ändern, wenn man die Liste erweitern würde: sozial–ökologische Modelle haben durchaus Potenzial, sie sind aber nicht allmächtig und ihre Ergebnisse sollten immer mit Vorsicht und im Kontext betrachtet werden. Werden sie auf diese Art und Weise, mit einer gesunden Portion konstruktiver Skepsis betrachtet, können sie jedoch für die Gestaltung von Umweltpolitik sehr informativ sein.