TU Darmstadt / ULB / TUprints

Aspects of Explanations for Optimization-Based Energy System Models

Hülsmann, Jonas (2024)
Aspects of Explanations for Optimization-Based Energy System Models.
Technische Universität Darmstadt
doi: 10.26083/tuprints-00027806
Ph.D. Thesis, Primary publication, Publisher's Version

[img] Text
Explaining_Complex_Energy_Systems.pdf
Copyright Information: CC BY 4.0 International - Creative Commons, Attribution.

Download (5MB)
Item Type: Ph.D. Thesis
Type of entry: Primary publication
Title: Aspects of Explanations for Optimization-Based Energy System Models
Language: English
Referees: Steinke, Prof. Dr. Florian ; Jäkel, Prof. Dr. Frank
Date: 13 August 2024
Place of Publication: Darmstadt
Collation: vi, 138 Seiten
Date of oral examination: 12 July 2024
DOI: 10.26083/tuprints-00027806
Abstract:

The transition towards a renewable energy system presents numerous challenges, demanding extensive decision-making processes. Optimization-based energy system models (ESMs) are valuable tools to facilitate these decisions. However, these models often prove too intricate and expansive for decision-makers, such as CEOs, politicians, or citizens, who typically lack expertise in ESMs. Consequently, there is a pressing need for explanations to bridge the gap between the complexity of ESM results and decision-makers comprehension, allowing them to discern potential disparities between their objectives and the model’s assumptions. This thesis focuses on various explanations for optimization-based ESMs. Initially, we explore explanations from psychological and philosophical perspectives to identify the fundamental concepts necessary for creating comprehensive explanations and elucidate the key factors essential for these explanations to be deemed adequate. Armed with these foundational concepts, we assess the current state-of-the-art in explaining ESMs, identifying existing shortcomings in explanation methodologies. We draw parallels between the challenges faced by the ESM domain and the field of machine learning, particularly in the domain of explainable artificial intelligence (XAI), which is dedicated to developing methods to enhance the explainability of machine learning models. This thesis delves into three distinct approaches from the abovementioned domains to address these challenges and enhance explanations for optimization-based ESMs. Firstly, we adopt an approach from XAI to ESMs to overcome two prevalent shortcomings in ESM explanations: elucidating the impact of high-dimensional input data and tailoring explanation complexities to different target audiences. Given the key role of causality in crafting explanations, we explore the utilization of causal graphical models for explaining ESMs. Finally, we design an interactive approach to facilitate hands-on learning of ESMs, focusing on the example of energy transition, and evaluate the efficacy of this approach within the context of a graduate-level university course.

Alternative Abstract:
Alternative AbstractLanguage

Die Energiewende bringt zahlreiche Herausforderungen mit sich, die eine Vielzahl von Entscheidungen erfordern. Optimierungsbasierte Energiesystemmodelle (ESM) sind nützliche Werkzeuge, um diese Entscheidungsprozesse zu erleichtern. Allerdings sind ESMs oft zu umfangreich und komplex für Entscheidungsträger wie CEOs, Politiker oder Bürger, die in der Regel nicht über Modellierungsexpertise verfügen. Erklärungen sind notwendig, um die komplexen Ergebnisse und das unintuitive Verhalten von ESM für Entscheidungsträger nutzbar zu machen und mögliche Diskrepanzen zwischen ihren Zielen und den Modellannahmen zu erkennen. Diese Arbeit konzentriert sich auf verschiedene Erklärungsansätze für optimierungsbasierte ESM. Zunächst werden die Erklärungsansätze aus psychologischer und philosophischer Sicht betrachtet, um die grundlegenden Prozesse und Faktoren zu identifizieren, die für eine Erklärung notwendig sind und deren wahrgenommene Adäquatheit bestimmen. Basierend auf diesen grundlegenden Konzepten, bewerten wir den aktuellen Stand der Technik bei der Erklärung von ESM und identifizieren Mängel in den bestehenden Erklärungsansätzen. Wir zeigen Parallelen zwischen den Herausforderungen der Erklärbarkeit im Gebiet der ESM und dem Gebiet des maschinellen Lernens, insbesondere im Bereich der Erklärbaren Künstlichen Intelligenz (XAI), die sich auf die Entwicklung von Methoden zur Verbesserung der Erklärbarkeit von maschinellen Lernmodellen konzentriert. Diese Arbeit beschäftigt sich mit drei verschiedenen Ansätzen aus den oben genannten Bereichen, um Erklärungen für optimierungsbasierte ESM zu verbessern. Zunächst wird ein Ansatz aus dem Bereich der XAI auf ein ESM übertragen, um zwei Defizite bestehender ESM-Erklärungen zu adressieren: den Einfluss hochdimensionaler Eingabeparameter und die Generierung von Erklärungen unterschiedlicher Komplexität für verschiedene Zielgruppen. Angesichts der Schlüsselrolle, die der Kausalität bei der Erzeugung von Erklärungen zukommt, untersuchen wir die Verwendung kausaler graphischer Modelle zur Erklärung von ESMs. Schließlich entwerfen wir einen interaktiven Ansatz, um das praktische Erlernen von ESM am Beispiel der Energiewende zu erleichtern, und evaluieren die Wirksamkeit dieses Ansatzes im Rahmen eines Universitätskurses für Masterstudierende.

German
Uncontrolled Keywords: Energy System Model, Explainablity, XAI
Status: Publisher's Version
URN: urn:nbn:de:tuda-tuprints-278064
Classification DDC: 600 Technology, medicine, applied sciences > 621.3 Electrical engineering, electronics
Divisions: 18 Department of Electrical Engineering and Information Technology > Institute of Computer Engineering > Energy Information Networks and Systems Lab (EINS)
TU-Projects: Bund|1|PlexPlain
Date Deposited: 13 Aug 2024 12:02
Last Modified: 14 Aug 2024 05:46
URI: https://tuprints.ulb.tu-darmstadt.de/id/eprint/27806
PPN: 520617975
Export:
Actions (login required)
View Item View Item