Toward the Adoption of Artificial Intelligence: Exploring the Critical Role of Trust
Toward the Adoption of Artificial Intelligence: Exploring the Critical Role of Trust
The advent of artificial intelligence (AI) has significantly transformed the digital landscape, offering substantial potential for innovation and advancement across multiple fields. With the ability to automate complex tasks, analyze large datasets in real-time, and make autonomous decisions, AI and machine learning (ML) in particular offer new opportunities for organizations and individuals to solve problems. For instance, AI systems assist organizations in enhancing the efficacy and efficiency of their processes. Hence, AI has become a key driver in the evolution of industries such as healthcare, finance, manufacturing, and education, pushing the boundaries of what is possible in the digital age. Moreover, AI’s integration into everyday applications – such as the generation of personalized recommendations, the provision of healthcare services, or the automation of driving – provides valuable support for individuals in their daily lives. Beyond the potential for saving time by optimizing product selection when shopping online, AI-based systems can also serve the personal well-being of individuals. However, while some organizations have begun to apply AI to their core processes, the full potential of AI has yet to be realized. This is particularly the case in areas that do not directly impact an organization's effectiveness but are crucial to long-term success and compliance. Thus, the transformative power of AI in these critical yet undervalued domains remains largely untapped. Previous studies have demonstrated that the adoption of AI in organizations is a complex and challenging process, often associated with a range of difficulties and obstacles. On the one hand, this is due to the distinctive attributes of AI in comparison to traditional information systems. On the other hand, technical and user-related challenges frequently impede the successful adoption of AI in organizations. Despite the existence of numerous research papers on AI, the factors influencing the adoption of AI in specific organizational contexts, such as corporate environmental sustainability, remain underexplored. This dissertation offers valuable insights into AI adoption in organizations, particularly in the context of corporate environmental sustainability. In addition to the examination of technical and organizational factors, the influence of the external organizational environment is also investigated. Moreover, trust is crucial for the decision to adopt and use AI. The unique characteristics of AI including autonomy, learning capabilities, and the complexity of its decision-making processes can give rise to skepticism and impede its usage. In particular, a lack of knowledge about AI’s decision-making processes and outcomes can lead to concerns, making trust a critical element in achieving the widespread adoption and usage of AI. While trust often has been previously investigated as a single construct within the context of AI, this dissertation additionally considers the impact of diverse trust concepts on human behavior. This dissertation aims to provide a comprehensive understanding of AI adoption in the context of corporate environmental sustainability and offer actionable knowledge for enhancing trust in AI technologies. Two quantitative studies, a qualitative study, and an experimental study were conducted in this cumulative dissertation to investigate AI’s adoption with a focus on trust. The results of these studies were published in peer-reviewed conference proceedings. The four published studies contribute to theory development by revealing the factors influencing the organizational adoption of AI. Furthermore, they highlight the role of trust in AI and its impact on human behavior. Additionally, the research papers presented in this dissertation offer valuable guidance for practitioners. The first part of this dissertation comprises two research papers that examine the organizational adoption of AI. Paper A addresses the adoption of green AI in the context of corporate environmental sustainability, whereas Paper B analyzes the influence of external pressures on green AI adoption. For Paper A, interviews with 21 experts from various industries were conducted to provide an integrative framework including factors that determine the adoption of green AI. As a result, eight propositions were developed to explain the effects of the identified factors. For Paper B, an anonymous online survey was conducted with 453 participants to investigate the influence of specific factors, including external pressures, on the adoption of green AI. The key findings of Paper B indicate that coercive, mimetic, and normative pressures significantly influence green AI adoption, while top management support mediates these pressures’ effects. This highlights the pivotal role of high-level decision-makers within organizational contexts and the role of external influences. Furthermore, the second part of this dissertation examines the role of trust in AI. Previous research has indicated that trust is critical when using new information systems. This dissertation confirmed that trust in AI can facilitate the use of such systems. While papers A and B report results at the organizational level, papers C and D focus on the individual user. In particular, Paper C examines trust as a multidimensional concept, emphasizing cognitive and emotional trust in AI depending on two types of AI vendors (i.e., automobile manufacturers and technology companies). By conducting a large-scale anonymous online survey with 687 participants, a multi-group analysis revealed different degrees of trust depending on the vendor types. In particular, emotional trust is more important for technology companies, whereas cognitive trust has a greater impact on automobile manufacturers. Understanding how trust influences the intention to use AI systems is crucial, but knowing how to design trustworthy AI systems is also important. This ensures that AI systems are more likely to be adopted and used to their full potential, as users will be more willing to rely on and integrate these technologies into their daily lives. Thus, a design science research methodology is used in Paper D to develop design principles for a user-centered, trustworthy AI, namely a ML system. After conducting an effectiveness test, the results revealed that the design of the ML system based on the design principles is perceived as more trustworthy than existing designs. In summary, this dissertation contributes to the successful organizational adoption of AI, particularly in the context of corporate environmental sustainability, by providing a comprehensive overview of adoption factors. This work guides practitioners and decision-makers in the adoption process and helps organizations prepare to gather the necessary resources for adopting AI. In addition, the findings highlight the importance of trust for AI usage and provide insights into different trust concepts. By specifying design principles for a trustworthy and user-centered ML system, this dissertation guides developers in developing trustworthy ML systems. Such ML-based systems have the potential to facilitate the use of AI in everyday contexts. Moreover, the dissertation contributes to the advancement of theory by offering novel insights grounded in established theoretical models and provides researchers with a deeper comprehension of the factors influencing the adoption of AI, particularly the critical role of trust.
Die Entwicklung von Künstlicher Intelligenz (KI) hat die digitale Welt erheblich verändert und bietet ein beträchtliches Potenzial für Innovation und Fortschritt in zahlreichen Bereichen. Die Fähigkeit von KI und insbesondere Maschinellem Lernen (ML), komplexe Aufgaben zu automatisieren, große Datenmengen in Echtzeit zu analysieren und autonome Entscheidungen zu treffen, eröffnet Organisationen und Individuen neue Möglichkeiten zur Problemlösung. KI-Systeme helfen beispielsweise Organisationen ihre Prozesse effektiver und effizienter zu gestalten. Dies hat einen wesentlichen Einfluss auf die Entwicklung verschiedener Branchen, darunter das Gesundheitswesen, das Finanzwesen, die Industrie sowie das Bildungswesen. Darüber hinaus stellt die Nutzung von KI in Alltagsanwendungen – beispielweise zur Erstellung personalisierter Empfehlungen, zur Gesundheitsvorsorge oder zur Automatisierung des Autofahrens – eine wertvolle Unterstützung für Individuen in ihrem Alltag dar. Neben der Möglichkeit, Zeit durch eine optimale Produktauswahl beim Online-Shopping zu sparen, können KI-basierte Systeme auch dem persönlichen Wohlergehen von Menschen dienen. Obwohl bereits einige Organisationen damit begonnen haben, KI in ihre Kernprozesse zu integrieren, ist das volle Potenzial von KI bei Weitem noch nicht ausgeschöpft. Dies gilt insbesondere auch für Bereiche, die sich nicht direkt auf die Effektivität von Organisationen auswirken, jedoch für den langfristigen Erfolg und die Einhaltung von rechtlichen Vorschriften von entscheidender Bedeutung sind. Somit bleibt die transformative Kraft der KI in vielen kritischen Bereichen bislang weitgehend ungenutzt. In der Vergangenheit durchgeführte Studien belegen, dass die Einführung von KI in Organisationen ein anspruchsvoller Prozess ist, der mit zahlreichen Herausforderungen einhergeht. Dies ist zum einen auf die besonderen Eigenschaften von KI im Vergleich zu herkömmlichen Informationssystemen zurückzuführen. Zum anderen ergeben sich technische und anwenderbezogene Herausforderungen, die eine erfolgreiche Adoption von KI in Organisationen häufig erschweren. Obwohl bereits zahlreiche Forschungsarbeiten zu KI existieren, sind die Faktoren, welche die Einführung von KI in spezifischen Organisationskontexten, wie der ökologischen Nachhaltigkeit von Unternehmen, beeinflussen, bisher weitgehend unerforscht. Um die Nutzung der Technologie auch in diesen wichtigen und kritischen Bereichen zu erhöhen, bietet die vorliegende Dissertation wertvolle Einblicke in die Einführung von KI in Organisationen, insbesondere im Kontext der ökologischen Nachhaltigkeit. Dabei werden neben technischen und organisationalen Einflussfaktoren auch die Einflüsse des externen Organisationsumfelds beleuchtet. Darüber hinaus stellt Vertrauen einen wesentlichen Faktor bei der Entscheidung für die Einführung und Nutzung von KI dar. Die besonderen Merkmale von KI, wie die Autonomie, die Lernfähigkeit und die Komplexität ihrer Entscheidungsprozesse, können bei Menschen zu einer skeptischen Haltung führen, welche die Nutzung von KI erschwert. Die Unwissenheit über die Entscheidungsfindungsprozesse und -ergebnisse der KI kann zu Bedenken führen, sodass Vertrauen ein entscheidendes Element für die umfassende Einführung und Nutzung von KI ist. Während Vertrauen im Kontext von KI bisher oft als einzelnes Konstrukt erforscht wurde, werden in dieser Dissertation zusätzlich die Auswirkungen verschiedener Vertrauenskonzepte auf das menschliche Verhalten analysiert. Die vorliegende Dissertation hat zum Ziel, ein umfassendes Verständnis des Einsatzes von KI im Kontext der ökologischen Nachhaltigkeit von Unternehmen zu vermitteln sowie handlungsrelevantes Wissen zur Stärkung des Vertrauens in KI-Technologien bereitzustellen. Zu diesem Zweck wurden zwei quantitative Studien, eine qualitative Studie sowie eine experimentelle Studie durchgeführt, welche die Einführung von KI mit dem Schwerpunkt auf Vertrauen untersuchen. Die Ergebnisse dieser Studien wurden in von Experten begutachteten Konferenzbeiträgen veröffentlicht. Die vier Studien tragen zur Theorieentwicklung bei, indem sie die Faktoren aufzeigen, welche die Einführung von KI in Organisationen beeinflussen. Zudem beleuchten sie die Rolle des Vertrauens in KI und dessen Auswirkungen auf das menschliche Verhalten. Des Weiteren liefern die Forschungsarbeiten wertvolle Impulse für Praktiker. Der erste Teil dieser Dissertation umfasst zwei Forschungsbeiträge, welche die Einführung von KI in Organisationen untersuchen. Der Forschungsbeitrag A widmet sich der Einführung von grüner KI im Kontext der Nachhaltigkeit von Unternehmen, während der Forschungsbeitrag B den Einfluss des externen Drucks auf die Einführung grüner KI analysiert. Im Forschungsbeitrag A wurden 21 Experten aus unterschiedlichen Branchen interviewt, um auf Basis einer umfassenden Analyse relevante Einflussfaktoren für die Einführung von grüner KI in Organisationen zu identifizieren. Diese Faktoren werden anhand von acht Thesen erläutert, um ihre Auswirkungen zu verdeutlichen. In dem Forschungsbeitrag B wurde eine anonyme Online-Umfrage mit 453 Teilnehmern durchgeführt, um den Einfluss spezifischer Faktoren, einschließlich des externen Drucks, auf die Einführung von grüner KI zu untersuchen. Die Ergebnisse von Forschungsbeitrag B legen nahe, dass die Einführung grüner KI signifikant durch zwingenden, mimetischen und normativen Druck beeinflusst wird. Gleichzeitig wird gezeigt, dass die Unterstützung durch das Top-Management die Auswirkungen des externen Drucks vermittelt. Dies unterstreicht die zentrale Rolle von hochrangigen Entscheidungsträgern im organisatorischen Kontext und betont die Relevanz externer Einflüsse. Im zweiten Teil dieser Dissertation erfolgt die Untersuchung der Rolle des Vertrauens in KI. In vorherigen Forschungen konnte nachgewiesen werden, dass Vertrauen bei der Nutzung neuer, innovativer Informationssysteme von entscheidender Bedeutung ist. Die vorliegende Dissertation belegt, dass Vertrauen in KI die Nutzung solcher Systeme fördern kann. In den Forschungsbeiträgen A und B erfolgt eine Darstellung der Ergebnisse auf Organisationsebene, während sich die Beiträge C und D auf das einzelne Individuum (den Nutzer) konzentrieren. Der Forschungsbeitrag C untersucht Vertrauen als mehrdimensionales Konzept und legt dabei einen Schwerpunkt auf das kognitive und emotionale Vertrauen in KI, welches in Abhängigkeit von zwei Arten von KI-Anbietern (Automobilhersteller und Technologieunternehmen) analysiert wird. Mithilfe einer groß angelegten, anonymen Online-Befragung mit 687 Teilnehmern konnte festgestellt werden, dass das Vertrauen in KI je nach Anbietertyp unterschiedlich stark ausgeprägt ist. Dabei zeigt sich, dass das emotionale Vertrauen für Technologieunternehmen eine größere Rolle spielt als für Automobilhersteller, während das kognitive Vertrauen einen größeren Einfluss bei den Automobilherstellern hat. Die Untersuchung der Einflussfaktoren auf die Intention, KI-Systeme zu nutzen, ist von entscheidender Bedeutung. Zudem ist es aber auch von zentraler Relevanz, die Entwicklung vertrauenswürdiger KI-Systeme zu erforschen. Daher findet in Forschungsbeitrag D eine Design Science Forschungsmethodik Anwendung, um Designprinzipien für eine nutzerzentrierte, vertrauenswürdige KI, konkret ein ML-System, zu entwickeln. Die Ergebnisse eines Effektivitätstests belegen, dass das auf den Designprinzipien basierende Design des ML-Systems als vertrauenswürdiger wahrgenommen wird als bestehende Designs. Zusammenfassend zeigt diese Dissertation, wie KI erfolgreich in Organisationen eingeführt werden kann, insbesondere im Kontext der ökologischen Nachhaltigkeit von Unternehmen. Dazu bietet sie einen umfassenden Überblick über die relevanten Einflussfaktoren für die Einführung von KI in Organisationen und unterstützt damit Entscheidungsträger bei der Vorbereitung der erforderlichen Ressourcen. Des Weiteren betonen die Ergebnisse die Relevanz von Vertrauen im Zusammenhang mit der Nutzung von KI. Dabei liefert die Dissertation wertvolle Erkenntnisse zu diversen Vertrauenskonzepten und deren Einfluss auf das Verhalten von Individuen. Darüber hinaus präsentiert die vorliegende Dissertation Designprinzipien für ein vertrauenswürdiges, nutzerzentriertes ML-System. Diese Prinzipien bieten Entwicklern eine Orientierungshilfe bei der Entwicklung vertrauenswürdiger ML-Systeme, welche die Nutzung von KI im Alltag fördern können. Zudem leistet die Dissertation einen Beitrag zur Weiterentwicklung der Theorie, indem neue Erkenntnisse geschaffen werden, die auf etablierten theoretischen Modellen basieren. Dies ermöglicht es Forschern, sich intensiv mit den Einflussfaktoren hinsichtlich der Einführung von KI in Organisationen, insbesondere der kritischen Rolle von Vertrauen, auseinanderzusetzen.

