Governing (In)Security: Socio-technical Interactions in International Relations
Governing (In)Security: Socio-technical Interactions in International Relations
Information technology is used across the globe, permeating different spheres of life. In particular, advances of artificial intelligence (AI) and broad adoption of social media re-negotiate human interactions with the world. In the midst of geopolitical tensions and multiple crises, as indicated by the Russian invasion of Ukraine in 2022 or the COVID-19 pandemic, technology has become highly important to security governance. For example, the EU has formulated policies on the use of "high risk AI" while political actors use social media for (disinformation) campaigns or war reporting.
Against the backdrop of multiple crises and political actors' reliance on technological solutions, critical security studies (CSS) has been dedicated to deconstructing governmental security politics as stabilizers of the status quo, with insecurities persisting, enacted through technologically mediated practices. While attention has specifically been paid to the role of expertise in "critical" contexts, my work is interested in how socio-technical expert knowledge plays into the problematization of broader innovation policies. Further, although various practices and forms of labor have been studied, their collaborative character and informal actors' productive self-governance have been investigated less prominently. Connecting to human-computer interaction (HCI) as a community of socio-technical practice, it becomes possible to identify user-centric design characteristics and "agnostic" framing of contexts of use being traded into both spheres of political and technological practice. I focus on socio-technical practices that are enacted in different fields: (1) AI innovation policies, (2) safety-critical scenarios, and (3) misinformation on social media. In these, security is negotiated and on high demand. AI innovation policies are formulated in the context of global competition and address both commercial and military applications. Safety-critical scenarios, in which uncertainty is high, are experienced by both formal and informal non-governmental actors. Misinformation on social media, especially in the context of rising authoritarianism, has been identified a threat and is aimed to be mitigated by technological solutions.
Thus, the first part finds that Chinese, EU and US policies refer to design characteristics in the problematization of AI innovation. AI is presented as an opaque and abstract issue that is realized across multiple contexts of use. Risks and threats are posed by the "black box" character of AI and technology use by "others". Future innovation is seen as a solution, with characteristics ranging from reliability to explainability being used as points of reference. The second part investigates computer-supported cooperative work (CSCW) of both formal and informal collectives in safety-critical scenarios. Self-governance in crises requires cooperative and collaborative work, comprising routines and teamwork. Actors' perceptions of criticality are governed self-referentially, with emphasis put on situation awareness as a goal in formal settings. Successful coping with insecurities points out the productive side of self-governance by informal actors, building on both physically and virtually enacted care practices. The third part addresses (de)politicization in the context of technological measures aiming at mitigating the spread of misinformation on social media. Reflecting on user studies that resulted in prototyping of a learning-oriented approach, depoliticization is notable considering user-centered design on the grounds of responsibilization and technological solutionism. Yet, this also entails politicization of user interventions regarding their transparency. Situated in HCI and as an interdisciplinary endeavor, this work allows for a reflexive approach that both integrates and reflects on problem solving approaches that are co-constitutive to security governance.
Informationstechnologien werden weltweit eingesetzt und durchdringen verschiedene Lebensbereiche. Insbesondere Fortschritte bei der künstlichen Intelligenz (KI) und die breite Akzeptanz sozialer Medien verhandeln die Interaktion der Menschen mit der Welt neu. Im Kontext geopolitischer Spannungen und zahlreicher Krisen, wie die russische Invasion in der Ukraine im Jahr 2022 oder die COVID-19-Pandemie, sind Technologien für politische Bemühungen um Sicherheit sehr wichtig geworden. So hat die EU beispielsweise Richtlinien für den Einsatz von „Hochrisiko-KI“ formuliert, während politische Akteure soziale Medien für (Desinformations-)Kampagnen oder Kriegsberichterstattung nutzen.
Vor dem Hintergrund multipler Krisen und der Abhängigkeit politischer Akteure von technologischen Lösungen haben sich die kritischen Sicherheitsstudien (CSS) der Dekonstruktion staatlicher Sicherheitspolitiken, die häufig zur Stabilisierung des Status Quo beitragen, gewidmet. Dabei bestehen Unsicherheiten fort, die durch technologisch vermittelte Praktiken realisiert werden. Während der Rolle von Expertise in „sicherheitskritischen“ Kontexten besondere Aufmerksamkeit gewidmet wurde, interessiert sich die vorliegende Arbeit dafür, wie soziotechnisches Expert*innenwissen in die Problematisierung einer breiteren Innovationspolitik einfließt. Obwohl verschiedene Praktiken und Arbeitsformen untersucht wurden, fanden ihr kollaborativer Charakter und die produktive Selbststeuerung der informellen Akteure bisher weniger stark Beachtung. In Verbindung mit der Mensch-Computer-Interaktion (HCI) als einer Gemeinschaft sozio-technischer Praktiken wird es möglich, nutzerzentrierte Designmerkmale und eine „agnostische“ Rahmung von Nutzungskontexten zu identifizieren, die in politischen sowie technischen Sphären gehandelt werden. Die Arbeit konzentriert sich auf soziotechnische Praktiken, die in verschiedenen Bereichen realisiert werden: (1) KI-Innovationspolitik, (2) sicherheitskritische Szenarien und (3) Falschinformationen in sozialen Medien. In diesen Bereichen wird Sicherheit ausgehandelt und ist überaus gefragt. KI-Innovationspolitiken werden im Kontext des globalen Wettbewerbs formuliert und betreffen sowohl kommerzielle als auch militärische Anwendungen. Sicherheitskritische Szenarien, in denen die Unsicherheit hoch ist, werden sowohl von formellen als auch informellen nichtstaatlichen Akteuren bearbeitet. Falschinformationen in den sozialen Medien, insbesondere im Kontext eines zunehmenden Autoritarismus, wurden als Bedrohung erkannt und sollen durch technologische Lösungen entschärft werden.
Im ersten Teil wird festgestellt, dass die chinesische, EU- und US-Politik bei der Problematisierung von KI-Innovationen auf Designmerkmale verweisen. KI wird als ein undurchsichtiges und abstraktes Thema dargestellt, das in verschiedenen Nutzungskontexten realisiert wird. Risiken und Bedrohungen werden durch den „Black Box“-Charakter von KI und die Nutzung der Technologie durch „andere“ hervorgerufen. Zukünftige Innovationen werden als Lösung angesehen, wobei Merkmale wie Zuverlässigkeit und Erklärbarkeit als Bezugspunkte dienen. Der zweite Teil untersucht die computergestützte kooperative Arbeit (CSCW) von formellen und informellen Kollektiven in sicherheitskritischen Szenarien. Die Selbststeuerung in Krisen erfordert kooperative und kollaborative Arbeit, die Routinen und Teamarbeit umfasst. Die Wahrnehmung der Kritikalität durch die Akteure wird selbstreferentiell gesteuert, während ein hohes Situationsbewusstsein Ziel formeller Settings ist. Die erfolgreiche Bewältigung von Unsicherheiten verweist auf die produktive Seite der Selbststeuerung durch informelle Akteure, die sowohl auf physisch als auch virtuell verankerten Sorgepraktiken aufbauen. Der dritte Teil befasst sich mit (Ent-)Politisierung im Zusammenhang mit technologischen Maßnahmen, die darauf abzielen, die Verbreitung von Falschinformationen in sozialen Medien einzudämmen. Bei der Betrachtung von Nutzerstudien, die prototypisch einen lernorientierten Ansatz vorschlagen, ist eine Entpolitisierung mit Bezugnahme auf nutzerzentriertes Design auf der Grundlage von Responsibilisierung und technologischem Solutionismus ausmachbar. Hinsichtlich ihrer Transparenz, zeigt sich allerdings gleichzeitig eine Politisierung von Nutzerinterventionen. Als interdisziplinäres Projekt, situiert in der HCI, ermöglicht diese Arbeit einen reflexiven Ansatz, der Problemlösungsansätze integriert und reflektiert, die für die Umsetzung von Sicherheitspolitiken ko-konstitutiv sind.
