Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
 
Sitzungsübersicht
Sitzung
P 108: Letale Un/Abhängigkeiten. Bedingungen der Un/Möglichkeit menschlicher Kontrolle und Verantwortung in autonomen Waffensystemen
Zeit:
Donnerstag, 28.09.2023:
14:00 - 15:30

Ort: Raum 3

Räume 0.020 & 0.021 (gebündelt)

Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

Letale Un/Abhängigkeiten. Bedingungen der Un/Möglichkeit menschlicher Kontrolle und Verantwortung in autonomen Waffensystemen

Chair(s): Christoph Ernst (Universität Bonn)

Mit dem Begriff “Autonome Waffensysteme” (AWS) wird zumeist eine hochgradige Eigenständigkeit dieser Systeme assoziiert. Sowohl die Bewegung im Raum als auch die Auswahl und das Angreifen von Zielen werden als Prozesse imaginiert, die von Maschinen ohne menschliches Zutun geleistet werden. Tatsächlich jedoch handelt es sich bei AWS um komplexe Mensch/Maschine-Gefüge, die unter anderem von materiellen und organisationalen Infrastrukturen sowie Daten abhängig sind, welche durch menschliche Arbeit aufbereitet werden müssen.

Ein Teil dieser Imaginationen ist das Versprechen, militärische Operationen durch die Autonomie dieser Waffen schneller und präziser ausführen zu können, ohne dabei das Leben der eigenen Soldat*innen sowie das der Zivilbevölkerung zu gefährden. Dem gegenüber stehen politische, moralische und (völker)rechtliche Forderungen, menschliche Kontrolle (“meaningful human control”) über diese Systeme zu ermöglichen und aufrechtzuerhalten. Kann diese Kontrolle nicht sichergestellt werden, wird ein Verbot notwendig. Die angemahnte “Verantwortungslosigkeit” bei der Entwicklung autonomer Waffen auf der einen Seite wird auf der anderen Seite begleitet von Versuchen politischer, wirtschaftlicher und militärischer Akteure, diese Systeme und bestimmte Formen ihres Einsatzes als besonders “verantwortungsvoll” darzustellen.

Derartige gegenläufige Bewegungen weisen auf das Spannungsverhältnis zwischen Autonomie und Heteronomie beim Einsatz von AWS, das in den Vorträgen des Panels anhand unterschiedlicher Phänomene ausgedeutet werden soll. Das Panel verfolgt das Ziel, die Implikationen der Diskurse, Medien und Praktiken militärischer KI für eine verteilte Agency in Mensch/Maschine-Gefügen, gegenseitigen Un/Abhängigkeiten sowie die Bedingungen der Un/Möglichkeit menschlicher Kontrolle und Verantwortung („human in/on/out of the loop“) zu diskutieren.

 

Beiträge des Symposiums

 

„Die KI ist der Kommandant.“ Künstliche Intelligenz, Recht und kollektive Denkbilder

Stephanie Schmidt
Universität Hamburg

In Diskussionen um Autonomie in Waffensystemen spielen die imaginierten Möglichkeiten und Gefahren Künstlicher Intelligenz eine zentrale Rolle. Diese Diskussionen stehen im Kontext von Vorstellungen von Kriegsszenarien, die durch eine hohe Technologisierung geprägt sind, wodurch die Notwendigkeit einer immer schnelleren militärischen Reaktion behauptet wird. Damit liegt es aus militärischer Perspektive nahe, Entscheidungsfindungen an Technologien zu übertragen, die durch ihre maschinelle Schnelligkeit more-than-human sind. Systeme sogenannter taktischer KI versprechen dabei den im militärischen Alltag etablierten Referenzrahmen für Werte (Innere Führung) durch die Einbettung rechtlicher, ethischer und sozialer Normen innerhalb ihrer Softwaresysteme abzusichern und so eine „wertebasierte Technik“ zu entwickeln, damit „aus taktischer KI ‚moralisch gute Smart Comrades‘ hervorgehen“ (Hofstetter 2021). Doch wie genau werden ethische und rechtliche Normen in Algorithmen implementiert und welche Formen der Wirklichkeitserzeugung (Dippel/Warnke 2022) gehen damit einher? Der Vortrag stellt erste Eindrücke aus einer empirischen Forschung im Themenfeld Künstliche Intelligenz, Recht und autonome Waffensysteme vor und diskutiert die damit verbundenen kollektiven Denkbilder im sicherheits-industriellen Komplex (Guittet/Jeandesboz 2010).

Quellen:

Dippel, Anne/Warnke, Martin (2022): Tiefen der Täuschung. Computersimulation und Wirklichkeitserzeugung. Verlag: Matthes & Seitz, Berlin.

Guittet, Emmanuel-Pierre / Jeandesboz, Julien (2010): Security technologies. In: Burgess, J. Peter (Hg.): The Routledge Handbook of New Security Studies. New York. 229-239.

Hofstetter, Yvonne (2021): Wie KI Innere Führung lernt. Wertebasierte Technik mit IEEE7000TM-2021, Defense AI Observatory DAIO 22/6.

 

Autonome Waffensysteme und ‚vertrauenswürdige‘ KI – Deutsche Spielarten ‚ethischer‘ Kriegsführung mittels ‚intelligenter‘ Maschinen

Jens Hälterlein, Jutta Weber
Universität Paderborn

Der Beitrag widmet sich aktuellen Konzepten und Einsatzszenarien von autonomen Waffensystemen in der Bundeswehr und analysiert diese als Spielart einer Biopolitik des „killing to make life“ (Dillon & Reid 2009), in der soziotechnische Imagination einer ‚vertrauenswürdigen‘ militärischen KI eine zentrale Stellung einnehmen. Der Diskurs verbindet grundlegende Elemente eines durch Komplexitätstheorie und Netzwerkdenken inspirierten „scientific way of warfare“ (Bousquet 2009) mit dem - bisher eher zivilen - Leitbild einer verantwortungsvollen und „menschenzentrierten“ KI. Im Beitrag sollen Rationalitäten und Imaginationen ‚verantwortungsvoller KI‘ anhand von Strategiepapieren und Fachbeiträgen von Thinktanks anhand des Großprojekts Future Combat Air System (FCAS) in ihrer operativen und materiellen Dimension analysiert werden. Einen Schwerpunkt bildet die FCAS-“AG Technikverantwortung“, die das Projekt mit ‚ethics by design‘ flankieren soll.

Quellen:

Bousquet, A. (2009): The Scientific Way of Warfare: Order and Chaos on the

Battlefields of Modernity (Critical War Studies). London: Hurst.

Dillon, M.; Reid, J. (2009): The liberal way of war. Killing to make life live. London: Routledge.

 

Die Abhängigkeiten des Super Soldier: Enhancement, Interfaces und die externalisierte Kognition der militärischen Menschmaschinen

Thomas Christian Bächle
Universität Bonn/Humboldt Institut für Internet und Gesellschaft Berlin

Die Fiktion des Super Soldier und das militärische Konzept des Enhanced Soldier beschreiben beide die Steigerung der Leistungen und Fähigkeiten eines Soldaten u. a. durch neurologische, biologische oder technologische Interventionen, zu denen auch mediengestützte Erweiterungen zählen. Der Enhanced Soldier steht für eine besondere Ausprägung des Mensch/Maschine-Verhältnisses: Die emphatisch betonten ‚übermenschlichen‘ Fähigkeiten gehen notwendigerweise mit übersteigerten Abhängigkeiten und Hierarchien einher, was zugleich ein terminologisch komplexes Verhältnis zwischen Autonomie und Heteronomie, Cyborgisierung verteilter agency oder gar der Idee des Menschen als Waffe aufruft.

Der Vortrag konzentriert sich auf Interface-gestützte Erweiterungen von Wahrnehmungsräumen und kognitiven Prozessen. Zunächst werden beispielhaft die Schnittstellenprozesse zwischen menschlichem Akteur, Systemumwelt und Netzwerk diskutiert, die je nach Komplexität des Interface unterschiedliche Abhängigkeiten zwischen Autonomie und Heteronomie nach sich ziehen. Daran anschließend werden kognitionswissenschaftliche Perspektiven vorgestellt, die das Verständnis dieser Relationen schärfen können. Unterschieden werden dabei Systeme wie Exoskelette, Prothesen oder digitale Medien (‚enhanced reality‘) und damit einhergehende kognitive Erweiterungen (Anderson 2022, Clark 2004), insbesondere im Kontext militärischer Entwicklungskonzepte (wie beispielsweise Human/Machine-Teaming).

Quellen:

Anderson, J. (2022): Scaffolding and Autonomy, in: Colburn, B. (Hrsg.): The Routledge Handbook of Autonomy, Routledge, London/New York, S. 158-166.

Clark, A. (2004) Natural-Born Cyborgs: Minds, Technologies, and the Future of Human Intelligence. Oxford University Press, Oxford.