Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Diese Forschungsarbeit untersucht den technischen, ethischen und theologischen Diskurs über autonome Waffensysteme (AWS) und betont die moralische Kernfrage, ob Maschinen über Leben und Tod entscheiden dürfen. Der Fokus liegt auf der theologischen Perspektive, insbesondere auf der Lehre des gerechten Krieges sowie auf einem theologisch-ethischen Reflexionsmodell. Die Forschung zeigt, dass das Recht auf Leben als höchstes Gut von zentraler Bedeutung ist. Die Studie kommt zu dem Schluss, dass ein Verbot von AWS verfrüht wäre, solange nicht nachgewiesen ist, dass AWS den Anforderungen des humanitären Völkerrechts und theologischen Prinzipien weniger gerecht werden als menschliche Soldaten.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 448
Veröffentlichungsjahr: 2025
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Wolfgang Engelhardt
Die ethische Debatte um den Einsatz autonomer Waffensysteme
Eine theologische Perspektive
Verlag W. Kohlhammer
Für meine Enkelkinder Luana, Giulia, Noah, Hannah und Jakob.
Weiter widme ich diese Arbeit allen Christen in der Rüstungsindustrie und im Militärwesen, die sich angesichts der zunehmenden Autonomisierung von Waffensystemen vielleicht manchmal fragen, ob sie noch am richtigen Platz sind.
Diese Arbeit wurde unter einem leicht veränderten Titel an der Universität Pretoria am Fachbereich für Systematische und Historische Theologie als Promotionsleistung angenommen. Die Betreuung erfolgte durch Prof. Dr. habil. Dr. rer. nat. Volker Kessler und Prof. Dr. Daniël P. Veldsman.
1. Auflage 2025
Alle Rechte vorbehalten
© W. Kohlhammer GmbH, Stuttgart
Gesamtherstellung: W. Kohlhammer GmbH, Heßbrühlstr. 69, 70565 Stuttgart
Print:
ISBN 978-3-17-045996-0
E-Book-Formate:
pdf: ISBN 978-3-17-045997-7
epub: ISBN 978-3-17-045998-4
Für den Inhalt abgedruckter oder verlinkter Websites ist ausschließlich der jeweilige Betreiber verantwortlich. Die W. Kohlhammer GmbH hat keinen Einfluss auf die verknüpften Seiten und übernimmt hierfür keinerlei Haftung.
Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwendung außerhalb der engen Grenzen des Urheberrechts ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Einspeicherung und Verarbeitung in elektronischen Systemen.
Diese Forschungsarbeit untersucht den technischen, ethischen und theologischen Diskurs über autonome Waffensysteme (AWS) und betont die moralische Kernfrage, ob Maschinen über Leben und Tod entscheiden dürfen. Der Fokus liegt auf der theologischen Perspektive, insbesondere auf der Lehre des gerechten Krieges sowie auf einem theologisch-ethischen Reflexionsmodell. Die Forschung zeigt, dass das Recht auf Leben als höchstes Gut von zentraler Bedeutung ist. Die Studie kommt zu dem Schluss, dass ein Verbot von AWS verfrüht wäre, solange nicht nachgewiesen ist, dass AWS den Anforderungen des humanitären Völkerrechts und theologischen Prinzipien weniger gerecht werden als menschliche Soldaten.
Dipl.-Ing. Wolfgang Engelhardt wurde mit vorliegender Arbeit an der Universität von Pretoria in Theologischer Ethik promoviert. Er war viele Jahre als Fachbereichsleiter Entwicklung Systeme im Bereich der Lenkflugkörper- und Luftverteidigungssysteme in der deutschen Verteidigungsindustrie tätig.
Danksagung
Vorwort: Ein Beitrag zur Militärethik – passend zur Zeitenwende
1 Einleitung
1.1 Problemstellung
1.2 Begriffliche Definitionen
1.2.1 AWS
1.2.2 Ethik und Moral
1.3 Verortung der Arbeit
1.4 Standpunkt des Autors
1.5 Forschungsziel
1.6 Forschungsfrage
1.7 Forschungsmethode
1.8 Literaturübersicht
1.8.1 Zur allgemeinen Ethik von AWS
1.8.2 Zur theologischen Ethik
1.8.3 Verhältnis zwischen Militär und Ethik aus historischer Sicht
1.8.4 Technische und technik-ethische Aspekte sowie Möglichkeiten von AWS
1.9 Zur Analyse des Istzustands
1.9.1 Zu den Stakeholdern
1.9.2 Zur Analyse des geltenden Rechts
1.9.3 Zur Kontextsensibilität
1.9.4 Zu den harten Fakten
1.10 Die Architektur der Forschungsarbeit vor dem Hintergrund der Forschungsfragen
2 Technische Grundlegung zu AWS
2.1 Technische Aspekte zu AWS, Autonomie, Algorithmen und Künstlicher Intelligenz
2.1.1 Definitionen von AWS und Autonomie
2.1.2 Semantische Aspekte
2.2 Der Bekämpfungsablauf und drei grundlegende technische Fachdisziplinen
2.3 Regelungstheorie, Künstliche Intelligenz (KI) und Robotik
2.3.1 Regelungstheorie
2.3.2 Künstliche Intelligenz
2.3.3 Robotik
2.4 Mensch-Maschine-Interaktion und Autonomiestufen
2.5 Die ethische Kritikalität
2.5.1 Die ethische Kritikalität in Abhängigkeit der Autonomiestufen
2.5.2 Die ethische Kritikalität in Bezug auf die Zielentfernung
2.5.3 Zwischenfazit
2.6 AWS-Algorithmen aus ingenieurwissenschaftlich-kybernetischer Sicht
2.6.1 Der Mensch als Regler
2.6.2 Der homo kyberneticus im Wahrnehmungsprozess
2.6.3 Zur Bedeutung der Kybernetik für die Theologie
2.6.4 Der homo kyberneticus in einem Funktionsvergleich mit AWS
2.6.5 Die Rolle der KI am Beispiel des homo kyberneticus
2.6.6 Die Rolle der Autonomie am Beispiel des homo kyberneticus
2.6.7 Das künstliche Gewissen (»Artificial Conscience«) nach Arkin
2.7 Zusammenfassung zur technischen Grundlegung
3 Die ethische Debatte zu AWS
3.1 Die technik-ethische Grundlegung zu AWS und KI
3.1.1 Der homo calculans und die Menschlichkeit
3.1.2 Der homo calculans und das Bewusstseinsphänomen
3.1.2.1 Vom homo calculans zum homo deus und die Auswirkung auf die Menschenwürde
3.1.2.2 Der homo calculans und seine moralische Verantwortung
3.1.2.3 Schlussfolgerungen
3.2 Hauptlinien in der aktuellen ethischen Debatte über den Einsatz von AWS
3.2.1 Benennung der moralischen Frage
3.2.2 Vorgehensweise bei der Analyse der ethischen Debatte
3.2.3 Eckpunkte der Diskussion auf internationaler Ebene der Vereinten Nationen
3.2.3.1 Die Hauptdiskussionsstränge
3.2.3.2 Die Handlungsoptionen auf internationaler Ebene
3.2.3.3 Das Ergebnis aus der internationalen Diskussion
3.2.3.4 Zusammenfassung und weitere Vorgehensweise
3.2.4 Die Auffassung des ICRC
3.2.4.1 Handlungsempfehlungen des ICRC
3.2.4.2 Diskussionsstränge des ICRC und deren Argumentations-Analyse
3.2.5 Das Gedankenexperiment von Leveringhaus
3.2.6 Die ethischen Hauptlinien in der Debatte
3.2.6.1 Die von iPRAW identifizierten Hauptlinien
3.2.6.2 Die ethischen Hauptlinien in Übersichtsarbeiten
3.2.6.3 Der Befund
3.2.7 Zwischenfazit und weitere Vorgehensweise
3.3 Die Diskussionsstränge nach Grünwald und Kehl
3.3.1 Der Diskussionsstrang zur Einhaltung des Humanitären Völkerrechtes
3.3.1.1 Die ethische Diskussion zu Arkins These
3.3.1.2 Eine völkerrechtliche Perspektive
3.3.1.3 Eine feminine Perspektive
3.3.1.4 Ertrag in Form von Prämissen, Maßnahmen und Erkenntnissen
3.3.1.5 Klassifikation des Diskussionsstranges und Kernpunkte
3.3.2 Der Diskussionsstrang zur Frage der Menschenwürde
3.3.2.1 Zum Menschenwürde-Begriff
3.3.2.2 Die ethisch-rechtliche Diskussion
3.3.2.3 Ertrag aus der ethisch-rechtlichen Diskussion und Klassifikation des Diskussionsstanges
3.3.3 Der Diskussionsstrang zur Frage der Verantwortung
3.3.3.1 Die ethisch-rechtliche Diskussion
3.3.3.2 Ertrag aus der ethisch-rechtlichen Diskussion und Klassifikation des Diskussionsstranges
3.3.4 Extrahierte Kernpunkte aus den drei Diskussionssträngen
4 Theologische Grundlegung durch den christlichen Einfluss auf die Debatte
4.1 Weitere Vorgehensweise und Anforderungen an die gesamte theologische Grundlegung
4.2 Übersicht zu den expliziten und impliziten theologischen Einflüssen
4.2.1 Ein Beeinflussungskonzept zwischen christlichem Glauben und ethischer Kriegsführung
4.2.2 Die Zuordnung von Kirche und Welt
4.2.2.1 Die historische Entwicklung der Lehre der Zwei Regimente von Luther
4.2.2.2 Die zwei konzentrischen Kreise bei Karl Barth
4.2.2.3 Dietrich Bonhoeffers Vier-Mandate-Lehre
4.2.2.4 Ertrag aus der Betrachtung der Zuordnung von Kirche und Welt
4.3 Die Lehre vom gerechten Krieg
4.3.1 Theologisch-ethische Beiträge
4.3.2 Die Lehre vom gerechten Krieg als philosophisch-theologischer Reflexionsrahmen
4.3.3 Die ethische Doktrin zur Lehre vom gerechten Krieg
4.3.4 Die Prüfkriterien der Lehre vom gerechten Krieg
4.3.5 Kriterien für das jus ad bellum (Recht zum Krieg)
4.3.5.1 Rechtmäßige Entscheidungsinstanz (legitima potestas)
4.3.5.2 Gerechter Grund (causa iusta)
4.3.5.3 Äußerstes Mittel (ultima ratio)
4.3.5.4 Richtige Absicht (recta intentio)
4.3.5.5 Verhältnismäßigkeit der Folgen
4.3.5.6 Aussicht auf Erfolg
4.3.5.7 Beendigungskonzept (Exit-Strategie)
4.3.6 Kriterien für das jus in bello (Recht im Krieg)
4.3.6.1 Angemessenheit der Mittel
4.3.6.2 Schonung der Nicht-Kombattanten
4.3.7 Kriterien für das jus post bellum (Recht nach dem Krieg)
4.3.8 Alttestamentliche Einzelaspekte zur Lehre vom gerechten Krieg
4.3.8.1 Die Bekämpfung eines Kollektivs
4.3.8.2 Militärischer Fortschritt als Hilfe Gottes
4.3.8.3 Die Rolle Gottes in der Kriegsführung im Wandel der Zeiten
4.3.9 Zusammenfassung
4.4 Das humanitäre Völkerrecht
4.4.1 Ethisch relevante Anforderungen für den Einsatz von AWS
4.4.2 Zur Rolle der Soldaten
4.5 Die Lehre vom gerechten Frieden und der konsequente Pazifismus
4.6 Ein expliziter Beitrag aus katholischer Sicht
4.7 Die Prämisse zum Menschenbild in der ethischen AWS-Diskussion
4.7.1 Differenzen in den Sichtweisen
4.7.2 Empirische Daten
4.7.3 Zwischenfazit
4.7.4 Ein Beitrag aus christlich-theologischer Sicht
4.7.5 Schlussfolgerung
4.8 Ertrag zu der betreffenden Forschungsfrage
5 Theologische Grundlegung für die Kernpunktbearbeitung
5.1 Der moralische Standpunkt
5.1.1 Anforderungen
5.1.2 Prinzipielle Unterscheidungsmerkmale zwischen theologischen und säkularen Ethiken
5.2 Das theologisch-ethische Basismodell nach Mühling
5.2.1 Vergleich des Basismodells mit den Anforderungen
5.2.2 Die Rolle des Gewissens
6 Theologisch-ethische Kernpunkt-Bewertung und Konsequenzen
6.1 Die Frage nach dem höchsten Gut
6.1.1 Die integrierende Rolle der Güterethik
6.1.2 Zusammenhang zwischen teleologischen und deontologischen Ethikkonzepten
6.1.2.1 Einzelne theologisch-philosophische Beiträge
6.1.2.2 Die Quintessenz aus den einzelnen Beiträgen
6.1.3 Zum vorzuziehenden Gut in einem christlichen Wirklichkeitsverständnis
6.1.4 Fazit
6.2 Verantwortungsübernahme bei unvorhersehbaren Handlungsfolgen
6.3 Zur Kategorisierung von AWS im Humanitären Völkerrecht
6.3.1 Veranschaulichung der AWS-Kategorisierungsproblematik
6.3.2 Ein Lösungsversuch
6.4 Zur szenenspezifischen AWS-Funktionsweise
6.4.1 Die Bekämpfung rechtswidrig handelnder Kombattanten durch AWS
6.4.2 AWS in Szenarien mit Verwundeten
6.5 Konsequenzen für den Einsatz von AWS und zusammenfassende Darstellung
6.6 Ein Beispiel zur Veranschaulichung der Konsequenzen
6.6.1 Ein konstruiertes Szenario
6.6.2 Analyse der Geschehnisse am Beispiel des konstruierten Szenarios
7 Ergebnisse in Bezug auf die Forschungsfragen
Verzeichnisse
Literatur
Abkürzungen
Abbildungen
Tabellen
Ein ganz herzliches Dankeschön möchte ich meinen Supervisoren Prof. Dr. habil. Dr. rer. nat. Volker Kessler und Prof. Dr. Daniël P. Veldsman sagen für die ermutigende Begleitung, Hilfestellung und Herausforderung während meiner Forschungsarbeit. Es war mir eine große Freude und auch eine große Bereicherung in meinem Leben, mit euch zusammengearbeitet zu haben.
Ich bedanke mich auch bei Prof. Dr. habil. Alfred Schöttl, Professor für autonome Systeme und Technische Informatik an der Hochschule München, einem langjährigen Weggefährten während meiner beruflichen Zeit in der Verteidigungsindustrie. Er war dazu bereit, den technischen Teil dieser Arbeit in Kapitel 2 (ausgenommen Kapitel 2.6.3) auf technisch-wissenschaftliche Richtigkeit zu überprüfen und mir dabei wertvolle Rückmeldungen zu geben.
Darüber hinaus danke ich den Vielen, die mir Fragen beantworteten, Feedback gaben und Korrektur lasen. Mein besonderer Dank geht diesbezüglich an meine Tochter Maria Tabea sowie an die Lektorin Claudia Böckle für die äußerst professionelle Überprüfung meiner Forschungsarbeit.
Ein herzlicher Dank geht auch auch an Marian Winter und Dorothea Krämer von GBFE (Gesellschaft für Bildung und Forschung in Europa) für ihre überaus hilfreiche administrative Begleitung.
Auch möchte mich bei den Verantwortlichen von AcF (Akademie für christliche Führungskräfte) und hier insbesondere erneut bei Prof. Dr. habil. Dr. Volker Kessler bedanken. Erst auf dem Weg zum AcF-Diplom »Christian Leadership« war es mir möglich, den Einstieg in die Theologie als Geisteswissenschaft zu finden.
Besonders danke ich meiner lieben Frau Maria Christina für alle Unterstützung und Ermutigung. Schließlich danke ich meinem Herrn Jesus Christus, dass er mir überhaupt ermöglichte, im Seniorenalter noch die Kraft und Freude aufzubringen, um mich als passionierter Ingenieur in ein anspruchsvolles, vorwiegend geisteswissenschaftliches Thema hineinzuarbeiten.
Militärethik – ist dieses Wort nicht schon ein Widerspruch in sich? Eine Zusammenfügung von zwei widerstreitenden Begriffen?
Dr. Wolfgang Engelhardt und ich lernten uns am 10. September 2001 kennen, einen Tag vor dem Beginn einer Zeitenwende. Damals besuchte Wolfgang das erste Seminar bei der Akademie für christliche Führungskräfte. An diesem Montag war man noch in einer Friedenseuphorie, die Phase des kalten Krieges schien beendet, und man freute sich auf das 21. Jahrhundert als ein Jahrhundert des Friedens. Folglich sah man Militär als überflüssig und als Geldverschwendung an. Und wer, wie Wolfgang Engelhardt, in der Militärindustrie arbeitete, machte sich auf kritische Rückfragen gefasst.
Der folgende Tag, »9/11«, markiert den Beginn einer Zeitenwende. Zwei Jahrzehnte später spricht Bundeskanzler Olaf Scholz vom 24. Februar 2022 als einer »Zeitenwende in der Geschichte unseres Kontinents«. Der russische Einmarsch in die Ukraine führte in der deutschen Öffentlichkeit zu einem radikalen Wertewandel. Galt es vorher als unmoralisch, viel Geld für Waffen auszugeben, fühlt man sich heute moralisch verpflichtet, der Ukraine mehr Waffen zu liefern und folglich immer mehr Waffen zu produzieren.
Dr. Engelhardt greift mit seiner Untersuchung zur Ethik von autonomen Waffensystemen ein hochaktuelles und relevantes Thema auf. Als Supervisor staunte ich über die Fülle an vorhandenen Veröffentlichungen zu diesem Thema. Allerdings lässt sich dieses Thema nur sachgemäß behandeln, wenn man sich in der Technik und in der Theologischen Ethik auskennt. Wolfgang Engelhardt bringt beide Perspektiven sachkundig ein.
Seine Doktorarbeit war gerade zur Prüfung vorgelegt, da berichteten die Medien vom Besuch des Papstes Franziskus beim G7-Gipfel am 14. Juni 2024. Dessen Hauptanliegen war es, sich für ein Verbot autonomer Waffensysteme einzusetzen. Seine Begründung: Es widerspricht der Würde eines Menschen, wenn sein Tod auf Grund der Entscheidung einer Künstlichen Intelligenz erfolgt.
Ich habe von Wolfgang Engelhardt gelernt, dass es aus theologischer Sicht durchaus Argumente für den Einsatz autonomer Waffensysteme gibt, sofern man nicht grundsätzlich Waffen ablehnt. Diese Doktorarbeit geht von der Hypothese aus, dass in einer vom Sündenfall geprägten Welt leider eine Notwendigkeit für Waffen und Militär besteht. Diese Waffen sind in verantwortlicher Weise zu nutzen. So soll es zum Beispiel möglichst wenig zivile Opfer geben.
Ein Argument für autonome Waffensysteme ist, dass diese nicht in einen Blutrausch kommen und dabei über das militärische Ziel hinaus wahllos Unbeteiligte töten. Ein zweites ethisches Argument für autonome Waffensysteme ist, dass Roboter, sofern richtig programmiert, keine Frauen vergewaltigen. Leider sind gerade Frauen in Kriegsgebieten vielfach Opfer von Vergewaltigungen.
Das heißt nicht, dass autonome Waffensysteme »sauber« sind. Aber diese beiden Beispiele zeigen, dass die ethische Debatte nicht ganz so simpel ist. Das Argument der Menschenwürde, welches auch Papst Franziskus benutzt, ist eben nicht das einzige ethische Argument. Die ethische Debatte um autonome Waffensysteme ist kompliziert und komplex.
Engelhardt wählte ein Ethik-Modell von Prof. Dr. Markus Mühling, Kirchliche Hochschule Wuppertal, um seine Forschungsfrage anzugehen. Dieses Ethik-Modell erinnert an einen Regelkreis, was vermutlich den Diplom-Ingenieur Engelhardt sofort ansprach.
Mühling spricht in seinem Ethikmodell nicht vom »guten Handeln«, sondern etwas bescheidener vom »vorzuziehenden Handeln«. Es gibt Situationen im Leben, in denen man nicht die Wahl zwischen gut und böse hat; sondern man hat nur die Wahl zwischen einer bösen und einer weniger bösen Alternative, und dann wäre letztere eben vorzuziehen.
Dr. Engelhardt ist es gelungen, die Komplexität dieser Fragestellung aufzuzeigen. Das haben alle drei externen Gutachter attestiert. Zwei Gutachten stammen von Professoren an deutschen Hochschulen und das dritte von einem südafrikanischen Professor. Prof. Dr. Dr. Elmar Nass von der Kölner Hochschule für katholische Theologie würdigte die interdisziplinäre Arbeit als einen »Meilenstein für christliche Sozialethik« und empfahl eine Publikation beim Kohlhammer-Verlag.
Prof. Dr. habil. Dr. rer. nat. Volker Kessler, Dekan der Gesellschaft für Bildung und Forschung in Europa e.V., Gummersbach, und Professor extraordinarius an der Universität von Pretoria.
»Pope calls on G7 leaders to ban use of autonomous weapons« (The Guardian 2024) ist die Schlagzeile aus den Aussagen von Papst Franziskus während des G7-Gipfels am 14. Juni 2024.1 Diese Schlagzeile unterstreicht die gesellschaftspolitische Bedeutung des Forschungsthemas, wie es in dieser Arbeit behandelt wird. Bei der ethischen Debatte zum Einsatz von Autonomen Waffensystemen (AWS) geht es um militärische Anwendungen der »Künstlichen Intelligenz« (KI). AWS dürften wohl zu den strittigsten KI-Anwendungen gehören, da sie nicht nur, wie beispielsweise beim autonomen Fahren, das technik-ethische Kapitel der »Autonomie« von Maschinen aufschlagen, sondern auch in das ethisch äußerst umstrittene Anwendungsgebiet der Kriegsführung hineinragen. So ist es nicht verwunderlich, wenn die »Arms Control-Association« zu dem Schluss kommt: »Ethical issues are at the heart of the debate about the acceptability of autonomous weapon systems (AWS)« (Armscontrol 2018). Auf ihrer Internetseite stellt die Arms Control Association die ethisch konträren Positionen vom Internationalen Komitee des Roten Kreuzes (IKRK bzw. engl. ICRC) und den USA zum Verbot von AWS gegenüber. Als ein jeweils maßgebendes Argument in der Debatte hält die eine Seite den Einsatz von über Leben und Tod entscheidenden AWS für unethisch, weil sie gegen die Menschlichkeit verstoßen. Unabhängig davon, wie »sophisticated« AWS auch ausfallen mögen, bliebe am Ende immer die Verletzung der menschlichen Handlungsfreiheit, der moralischen Verantwortung und der Menschenwürde bestehen (ICRC 2021:8).
Die andere Seite hält den Einsatz potentiell für ethisch verpflichtend, weil das Internationale Völkerrecht durch AWS voraussichtlich besser erfüllt werden kann. Grünwald und Kehl (2020:20) spitzen dieses ethische Dilemma auf folgende moralische Schlüsselfrage zu, um die sich die ganze ethische Debatte dreht, nämlich »ob und inwiefern es erlaubt sein soll, Maschinen über Tod oder Leben von Menschen entscheiden zu lassen.«
Die im Rahmen dieser Forschungsarbeit erhobenen Internet- und Literaturrecherche bezüglich der ethischen AWS-Debatte brachte zum Vorschein, dass insgesamt eine tiefergehende Auseinandersetzung aus theologisch-ethischer Sicht nicht zu entdecken ist. Bestätigt wurde ich in dieser Beobachtung durch Grünwald und Kehl (2020:165), die in ihrem abschließenden Arbeitsbericht für den Deutschen Bundestag im Hinblick auf den Aspekt der Menschenwürde feststellen, dass »die christliche Perspektive in der Debatte keine nennenswerte Rolle spielt« und dafür um so mehr philosophische Gedanken in den Vordergrund treten. Sie stützen sich dabei auf ein eigens für AWS vom deutschen Bundestag in Auftrag gegebenes ethisches Gutachten (Koch & Rinke 2021), welches vom Institut für Theologie und Frieden in Hamburg erstellt wurde.
Passend zu meinem beruflichen wie theologischen Hintergrund soll ein Beitrag zur Ausfüllung der genannten Forschungslücke anhand der vorliegenden Doktorarbeit geleistet werden. Dazu soll die säkulare ethische Debatte um den Einsatz von AWS aus theologischer Perspektive kritisch-würdigend analysiert werden.
Als Autor dieser Arbeit bringe ich Erfahrungen aus der Verteidigungsindustrie mit, in der ich als technik-affiner Christ nach dem Ingenieursstudium über Jahrzehnte in der Systementwicklung von Flugkörper- und Luftverteidigungssystemen beschäftigt war. Theologische Studien konnte ich im Rahmen der GBFE2 absolvieren. Vor diesem Wissens- und Erfahrungshintergrund soll konkret für die Menschen ein theologisch fundierter Beitrag geleistet werden, die als Christen mit AWS beruflich konfrontiert sind. Ich schließe mich dabei der Meinung von John Lennox, Mathematik-Professor (emeritus) an der Universität Oxford an. Seine Auffassung ist die, dass die Technologie viel schneller voranschreitet als das ethische Denken und dass es hier christliche Wissenschaftler braucht, welche über eine religiöse Weltsicht verfügen (Lennox 2021).
Eine zentrale Rolle in der internationalen Debatte nimmt die Definition von AWS ein, die das US-Verteidigungsministerium im Rahmen einer formellen Richtlinie zu Autonomie in Waffensystemen 2012 vorgestellt hat. Dies war die erste Definition mit offiziellem Charakter, auf welche seitdem immer wieder Bezug genommen wird. Demnach ist ein autonomes Waffensystem ein Waffensystem, »das nach seiner Aktivierung Ziele auswählen und bekämpfen kann ohne weitere Einwirkung durch einen menschlichen Bediener. Dies schließt von Menschen überwachte AWS ein, die es menschlichen Bedienern erlauben, das System im Betrieb zu überstimmen«3 (Grünwald & Kehl 2020:39). Im Gegensatz dazu wird ein semiautonomes Waffensystem definiert als ein Waffensystem, »das nach seiner Aktivierung dafür vorgesehen ist, lediglich einzelne Ziele oder spezifische Gruppen von Zielen, die von einem menschlichen Bediener ausgewählt wurden, zu bekämpfen«4 (Grünwald & Kehl 2020:39). Näheres zu verschiedenen Ansätzen zur Definition von AWS folgt in Kapitel 2 zur technischen Grundlegung.
Nach Bleisch et al. (2021:22–23) unterscheiden viele Ethiker und Ethikerinnen zwischen den Begriffen Moral und Ethik. Moral wird, bezogen auf Gesellschaftsgruppen, gewöhnlich mit dem faktischen Orientieren an Normen, Werten, Einstellungen und Tugenden in Verbindung gebracht, während unter Ethik die kritisch-philosophische Betrachtung dieser Moralsysteme verstanden wird. Wie oft auch im alltäglichen Sprachgebrauch, werden die Begrifflichkeiten der Moral und der Ethik innerhalb dieser Arbeit jedoch synonym verwendet.
Die Arbeit ist innerhalb der theologischen Ethik verortet. Die angewandten bzw. bereichsspezifischen Ethiken (Düwell et al. 2011:243) wie Technik-, Robo-, KI- und Militärethik existieren unabhängig von der Theologischen Ethik und werden in dieser Arbeit vor dem Hintergrund der christlichen Human- bzw. Naturethik (Burkhardt 2003:92–112; Burkhardt 2017:37–107) betrachtet.
Die University of Pretoria bietet diesbezüglich eine Besonderheit, auf die die vorliegende Arbeit letztlich zurückgeht. Sie fördert durch den Abschluss »Theological Studies« innerhalb der theologischen Fakultät interdisziplinäre Forschungsarbeiten, wie die vorliegende theologisch-technikethische Thesis. Sie spricht »Students from diverse fields, such as engineering, architecture, music, political science, law, fine arts and many more to broaden their vision« (University of Pretoria 2023) an. Entsprechend Veldsman et al. (2017) wird dabei für Studierende die Möglichkeit eröffnet, aus ihren individuellen kirchlichen Traditionen heraus Theologie zu betreiben. Prof. Daniël P. Veldsman leitet die Abteilung für Systematische und Historische Theologie an der Fakultät der Theologie und Religion an der Universität Pretoria, wo er auch Systematische Theologie unterrichtet.
»Der Wissenschafter ist nach Weber gleichzeitig ›denkender Forscher‹ und ›wollender Mensch‹. Deshalb können auch Fragen des wissenschaftlichen Wissens nicht von ethischen Überlegungen abgelöst werden« (Sedmak 2010:31). Dieses Zitat führt zur Frage nach meinem theologisch-ethischen Verständnis. Mein theologisches Verständnis zeigt sich zum einen in der Auswahl der theologischen Literatur, die sich insgesamt wohl am ehesten dem evangelisch-konservativen Lager zuordnen lässt. Als Mitarbeiter in einer theologisch konservativen »Christlichen Gemeinde« entspricht diese Zuordnung auch in etwa meiner gemeindlichen Verortung. Zum anderen sollen zwei Voraussetzungen an dieser Stelle genannt werden, die für mein ethisches Verständnis im Zusammenhang mit dieser Arbeit von Bedeutung sein werden: erstens wird, wie in McGrath (2020:108) im Zusammenhang mit der pietistischen Tradition innerhalb des Protestantismus geschildert, von der Autorität der Bibel ausgegangen. Das bedeutet, dass in Bezug auf die Ethik die biblische Ethik im Sinne des guten bzw. vorzuziehenden Handelns vor dem noch so gut gemeinten menschlichen Handeln und vor der Tradition kommt. Und zweitens wird, wie in Mühling (2012:18–33) beschrieben, mit den Relaten zum Handlungsbegriff gearbeitet und wie in Mühling (2012:156–167) vorgestellt, nach dem »höchstem Gut« als Maxime ethischen Handelns gefragt.
In Summe sollte demzufolge mein Standpunkt als »open-minded evangelical« bezeichnet werden, beheimatet im konservativen Pietismus, aber auch offen für verschiedene theologische Standpunkte. Mehr zu meinem Standpunkt, speziell aus der theologisch-ethischen Perspektive, wird innerhalb der theologischen Grundlegung in Kapitel 5.1 dargestellt.
In dieser Studie geht es neben der in Kapitel 1.1 geschilderten konkreten Zielsetzung auch generell darum, ein durch den technologischen Fortschritt neu entstandenes Ethik-Anwendungsgebiet nicht nur der säkularen Ethik zu überlassen. Es soll im Rahmen dieser Studie deshalb ein Beitrag dazu geleistet werden, die theologische Ethik in diesem neuen Anwendungsbereich zu platzieren. Anspruch dabei ist, das zuvor geschilderte ethische Dilemma aufzugreifen, die technisch relevanten Hintergründe dazu zu veranschaulichen, und wie im Folgenden beschrieben, aus einer theologisch-ethischen Perspektive wissenschaftlich zu untersuchen.
Die Haupt-Forschungsfrage rekrutiert sich zum einen aus der geschilderten Forschungslücke sowie zum anderen aus der darin implizierten Notwendigkeit, die theologische Ethik, wie sie bei Ernst (2009:16) ganz simpel als »Beteiligung des Christen am allgemeinen ethischen Diskurs innerhalb der Gesellschaft« definiert wird, mit der säkularen Ethik ins Gespräch zu bringen. Zudem geht sie aber auch auf ein Theologieverständnis, wie es bei Schirrmacher im Sinne eines ganzheitlichen Deutungsanspruchs zu finden ist, zurück:
Diese Ganzheitlichkeit bedeutet aber gerade nicht, dass wir uns engstirnig nur mit unmittelbar frommen oder theologischen Themen beschäftigen, sondern dass wir die ganze Bandbreite unseres Denkens und Lebens in unsere Ausbildung einbeziehen und in Beziehung zu unserem Glauben setzen. (Schirrmacher 2002b:23)
Anknüpfend an die aufgeführten Zusammenhänge führt das zu folgender Hauptforschungsfrage:
Wie ist die aktuelle ethische Debatte über den Einsatz von AWS mit ihren inhaltlichen Argumentationen aus theologischer Sicht zu beurteilen?
Ergänzt wird die Hauptforschungsfrage um folgende drei Unterfragen (Sub-Forschungsfragen):
1. Was sind, vor dem Hintergrund der moralischen Kernfrage, aktuell die Hauptlinien der ethischen Debatte über den Einsatz von AWS, wie können diese klassifiziert werden und welche Kernpunkte lassen sich daraus extrahieren?Mit Kernpunkten sind fragwürdige Merkmale aufgrund von unterschiedlichen Positionen und den dahinterstehenden inhaltlichen Pro- und Contra-Argumentationen5 gemeint. Es kann sich auch um herausragende Prämissen, Maßnahmen oder prinzipielle Unklarheiten handeln. Sie werden im Ergebnis als einzelne Fragestellungen formuliert. Es sind zudem Punkte, bei denen ich mir durch eine theologisch-ethische Betrachtung mit anschließender Positionierung einen Mehrwert für die Debatte verspreche.6
2. Wo sind in den bisherigen Diskussionen theologische Einflüsse erkennbar, implizit oder explizit? Methodisch dient aufgrund struktureller Analogien zur Klärung dieser Frage das Konzept von Kessler mit dem Titel »On the Reciprocal Relationship between Faith and Management« (Kessler 2023) als Referenz (siehe dazu Kapitel 4.1 und 4.2). Volker Kessler ist ein deutscher Theologe evangelikaler Prägung mit Habilitation und Professor an der Universität von Südafrika. Er ist ferner Leiter der Akademie für christliche Führungskräfte sowie Dekan der Gesellschaft für Bildung und Forschung in Europa.
3. Welchen Mehrwert könnte eine theologisch-ethische Betrachtung mit Blick auf die extrahierten Kernpunkte liefern und welche Konsequenzen würden sich daraus für den Einsatz von AWS ergeben?Methodisch werden als Baustein zur Klärung dieser Frage die in Mühling (2012) beschriebenen »Relate zum Handlungsbegriff«7 als Referenz im Sinne eines »Ethikmodells« eingesetzt. Markus Mühling ist evangelischer Theologe und Professor für Systematische Theologie an der Kirchlichen Hochschule Wuppertal/Bethel mit Schwerpunkt der Trinitäts- und Gotteslehre, Eschatologie sowie Soteriologie. Aufbauend auf dieses, von mir so genannte, Ethikmodell soll als Unterstützung der Hauptforschungsfrage sowie dem interdisziplinären Charakter dieser Arbeit und dem Forschungsziel geschuldet, ein adäquates Reflexionsmodell zur gedanklichen Durchdringung und Veranschaulichung, abgeleitet werden (siehe dazu die Kapitel 4.1 und 5.2).
Entsprechend (Ott 2021:32) soll die Arbeit als vergleichende und beurteilende Literaturstudie aufgebaut werden. Entlang der Forschungsfragen werden in dieser Arbeit die Texte der ethischen Debatte mit den Texten der theologischen Literatur ins Gespräch gebracht.
Da das Textmaterial sehr umfangreich ist, müssen die zur Beantwortung der Forschungsfragen wesentlichen Argumentationen und inhaltlichen Beiträge systematisch herausgefiltert werden. Dazu wird die Methode der zusammenfassenden Inhaltsanalyse8 angewandt. Textmaterial wird dabei auf einen Kurztext »deskriptiv« unter Beibehaltung der wesentlichen Inhalte beschrieben. Darüber hinaus erfolgt eine Orientierung an Bleisch et al., die detailliert ein Schema ethischer Entscheidungsfindung beschreiben, das auszugsweise in das im Folgenden beschriebene Stufenkonzept eingebracht wird.
Eine Systematik von vier aufeinanderfolgenden Schritten bilden eine Art Stufenkonzept, anhand dessen methodisch vorgegangen wird: erstens wird nach einleitenden Erklärungen mit der technischen Grundlegung zu AWS begonnen. Auf dieser Basis wird zweitens eine technik-ethische Grundlegung vorgenommen sowie die aktuelle ethische Debatte über den Einsatz von AWS analysiert. Drittens erfolgt die theologische Grundlegung. In diesem Zusammenhang werden weitere Grundlegungen erarbeitet, um auf die im zweiten Schritt extrahierten Kernpunkte eingehen zu können. Dabei werden die von Mühling (2012) beschriebenen »Relate zum Handlungsbegriff« als Basis-Ethikmodell eine zentrale Rolle spielen. Im vierten Schritt werden auf dieser Basis die extrahierten Kernpunkte theologisch-ethisch analysiert, bewertet und beispielhaft Konsequenzen aus der Bewertung abgeleitet.
Die Debatte zu AWS ist seit 2014 im Rahmen der UN Convention on Certain Conventional Weapons (CCW)9, der 125 Vertragsstaaten angehören, in vollem Gang. Es haben sich dabei eine Vielzahl von Beiträgen verschiedener Nationen, Institutionen und Experten ergeben, die die ganze Bandbreite10 vom Verbot bis zum Gebot von AWS abdecken. Zu dieser langjährigen Debatte ist sehr viel geschrieben worden, so dass es innerhalb dieser Arbeit unmöglich ist, alle Beiträge zu berücksichtigen. Es bedarf einer Fokussierung. Somit wird im Rahmen dieser Arbeit primär auf den deutschen Beitrag Bezug genommen und damit zusammenhängend auch auf internationale Quellen, wie sie im Rahmen der NATO eine gewichtige Rolle spielen. Dabei fanden Beiträge bis Juni 2023 Berücksichtigung.
Zudem wird auf »Überblicksliteratur« fokussiert, welche beiden Polen Rechnung tragen und die ethischen Pro- und Contra-AWS-Argumente systematisch gegenüberstellen. Zu dieser Überblicksliteratur sind in erster Linie Koch und Rinke (2021), Grünwald und Kehl (2020) sowie Hynek und Solovyeva (2018) zu nennen, ergänzt durch Boulanin und Verbruggen (2017), Bartneck et al. (2019), Tzafestas (2016) und Misselhorn (2019). Die dezidiert rechtliche Seite wird hauptsächlich durch Dederer (2018), Arendt (2016) und Geiß (2015) vertreten. Zum anderen wird dieses Spektrum durch eine Auswahl spezifischer Pro- und Contra-AWS-Beiträge ergänzt. Dazu werden unter anderen aus dem Kreis der führenden Experten sowohl Argumente des wohl bekanntesten AWS-Befürworters Arkin (2009, 2010, 2013, 2017) und des wohl bekanntesten AWS-Gegners11 Sharkey (2012, 2016, 2017) aufgeführt. Ronald C. Arkin ist ein US-amerikanischer Wissenschaftler aus dem Bereich Robotik und Roboterethik. Er ist Professor am Georgia Institute of Technology. Arkins Pro-AWS-These war der Auslöser der ethischen Debatte zum Einsatz von AWS. Noel Sharkey ist Professor emeritus für Künstliche Intelligenz und Robotik an der Universität Sheffield, Großbritannien. Darüber hinaus kommen auch namhafte internationale Institutionen wie CCW (2018, 2019), ICRC (2018, 2021) und iPRAW (2018, 2019) zu Wort. Mit dieser Auswahl an Literatur dürfte ein repräsentatives Pro- und Contra- Meinungsbild sichergestellt sein.12
Im Hinblick auf das theologische Material konzentriere ich mich bei dieser Arbeit vorwiegend auf zeitgenössische Theologen, die in ihren Ethikwerken auch militärische Themen aufgreifen, wie Härle (2018b), Burkhardt (2003, 2017), Nullens und Mitchener (2010) und Grudem (2018). Fischer et al. (2008), Mühling (2012), Konradt (2022), Kessler (2023), Nauer (2022) und Nass (2022) tragen darüber hinaus zu Aspekten der christlichen Theologie bei, welche für diese Arbeit von Relevanz sind.
Historisch betrachtet ist die theologisch begründete »Lehre vom gerechten Krieg«13 von zentraler Bedeutung. Die oben bereits erwähnten zeitgenössischen Theologen Burkhardt (2003), Härle (2018b), Schirrmacher (2002a), Gushee und Stassen (2016) und Grudem (2018) greifen in ihren Ethikwerken explizit diese Lehre auf. Einige der genannten Autoren ergänzen dieses Konzept um weitere theologisch begründete Lehren, wie sie sich im Verlauf der Geschichte ergeben haben. Der »Pazifismus« oder die Lehre vom »gerechten Frieden« spielen dabei eine besondere Rolle und werden im Rahmen dieser Arbeit ebenfalls aufgegriffen. Baumann (2007) widmet sich ausschließlich der Militärethik. In seiner christlich-theologischen14 Traditionsanalyse beschreibt er die Entwicklung vom Krieg im Alten Testament bis hin zu neuzeitlichen Positionen sowie die Entwicklung von menschenrechtlichen und völkerrechtlichen Perspektiven. Ergänzend zur Entwicklung vom Krieg im Alten Testament wird von Rad (1951) herangezogen.
Bei der Erläuterung der technischen Aspekte von AWS werden vor allem Boulanin und Verbruggen (2017), Altmann (2017), Grünwald und Kehl (2020), Stadelmann (2019), IEEE (2018) sowie Doll und Schiller (2019) berücksichtigt. Zu den technik-ethischen Aspekten kommen vor allem Grunwald (2019, 2022), Schmidt-Schauß (2018), Heichele (2021) und Frühbauer (2021) zu Wort.
Bleisch et al. (2021:19) stellen ein Schema zur ethischen Entscheidungsfindung vor. Die in Tabelle 1 ausgeführten Schritte dienen auch in dieser Arbeit als Anhaltspunkte, wobei übergeordnet zu dem dargestellten Schema in erster Linie die Forschungsfragen mit den zugehörigen Erklärungen aus Kapitel 1.6 sowie das Stufenkonzept aus Kapitel 1.7 zu beachten sind.
Tab. 1 Anhaltspunkte aus dem Schema von Bleisch et al. (2021:19)
SchrittÜberschrift entsprechend Bleisch et al. (2021:19)Bezugspunkte zu dieser Forschungsarbeit1Analyse des IstzustandsKapitel 1.92Die moralische Frage benennenKapitel 3.2.13Analyse der ArgumenteKapitel 3, 44 Evaluation und EntscheidungKapitel 5.1, 6.1, 6.2, 6.3, 6.45ImplementierungKapitel 6.5, 6.6Die Analyse des Istzustands erfordert dabei das Auflisten der harten Fakten, die Analyse des geltenden Rechts, das Identifizieren von Stakeholdern sowie das Entwickeln der Kontextsensibilität.
Grünwald und Kehl (2020:227) sehen in der Regierung, den NGOs, den Medien, Wirtschaft und Wissenschaft, insbesondere im Sammelbereich der KI verschiedene Stakeholder, die in die öffentliche Diskussion eingebunden werden müssen. Im Rahmen dieser Arbeit wird davon ausgegangen, dass durch die oben aufgeführte Breite in der Literaturauswahl die verschiedenen Stakeholder repräsentativ eingebunden sind. Zum innersten Kern sind die im Rahmen einer Kriegsführung unmittelbar betroffenen Personen wie Zivilisten und zum anderen die Soldaten bzw. Kombattanten15 zu zählen, die in zwei Kategorien aufgeteilt werden können, nämlich die eigenen und die gegnerischen Soldaten. Mittels konstruierter Szenarien soll dieser Kreis von Stakeholdern mitunter in den Blick genommen werden. Darüber hinaus gibt es natürlich noch viele weitere indirekte ethische Interessensvertreter: Regierungen, Regierungsberater, Öffentlichkeit, Medien, alle Menschen, die am AWS-Produktentstehungsgang beteiligt sind, Kirchenvertreter, Wissenschaft, Wirtschaft, Gesellschaft, die besonders in der »Überblicksliteratur« größtenteils zu Wort kommen sollen.
Es soll bereits an dieser Stelle würdigend erwähnt werden, dass in der Bundesrepublik Deutschland hinsichtlich Überblicksliteratur wertvolle Vorarbeit geleistet wurde. Der Bundestag hat bezüglich der ethischen Fragestellungen im Kontext autonomer Waffensysteme ein ethisches Gutachten zur Beratung von Regierungsvertretern anfertigen lassen. Koch und Rinke (2021:36) nehmen in diesem Gutachten für sich in Anspruch, die ethische Betrachtung im deutsch- und englischsprachigen Raum auf besonders relevante Autorinnen und Autoren, das heißt die Debatte maßgebend prägende Autorinnen und Autoren, konzentriert zu haben. Sie blicken in ihrem Gutachten sozusagen aus der Vogelperspektive auf den Gegenstandsbereich der ethischen AWS-Debatte. Demnach soll im Rahmen dieser Arbeit davon ausgegangen werden, dass sich in der reinen Lagebilderfassung, respektive im Literaturberichtsteil dieses Gutachtens, die wesentlichen Pro- und Contra-Argumente ohne Wertung seitens der Autoren Koch und Rinke wiederfinden.
Ein Exzerpt dieses Gutachtens ist zudem als wichtiger Bestandteil in den Bericht vom Institut für Technikfolgenabschätzung16 von Grünwald und Kehl (2020) eingeflossen und gibt wesentliche ethische Fragestellungen und Diskussionspunkte in kompakter Form wieder. Die Autoren haben aus ihrer Perspektive der Technikfolgenabschätzung als Teil des Bereichs der Technikethik (Grunwald 2013:394–399) damit wiederum wertvolle Vorarbeit im Sinne von Bleisch et al. (2021:100) geleistet: »Ethikerinnen und Ethiker beurteilen nicht nur tatsächlich eingebrachte Argumente, sondern streben an, dass bezüglich eines moralischen Problems die besten Argumente auf dem Tisch liegen, an denen sich unsere Entscheidungsfindung orientiert.« Insgesamt liegt aus deutschen Regierungsberaterkreisen also ein umfassender Fundus an Positionen, Argumenten, Fragestellungen, Diskussionspunkten und Zusammenfassungen vor, auf die diese Arbeit aufbauen kann. Darüber hinaus sollen, wie bereits erwähnt, in erster Linie Beiträge Berücksichtigung finden, die vergleichbar zu Koch und Rinke (2021) über einen aus der Vogelperspektive aufgenommenen separaten, d. h. von den Autoren unbewerteten, Literaturteil verfügen.
Hinsichtlich der Analyse des geltenden Rechts verweise ich auf die Kontextsensibilisierung, innerhalb derer das Humanitäre Völkerrecht als rechtliche Basis ausführlich zur Sprache kommt. Das geltende Recht ist nach Bleisch et al. (2021:28) schon deshalb zu berücksichtigen, »weil das Einhalten von Gesetzen wie auch Rechtssicherheit moralische Werte sind.« Inhaltlich ist zu beachten, dass geltendes Recht und Moral nicht einfach gleichgesetzt werden dürfen. So kann es zum Beispiel vorkommen, dass Gesetze menschenverachtend sind und dass es Bereiche gibt, die ethisch relevant aber gesetzlich nicht geregelt sind. Auch wenn Gesetze und Moral zwar unser Handeln regulieren wollen, so gibt es weiter Unterschiede in der Umsetzung der Regulierung. Gesetze werden notfalls per Gewaltmonopol des Staates mit Zwang durchgesetzt, während moralische Maßstäbe der Selbstverpflichtung unterliegen (Bleisch et al. 2021:28–32).
Zur Kontextsensibilität weisen Bleisch et al. (2021:37) darauf hin, dass im ersten Schritt der ethischen Entscheidungsfindung, die gesellschaftlichen, historischen und kulturell-weltanschaulichen Kontexte zu beachten sind. Darüber hinaus auch, dass es neben konkreten Argumenten im Hintergrund auch immer um diffuse Ängste, Hoffnungen, Status- und Identitätsfragen geht. So spielen geschichtliche Kontexte bei der Diskussion moralischer Fragen eine bedeutende Rolle sowie die in einer Gesellschaft bereits oft historisch bedingt verankerten und damit unverhandelbaren Werte. Diese Werte anzugreifen käme mit hoher Wahrscheinlichkeit einer gesellschaftlichen Entgleisung gleich. Für unsere westliche Gesellschaft weisen die Autoren darauf hin, dass die Menschenwürde und die Selbstbestimmung zu diesen »protected oder sacred values« gehören, eine Verletzung derselben erscheint in unserer Gesellschaft als ausgeschlossen (Bleisch et al. 2021:37–39).
Zur Schaffung von Kontextsensibilität trägt darüber hinaus in dieser Arbeit maßgeblich die zweite Unterforschungsfrage bei. Die implizit oder auch explizit in die Debatte eingeflossenen theologischen Einflüsse aufzuzeigen, bildet hier den Schwerpunkt.
Das Auflisten der harten Fakten erfolgt durch das Zurückgreifen auf zuverlässiges Wissen aus dem Bereich der AWS und zugehöriger Technologien wie der Künstlichen Intelligenz. Dabei soll deutlich werden, was AWS sind und wie sie sich von anderen Systemen und auch vom Menschen unterscheiden. Zudem werden bereichsethische Technikaspekte vor dem Hintergrund theologischer Perspektiven behandelt. Dies führt zur technischen Grundlegung, wie sie in Kapitel 2 behandelt wird.
Die bislang geschilderten Ausführungen bilden die Basis für die Architektur dieser Forschungsarbeit in Form der übergeordneten Kapitelstruktur. Im folgenden Kapitel 2 wird zunächst die technische Grundlegung zu AWS vorgenommen. Diese Grundlegung soll dazu dienen, Basiswissen zu vermitteln, auf das in den folgenden Kapiteln zurückgegriffen werden kann. Darauf aufbauend wird in Kapitel 3 eine technik-ethische Grundlegung vorgenommen sowie die aktuelle ethische Debatte über den Einsatz von AWS beschrieben. Dabei kommt speziell die Sub-Forschungsfrage 1 zu den Hauptlinien und den Kernpunkten in der Diskussion zum Tragen. Basierend auf diesen Ergebnissen wird in Kapitel 4 und Kapitel 5 die theologische Grundlegung vor dem Hintergrund der Hauptforschungsfrage vorgenommen. Hierzu wird die theologische Sichtweise, wie sie innerhalb dieser Arbeit zum Tragen kommt, beschrieben. Dabei setzt sich die theologische Grundlegung aus drei Bausteinen zusammen. Der erste Baustein besteht in der Beantwortung der Sub-Forschungsfrage 2, die nach den impliziten wie expliziten theologischen Einflüssen in der Debatte fragt. Zweitens wird die theologische Sichtweise dadurch charakterisiert, dass mein moralischer Standpunkt dargelegt wird, wodurch sich der Blickwinkel auf die dritte Sub-Forschungsfrage ergibt. Danach wird als dritter Baustein der Fokus wiederum auf die bereits ausgearbeiteten Kernpunkte gerichtet und nach einem passenden theologisch-ethischen Modell gesucht, um die extrahierten Kernpunkte zu analysieren. Damit sind die Voraussetzungen geschaffen, um dann in Kapitel 6 die theologisch-ethische Bewertung der Kernpunkte sowie die sich daraus ergebenden Konsequenzen für den Einsatz von AWS abzuleiten. Der Sub-Forschungsfrage 3 nach dem Mehrwert einer theologisch-ethischen Betrachtung soll demzufolge in Kapitel 6 Rechnung getragen werden. Abschließend werden in Kapitel 7 die wesentlichen Ergebnisse unter dem Blickwinkel der Forschungsfragen zusammengetragen.
Das Auflisten der harten Fakten erfolgt in diesem Kapitel durch das Zurückgreifen auf zuverlässiges Wissen aus dem Bereich der AWS und die AWS prägenden Technologien wie Autonomie im technischen Sinn, Algorithmen und Künstliche Intelligenz (KI). Dieser Abschnitt widmet sich deshalb zum einen der Terminologie des ethischen Betrachtungsgegenstands, d. h. der begrifflichen Seite zu den autonomen Waffensystemen (AWS) als technische Systeme, zu Algorithmen, zur Autonomie und zur Künstlichen Intelligenz. Zum anderen soll durch ingenieurswissenschaftliche Betrachtungen zum Vorschein kommen, wie AWS durch ihre Algorithmen vom Prinzip her menschliches Verhalten nachbilden und wie sie sich technisch-wissenschaftlich vom Menschen unterscheiden. Durch die etwas tiefergehenden technischen Erläuterungen soll zum einen eine Vorstellung vermittelt werden, wie menschliches Verhalten auf Algorithmen äquivalent transformiert werden kann. Diese Vorstellung stellt als »Äquivalenz-Referenz« den Ausgangspunkt für das Verständnis von KI im Zusammenhang mit AWS und Autonomie dar und bildet einen Schnittpunkt zwischen Anthropologie und Ingenieurswissenschaften. Dieser Aspekt spielt dann speziell im darauffolgenden Abschnitt 2.2 zur technik-ethischen Seite von AWS und KI eine zentrale Rolle, so dass die Ausführungen in diesem Kapitel auch als Grundlage für den darauffolgenden Abschnitt betrachtet werden können.
Bei dieser Forschungsarbeit handelt es sich um eine interdisziplinäre Arbeit an der Schnittstelle zwischen Technik und Theologie. Das notwendige Wissen aus Sicht eines christlich-theologisch orientierten Ingenieurs aus dem Bereich der semi-autonomen Waffensysteme kommt in diesem Kapitel zum Tragen. Um die technischen Prinzipien für Theologen zugänglich zu halten, wird versucht, auf umfangreiche Theorie zu verzichten und möglichst beispielhaft erklärend vorzugehen.1 Um die Literatur auf diesem Gebiet auf ein für diese Arbeit passendes Maß zu begrenzen, werden in erster Linie deutschsprachige Beiträge berücksichtigt. Da AWS weltweit von hohem militärischem Interesse sind, werden aber auch englischsprachige Beiträge aus dem NATO-Bereich miteinfließen.
Zunächst einmal drängt sich dem technisch-wissenschaftlich orientierten Verfolger der ethischen Debatte zum Einsatz von AWS die Frage auf, ob es eine inhaltliche Füllung des AWS-Begriffs gibt, auf die sich die Wissenschaft als Norm geeinigt hat und falls ja, wie diese Definition aussieht.
Taddeo und Blanchard sind dieser Frage nachgegangen und identifizierten bei ihrer Analyse der seit Anfang der 2000-er Jahre stattfindenden internationalen Debatte zu den ethischen und rechtlichen Implikationen von AWS zwölf unterschiedliche AWS-Definitionen, wie sie von Staaten oder internationalen Schlüsselinstitutionen wie dem ICRC oder der NATO vorgeschlagen werden:
The analysis highlights that the definitions draw focus on different aspects of AWS and hence lead to different approaches to address the ethical and legal problems of these weapon systems. This approach is detrimental both in terms of fostering an understanding of AWS and in facilitating agreement around conditions of deployment and regulations of their use and, indeed, whether AWS are to be used at all. (Taddeo & Blanchard 2022:1)
Taddeo und Blanchard stellen bei ihrer Analyse fest, dass zu den ethischen Kernproblempunkten, wie sie durch AWS verursacht werden, ein breiter Konsens herrscht, nicht jedoch mit Blick auf deren Definition. Einem Bericht der UNIDIR zufolge ist dieses Defizit den strategischen und politischen Interessen der AWS-Befürworter sowie Gegner geschuldet (UNIDIR 2015:22). Unter diesem Licht, d. h. ohne ein gemeinsames Verständnis von dem, was unter AWS eigentlich zu verstehen ist, erscheint ein vorbeugendes Verbot von AWS, wie es mit Stand August 2020 von 30 Staaten gefordert wurde, schwierig durchzusetzen zu sein (Taddeo & Blanchard 2022:5).
An dieser Stelle soll definitorisch darauf hingewiesen werden, dass im Rahmen dieser Arbeit unter dem Begriff AWS »Letale Autonome Waffensysteme (LAWS)« verstanden werden und die theologisch-ethische Sicht speziell auf diese Gattung von AWS gerichtet wird. Taddeo und Blanchard (2022:15–18) entwerfen aufgrund des beschriebenen Defizits nach eingehender Analyse des Status Quo eine wertneutrale Definition von AWS, verweisen aber auch auf die bislang wohl umfassendsten Definitionen der US-Regierung und des ICRC. Beide Definitionen werden oft zitiert, so zum Beispiel weisen Grünwald und Kehl (2020:39) in diesem Zusammenhang darauf hin, dass es sich bei der US-Definition um die erste, in 2012 veröffentlichte Definition mit offiziellem Charakter handelt, auf die immer wieder Bezug genommen wird.
A weapon system that, once activated, can select and engage targets without further intervention by a human operator. This includes human-supervised autonomous weapon systems that are designed to allow human operators to override operation of the weapon system, but can select and engage targets without further human input after activation. (US Department of Defense 2012:13–14)
Anders dagegen unterstützt die »IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems«2 die ICRC-Definition als Arbeitsgrundlage für die weitere Entwicklung und Diskussion zu ethischen Standards und Richtlinien für Ingenieure:
We support the working definition of AWS offered by the International Committee of the Red Cross (ICRC) and propose that it be adopted as the working definition of AWS for the further development and discussion of ethical standards and guidelines for engineers. The ICRC defines an AWS as: »any weapon system with autonomy in its critical functions. That is, a weapon system that can select (i. e. search for or detect, identify, track, select) and attack (i. e. use force against, neutralize, damage or destroy) targets without human intervention.« (IEEE 2018:116)
Während beiden Definitionen gemeinsam ist, dass der Begriff »Autonomie« im Kern als das Fehlen menschlicher Einflussnahme gedeutet wird, räumt die auf AWS als Ganzes zielende DOD-Definition einschränkend zugleich ein, dass das Fehlen menschlicher Einflussnahme auch so gedeutet werden kann, dass der Mensch lediglich eine Kontrollfunktion über AWS ausübt. Das ICRC geht einen etwas anderen Weg und hebt in ihrer Definition viel stärker auf die einzelnen Funktionen ab, welche ein AWS ausmachen. So differenziert wird deutlich, dass es bei AWS um viele einzelne Funktionen geht, die in Bezug auf Autonomie jede für sich betrachtet werden muss. Damit wird wiederum aus beiden Definitionen ersichtlich, dass Differenzierungen im Zusammenhang mit dem Verständnis von Autonomie erforderlich sind. Die Einstufungen beziehen sich zum einen auf die einzelnen Funktionen des operationellen Bekämpfungsablaufs und zum anderen auf das Maß der menschlichen Einflussnahme auf diese Funktionen.
In dieser Arbeit wird, dem Beispiel der IEEE folgend, die ICRC-Definition als Arbeitsgrundlage gewählt. Zum einen, weil es sich um eine interdisziplinäre Studie handelt, welche zum Ziel hat, durch technisches Verständnis für einzelne Funktionen des Bekämpfungsablaufs faktenbasierte fundierte Vorstellungen für ethische Bewertungen zu schaffen. Zum anderen, weil davon auszugehen ist, dass die AWS-Definition des ICRC, wie von Cullen (2019:151) angedeutet, als möglichst neutral gelten kann.
Die IEEE Global Initiative kritisiert, dass nicht nur in Bezug auf die Definition von AWS eine Konfusion herrscht, sondern auch im Hinblick auf die Definitionen zu Künstlicher Intelligenz (KI) und zur Autonomie, was eine substantielle Diskussion zu kritischen Aspekten behindert (IEEE 2018:115). Auch Boulanin und Verbruggen weisen darauf hin:
Autonomy has no established definition. It is not a specific technology area with well-defined boundaries, or a dedicated academic discipline or distinct market sector.3 Autonomy is not even technology per se; rather, it is a property that can be attached to very different types of technology. (Boulanin & Verbruggen 2017:89)
Das IEEE (2018:115) schlägt vor, den Fokus mehr darauf zu richten wie AWS vom Menschen kontrolliert werden, anstatt auf die Waffentechnologie als solche. Der Ausdruck Autonomie sei wichtig, um die Debatte zu AWS zu verstehen, würde aber derzeit zu sehr um definitorische Aspekte sowie die technologischen Möglichkeiten kreisen. Diese fragwürdige Argumentation wird erfreulicherweise gleich darauf wieder vom IEEE relativiert, wenn davon gesprochen wird, dass eine diesbezügliche Klärung für die Diskussion zwar notwendig sei, sie sollte allerdings so flexibel bleiben, dass sie von technologischen Weiterentwicklungen nicht überholt wird. Im Kontext von AWS sollte Autonomie in einem eingeschränkten Sinn so verstanden und verwendet werden, dass damit die Fähigkeit, Entscheidungen zu treffen, an Maschinen delegiert wird. Die unterschiedlichen Funktionen von AWS können dabei je nach Erfordernis unterschiedlich stark delegiert werden.
Altmann unterscheidet automatische Systeme und autonome Systeme. Automatisch definiert er als »ohne unmittelbare menschliche Steuerung« funktionierend. Von autonom spricht er erst dann, wenn ein technisches System nach Bedienerstart ohne menschliche Steuerung operiert und im Unterschied zu automatischen Systemen sich stärker auf Veränderungen einstellt. Er definiert vier Autonomiestufen und beginnt mit dem Fernsteuerungsmodus, bei dem der menschliche Bediener alle Entscheidungen trifft (Altmann 2017:795). Das bedeutet, dass auch bei Altmann unter der Klammer eines Autonomiestufenkonzepts automatische wie autonome Betriebszustände eingehen. Der Übergang ist sozusagen fließend, wie auch die späteren Ausführungen in Form eines fünfstufigen Autonomiekonzepts noch zeigen werden.
Aus Sicht vom IEEE (2018:115–116) geht es letztlich um das Zusammenspiel vom menschlichen Soldaten und einem Waffensystem, respektive einer Maschine. Den Aspekt menschlicher Handlungsfreiheit adressierend, könnte man diesbezüglich auch von Abstufungen in der menschlichen Einflussnahme auf AWS bei den den Bekämpfungsablauf betreffenden Entscheidungen sprechen. So kann zum Beispiel ein AWS autonom im Suchen und Deklarieren von Zielen arbeiten, nicht jedoch, wenn es um die Zielauswahl und Bekämpfung geht, wobei auch der umgekehrte Fall möglich wäre. Falls eine AWS-Plattform unter heftigen Beschuss gerät, kann zur Selbstverteidigung auch vollständige operationelle Autonomie, d. h. Autonomie für den ganzen Bekämpfungsablauf geboten sein, da für den Menschen die zeitlichen Abläufe viel zu schnell von statten gehen.4
Altmann erklärt, dass es bei bewaffneten Drohnen heute noch so ist, dass die Ziele von Bedienern in den Führungsstationen ausgesucht werden. Auch die Waffenauslösung erfolgt durch den Bediener. Es existieren jedoch starke militärische Gründe dafür, diese beiden Funktionen der Zielauswahl und Angriffsentscheidung auf die Algorithmen an Bord der Systeme zu übertragen. Das hätte u. a. den Vorteil, dass das Waffensystem auch nach Verlust der Kommunikationsverbindung noch im Einsatz gehalten werden kann. Dazu kommt die Option, dass bei Abriss der Kommunikationsverbindung auch ein sicherer Absturz eingeleitet werden könnte.5 Derartige Waffensysteme müssten nicht mit einer Basisstation kommunizieren, wodurch Verzögerungen in der Datenübertragung wegfielen. Dadurch könnten die Entscheidungs- und Reaktionszeiten im Kampf – verglichen mit denen menschlicher Bediener – viel schneller stattfinden. Falls sich in künftigen Kriegsszenarien unbemannte Kampffahrzeuge auf kurze Distanz gegenseitig bedrohen würden, wäre die Autonomie aus den bereits genannten Gründen fast schon zwingend erforderlich, will man die eigenen Systeme aufgrund zu großer Datenübertragungs- und Reaktionszeiten zu einem menschlichen Bediener nicht verlieren. Ein anderer Grund besteht darin, dass, wenn man den Bediener weiter in der Informationsschleife halten wollte, Prädiktionen zur Aufrechterhaltung der Stabilität des gesamten Regelsystems notwendig wären. Diese Prädiktionen sind fehlerbehaftet und würden das Ergebnis beeinträchtigen.6 Unter anderem deshalb gilt die Gewährleistung autonomer Waffenfunktionen als eines der Hauptziele der militärischen Forschung und Entwicklung (Altmann 2017:794). Das IEEE (2018:116) empfiehlt im Hinblick auf die einzelnen Waffenfunktionen »to be precise about the control of specific functions delegated to a given system, as well as the ways in which control over those functions are shared between human operators and AWS.« Im Folgenden soll dieser Empfehlung des IEEE nachgekommen werden, nicht zuletzt auch deshalb, weil erkennbar ist, dass es bei der ethischen Debatte zu AWS auch um die Bewertung neuer Technologien geht.
Um ein vorschnelles und pauschales Urteil zu vermeiden ist es nötig, einige technische Aspekte zu betrachten. Allein die technisch-operationelle Seite von AWS ist viel zu komplex, als dass von der moralischen Bewertung her mit einfachen Pauschalisierungen gearbeitet werden darf. Als Negativ-Beispiel sei hier der Begriff »Killerroboter«, wie er von der NGO »Stopp Killer-Robots«7 propagiert wird, genannt. Mit dieser Semantik lässt sich erkennen, dass von vornherein ein undifferenziertes Bild auf AWS gezeichnet wird, das prima facie die AWS in eine Konnotation mit (Auftrags-)Killern setzen. Anders dagegen legen obige Definitionen von U.S.-Seite und dem ICRC nahe, AWS mit (überwachten) Stellvertretern von Soldaten (für vom menschlichen Soldaten ausgewählte Funktionen) zu vergleichen. Auch Solovyeva und Hynek (2018) sehen den Ausdruck »Killerroboter« kritisch, wenn sie einleitend zu ihrer Analyse schreiben:
The debate on and around »killer robots« has been firmly established at the crossroads of ethical, legal, political, strategic, and scientific discourses. Flourishing at the two opposite poles, with a few caught in the middle, the polemic still falls short of a detailed, balanced, and systematic analysis. (Solovyeva & Hynek 2018:166)
Es bedarf somit einer differenzierten Semantik, die es gerade im Hinblick auf die Unterscheidung zwischen AWS und menschlichem Soldaten auch zulässt, dass ursprünglich für die Beschreibung menschlicher Eigenschaften gedachte Begrifflichkeiten im semantisch korrekten Licht erscheinen. Ansonsten würden von vornherein die Weichen für eine fundierte moralische Einschätzung äußerst fragwürdig gestellt werden.
Im Zusammenspiel zwischen Mensch und Maschine taucht häufig der Begriff »Loop« auf. Es soll nun auf zwei Loops eingegangen werden, die in diesem Zusammenhang von Belang sind: zum einen auf den Bekämpfungsablauf im Sinne eines übergeordneten Loops eines sich womöglich ständig wiederholenden sequentiellen Vorgangs. Zum anderen die in diesem übergeordneten Bekämpfungs-Loop enthaltenen Funktionen, die sich wiederum aus einem Loop im Sinne eines dynamischen Feedback-Prozesses zusammensetzen, wie er im menschlichen Wahrnehmungsprozess in Analogie dazu auftritt (mehr dazu später, siehe Abb. 6). AWS bestehen, in Summe betrachtet, aus einer Vielzahl von ineinander verschachtelten Regelschleifen.
Der übergeordnete Bekämpfungsablauf kann als sequentieller »Targeting cycle«8 nach Dahlmann und Dickow funktional wie folgt beschrieben werden:
The decision-making cycle for dynamic target selection by the US military is described here as an example. This consists of six steps, namely:1) Find: Searching for targets that meet initial criteria in designated areas2) Fix: Identifying, locating, prioritising, and classifying of target3) Track: Continuous tracking of target4) Target: Determining desired effect, developing targeting solution, getting legal approval to engage5) Engage: Strike target with determined and approved weapon6) Assess: Review the effects of the engagement. (Dahlmann & Dickow 2019:12)
Einzelne Funktionen, wie die Funktion »Track« aus obigem übergeordneten Bekämpfungsablauf setzen sich wiederum aus weiteren Funktionen zusammen, die über eine Rückkopplungsschleife (Feedbackloop) miteinander verbunden sind. Damit fällt zum Beispiel diese, im Bekämpfungsablauf angesiedelte Funktion »Track« aus Sicht der Ingenieurswissenschaften unter die Fachdisziplin der »Regelungstheorie« oder auch »Technischen Kybernetik«9. Wie Boulanin und Verbruggen (2017:89) erklären, handelt es sich bei der Regelungstheorie um eine der drei technisch ausgerichteten Wissenschaften, die für das substantielle Verständnis von AWS von zentraler Bedeutung sind: »At the basic science and technology level, advances in machine autonomy derive primarily from research efforts in three disciplines: AI, robotics and control theory«. Im Folgenden soll deshalb versucht werden, diese drei für das technische Verständnis von AWS grundlegenden Fachdisziplinen möglichst kompakt und im Zusammenhang zu erläutern. Anschließend soll dann am Beispiel des technischen »homo kyberneticus« deren Zusammenspiel im System erklärt werden.
Wie aus Boulanin und Verbruggen (2017) hervorgeht, zählt die Regelungstheorie10 zu den breit einsetzbaren Fachdisziplinen innerhalb der Ingenieurswissenschaften. Sie erläutern:
Control theory provides some of the theoretical foundations to the development of automation and autonomy, and robotics technologies more largely. Its most important contribution is the principle of closed-loop feedback control […]. All autonomous systems or autonomous functions that execute physical force in their physical operating environment (e. g. self-driving vehicles and autopilots in aircraft) use closed-loop feedback control […]. The main control techniques in control theory include hierarchical control, adaptive control, intelligence control and optimal control. (Boulanin & Verbruggen 2017:92)
In der klassischen Regelungstechnik können die Algorithmen für den Regler mathematisch transparent synthetisiert und analysiert werden. Algorithmen sind das »Herzstück jeglicher Datenverarbeitung« und geben vor, wie Eingabe-Daten in der Regel schrittweise verarbeitet werden müssen, um anhand klar definierter Regeln zu dem gewünschten Ausgabewert zu kommen (Deutscher Ethikrat 2023:9)11. Heute kommen neben den klassischen Ansätzen im Zuge der »Intelligent Control«12 auch verschiedene Ansätze aus dem Bereich der KI zum Tragen.
Entsprechend dem Deutschen Ethikrat (2023) hat sich das Verständnis des Begriffs der Künstlichen Intelligenz über die Jahre verändert und variiert, abhängig von Berufsgruppen und Fachdisziplinen. Er schreibt der Unterscheidung zwischen »Starker KI« und »Schwacher KI« eine wichtige Rolle zu:
Eine große Rolle spielt die Unterscheidung zwischen sogenannter schwacher und starker KI, wobei letztere Vision eine menschenähnliche oder gar menschliche Fähigkeiten übertreffende KI beschreibt. Weitere Begriffspaare, mit denen unterschiedliche Formen oder Grade der Annäherung künstlicher an menschliche Intelligenz erfasst werden sollen, sind spezielle versus allgemeine KI sowie enge versus breite KI. (Deutscher Ethikrat 2023:13)
Es wird dabei vorausgesetzt,
[…] dass die Unterscheidung zwischen enger und breiter KI quantitativer, bzw. gradueller Natur ist, die Entstehung einer starken KI jedoch einen qualitativen Sprung bedeuten würde. Als enge KI gelten dabei Anwendungen, welche menschliche Fähigkeiten in einer Domäne simulieren, um spezifische Aufgaben zu erfüllen. Breite KI erweitert das Spektrum ihrer Anwendbarkeit über einzelne Domänen hinaus. Der Begriff der starken KI wird für die Vision einer Künstlichen Intelligenz verwendet, die jenseits der möglicherweise perfekten Simulation menschlicher Kognition auch über mentale Zustände, Einsichtsfähigkeit und Emotionen verfügen würde. (Deutscher Ethikrat 2023:14)
Bei der KI handelt es sich um eine Schlüsseltechnologie zur Ermöglichung von technisch-operativer Autonomie, wie sie im nächsten Kapitel näher beschrieben wird. Der Begriff als solcher ist, wie von Grünwald und Kehl beschrieben und in dem späteren Kapitel 3.1 in dieser Arbeit näher erläutert, nicht unproblematisch, da damit computergestützte Verfahren vermenschlicht werden.13 Im Eigentlichen geht es jedoch lediglich darum »menschliche Fähigkeiten, durch computergestützte Verfahren nachzuahmen« (Grünwald & Kehl 2020:50). Weiter weisen die Autoren darauf hin, dass alle heutigen Anwendungen der schwachen KI zuzuordnen sind und dass es in Expertenkreisen umstritten ist, ob starke KI jemals in Form technischer Systeme realisiert werden kann. Allerdings wird diese Sicht von vielen KI-Forschern nicht geteilt. Denn UNIDIR-Umfragen zufolge ist eine Mehrheit der KI-Forscher der Meinung, dass dies möglich werden wird (UNIDIR 2018). Offen dabei sei, in welchem Umfang hierfür eine gewisse Form von (Selbst-)Bewusstsein und Empfindungsvermögen unverzichtbar ist (Grünwald & Kehl 2020:51).
Diese Einschätzung der Mehrheit der KI-Experten hat bedeutenden Einfluss auf die ethische Debatte zum Einsatz von AWS, weil sie im Hintergrund als Paradigma mitschwingt und damit den Komplexitätsgrad derselben erhöht. Mit einem Paradigma der schwachen KI, wie es dem jetzigen Stand der Technik entspricht, könnte wohl zurecht davon ausgegangen werden, dass sich AWS auf komplexe und veränderliche Umgebungen nie werden vollkommen äquivalent zum Menschen einstellen können (siehe dazu Kapitel 3.1).
Prof. Thilo Stadelmann, Leiter des Centre for Artificial Intelligence an der Zürcher Hochschule für Angewandte Wissenschaften, definiert Intelligenz und KI wie folgt:
»Intelligenz« ist die bevorzugte Lösungsmethode des Menschen. »Künstliche Intelligenz« nennt man den mit unterschiedlichen Technologien gefüllten Werkzeugkasten von Methoden, die intelligent wirkende Handlungen hervorbringen. (Stadelmann 2019:68)
Der Schwachen KI schreibt Stadelmann das Lösen einzelner Aufgaben zu, die normalerweise als schwierig automatisierbar gelten. »Der überwältigend größte Teil heutiger KI-Forschung und alle bekannten KI-Anwendungen zielen auf schwache KI ab«14. Für die Starke KI, die man sich als bewusstes Gegenüber vorstellen kann, zeichnet sich laut Stadelmann kein angemessener Forschungs- oder Entwicklungsansatz ab. Von den Subdisziplinen her beinhaltet die KI die Planungsalgorithmen, die Logik in Expertensystemen, die Computervision und Sprachverarbeitung15, das Maschinelle Lernen16 sowie die Robotik mit einer entsprechenden Verbindung zur Hardware. (Stadelmann 2019:68–69)
Mit diesen Ausführungen zu den KI-Subdisziplinen soll zudem gezeigt werden, dass die Domäne von KI in erster Linie in Bereichen wie der Bildverarbeitung oder Sprach- und Textverarbeitung liegt. Wie an dem noch folgenden Beispiel des homo kyberneticus ersichtlich, ist die KI jedoch darüber hinaus vielseitig einsetzbar und kommt auch innerhalb der Regelungstheorie zum Tragen. Außerdem sollte berücksichtigt werden, dass, wie eingangs erwähnt, die Begriffe variieren. Der Übergang von schwacher zu starker KI hängt von der jeweiligen Definition ab und kann deshalb auch als fließend erscheinen.
Bei der Robotik als dritter Kern-Technologie für AWS geht es nach Boulanin und Verbruggen (2017:90–92) sowohl um Hardware- wie Softwareengineering. Zentral für die Hardwareseite sind Aktuatoren und Effektoren, anhand derer letztlich konkrete Handlungen vorgenommen werden. Agilität, Lebensdauer, Flexibilität, Robustheit, Größe und Beweglichkeit sind hier wichtige Auslegungsparameter. Im Kontext mit dem Begriff Autonomie und KI spielt jedoch auch die Software-Seite17
