17,99 €
Maschinen und Moral
Die Philosophin Janina Loh befasst sich in ihrem grundlegenden Buch mit den moralischen Herausforderungen, die beim Bau von Robotern und im Umgang mit ihnen eine Rolle spielen: Sind Roboter autonom? Können sie gar moralisch handeln? Haben sie einen moralischen Wert? Sollten ihnen Rechte zuerkannt werden? Wer ist zur Rechenschaft zu ziehen, wenn ein Roboter einen Menschen schädigt? Kritisch diskutiert Loh diese und weitere ethische Fragen und stellt die wichtigsten Lösungsansätze vor.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 365
Veröffentlichungsjahr: 2019
3Janina Loh
Roboterethik
Eine Einführung
Suhrkamp
5Meinen Gefährt*innen
Nora Tobi
Hannah Wulf
Franzi Mia
Christian
Cover
Titel
Widmung
Inhalt
Informationen zum Buch
Impressum
Hinweise zum eBook
Cover
Titel
Widmung
Inhalt
Einleitung
1. Bereiche der Robotik und ihre ethischen Fragen
2. Die Arbeitsfelder der Roboterethik
2.1 Roboter als moralische Handlungssubjekte
2.2 Roboter als moralische Handlungsobjekte
2.3 Inklusive Ansätze
2.4 Kritische Zwischenbilanz
3. Verantwortungszuschreibung in der Mensch-Roboter-Interaktion
3.1 Roboter als Verantwortungssubjekte
3.2 Roboter als Verantwortungsobjekte
3.3 Inklusive Ansätze der Verantwortungszuschreibung
3.4 Kritische Zwischenbilanz
4. Abschließende Bemerkungen – Plädoyer für einen inklusiven und kritischen Diskurs
Literaturverzeichnis
Fußnoten
Informationen zum Buch
Impressum
Hinweise zum eBook
3
5
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
cellpage_73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
cellpage_94
cellpage_95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
cellpage_120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
cellpage_161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
cellpage_186
cellpage_187
188
189
190
191
192
193
194
195
196
197
198
cellpage_199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
Seit Mitte des 20. Jahrhunderts halten Roboter Einzug in immer mehr Bereiche des menschlichen Lebens. Angefangen mit der Industrie und ihrem ersten Roboter Unimate[1] über Militär und Kriegsführung bis hin zu Service, Pflege, Medizin und Haushalt werden entweder bereits heute oder aber in absehbarer Zukunft Roboter eingesetzt. Die moralischen Fragen, die beim Bau von und im Umgang mit Robotern aufgeworfen werden, sind Gegenstand der philosophischen Disziplin der Roboterethik. Gegen eine häufig anzutreffende Intuition, dass Technik neutral sei, lässt sich einwenden, dass Technik allgemein Produkt menschlichen Handelns und damit immer (ob bewusst oder unbewusst) durch Normen und Werte bestimmt wird. Denn gerade durch ihre Intention unterscheidet sich eine Handlung vom Instinkt oder bloßen Verhalten (Anscombe 1957; Bratman 1987; Davidson 1980). Durch die Intention werden Werte in eine Handlung eingeschrieben. Menschen wählen über Gründe zwischen unterschiedlichen Handlungsalternativen, die zuvor implizit oder explizit gegen andere Gründe abgewogen wurden. Mit Robotern als spezifischen Technologien,[2] den in ihnen implementierten Werten und den sich aus ihnen ergebenden (gesellschaftlichen) Konsequenzen gehen also immer moralische Fragen einher (siehe zur sogenannten Neutralitätsthese der Technik auch Kapitel 4).
Auf den folgenden Seiten wird zunächst eine innerdisziplinäre Abgrenzung der Roboterethik von anderen Ethiken sowie weiteren philosophischen Disziplinen vorgenommen. Danach wird die außerdisziplinäre Verwandtschaft der Roboterethik mit nichtphilosophischen Fächern besprochen, bevor die eigentlichen Themen und 10Fragen der Roboterethik und der sich daraus ergebende Aufbau der vorliegenden Studie vorzustellen sein werden. Eine (Arbeits-)Definition von »Roboter« erfolgt ebenfalls weiter unten im Text.
Innerdisziplinäre Abgrenzung: Die Roboterethik stellt innerhalb des sogenannten westlichen Kulturraums, auf den sich die folgenden Ausführungen beschränken, eine verhältnismäßig junge Bereichsethik dar, eine Teilbereichsethik der Maschinenethik, um ganz genau zu sein. Denn alle Roboter sind Maschinen, aber nicht umgekehrt alle Maschinen auch Roboter (Loh 2019a). Diese Einordnung der Roboterethik als (Teil-)Bereichsethik ruht auf einem Verständnis von Ethik als einer für Menschen spezifischen Kategorie des Handelns. So befasst sich die philosophische Disziplin der Ethik seit Aristoteles einerseits mit den menschlichen Sitten, Bräuchen und Gewohnheiten, andererseits mit dem guten Leben, nimmt darüber hinaus die wissenschaftliche Reflexion menschlicher Praxis vor und beurteilt die Kriterien guten und schlechten Handelns. Es wird vorausgesetzt, dass nur Menschen handelnde Wesen sind, deren Tun nicht blindem Instinkt und Trieb unterworfen ist, sondern durch Intentionen, Normen und Gründe geformt wird (Aristoteles 2006).
Die Rede von Bereichsethiken[3] bezieht sich nun auf zwei Typen: Bei den einen handelt es sich um Ethiken für den Umgang mit einem nichtmenschlichen Gegenüber. Hierzu zählen neben der Maschinen- und Roboterethik auch die Tier-, Pflanzen-, Umwelt-, Computer- und allgemein die Technikethik. Ähnlich wie in der Roboterethik nimmt etwa die Tierethik die moralischen normativen Kriterien in den Blick, die in der Züchtung, Domestikation und Haltung von Tieren, allgemein im Umgang mit Tieren und im Verhältnis von Menschen und Tieren eine Rolle spielen (Beauchamp/Frey 2011; Regan 1983; Schmitz 2014; Singer 2015). Bereits der Roboterethiker David Gunkel hat festgestellt, dass sich die Roboterethik insbesondere der Tierethik verwandt fühlen kann, insofern »[d]ie Frage nach der Maschine das Gegenstück zu der Frage nach dem Tier« (2012: 5)[4] darstelle. Dementsprechend 11hatte schon René Descartes Tieren und Maschinen zunächst denselben ontologischen Status zugeschrieben (Gunkel 2012: 3). Erst im 20. Jahrhundert wurde diese ontologische Gleichstellung von Tier und Maschine zugunsten der Tiere aufgehoben.
Die andere Gruppe an Bereichsethiken versammelt ethische Systeme für Sonderbereiche des menschlichen Lebens, in denen Werte vertreten, Normen geltend gemacht und Regeln formuliert werden, denen im Alltag der Menschen für gewöhnlich ein anderer Status zugeschrieben wird. Die Medizinethik, die Ethik humanitärer Interventionen, die Kriegs- und die Wirtschaftsethik sowie die Ethik internationaler Beziehungen lassen sich als Beispiele für diese Form von Bereichsethiken anführen. Dieser zweite Typ wird in der vorliegenden Studie lediglich am Rande angesprochen.
Nicht jede*r versteht die Roboterethik in der hier vorgeschlagenen Weise.[5] Oliver Bendel etwa identifiziert schon die Maschinenethik nicht als Bereichsethik, sondern stellt sie »auf eine Stufe mit der Menschenethik«, obwohl er zuvor der traditionellen Auffassung zustimmt, der zufolge sich »Ethik üblicherweise auf die Moral von Menschen« richtet. Weiterhin sieht auch Bendel in der »Roboterethik eine Keimzelle und ein Spezialgebiet der Maschinenethik, wenn sie nicht – wozu man mehr und mehr tendiert – als Bereichsethik aufgefasst wird« (alle Zitate in 2017a: 5). Die vorliegende Untersuchung verpflichtet sich dagegen einer Einordnung der Roboterethik sowohl als Spezialgebiet der Maschinen- als auch als (Teil-)Bereichsethik derselben.[6]
Die Roboterethik ist noch einmal von der Roboterphilosophie zu unterscheiden. Roboterethik ist eine Disziplin der Roboterphilosophie, die zusätzlich beispielsweise epistemologische, ästhetische, politikphilosophische und rechtsphilosophische Themen behandelt, wobei es innerhalb der Roboterphilosophie natürlich zu einer Überschneidung zahlreicher Fragen – wie etwa von ethischen 12und politikphilosophischen Fragen – kommt (Coeckelbergh 2016a; Coeckelbergh u. a. 2018; Ford u. a. 2006; Seibt 2018). Auch im Rahmen dieser Studie ergeben sich an mehreren Stellen Brückenschläge von der Roboterethik in etwa politikphilosophische Gebiete (insbesondere in den Kapiteln 3.2 und 3.3). Eine roboterspezifische Entsprechung der philosophischen Anthropologie, also der philosophischen Disziplin, die nach dem Wesen ›des‹ Menschen fragt, existiert hingegen nicht. Zumeist begnügt man sich auch in philosophischen Untersuchungen zu Robotern mit einer lediglich ein paar Zeilen umfassenden Definition, wie sie auch weiter unten in diesem Text vorgenommen wird (erst recht gilt das für nichtphilosophische Werke). Dieses Phänomen wird in Kapitel 2.3 noch einmal genauere Aufmerksamkeit erfahren, wenn es um Ansätze geht, die die klassische Differenzierung zwischen moralischen Subjekten und Objekten sowie die klare (und üblicherweise anthropologisch-essenzialistische) Grenzziehung zwischen Menschen als den im strengen Sinne einzigen moralischen Subjekten einerseits und nichtmenschlichen Wesen andererseits hinterfragen.
Ausserdisziplinäre Verwandtschaft: Aufgrund ihres Untersuchungsgegenstands tendieren Roboterethikerinnen und -ethiker zur Interdisziplinarität, denn sie erfahren erst aus der Kooperation mit der Informatik, Robotik, KI-Forschung, Kybernetik und weiteren Technik- beziehungsweise Computer- und Ingenieurswissenschaften, wie Roboter konstruiert, programmiert und designt werden. Umgekehrt zeigt sich in den vergangenen Jahren von Seiten der Technikwissenschaften sowie der Industrie ein wachsendes Bewusstsein für die ethischen Herausforderungen, die mit dem Bau und Vertrieb von Robotern einhergehen. Gleichwohl reichen diese Entwicklungen zumindest im deutschsprachigen Raum noch nicht so weit, verpflichtende Ethikkurse in der Ausbildung der Robotiker*innen von morgen zu etablieren oder Weiterbildungskurse für Unternehmen beziehungsweise in der Produktion von Robotern anzubieten (siehe hierzu auch Kapitel 4).
Nähere Bestimmung der Roboterethik und Aufbau dieser Studie: Im deutschsprachigen Raum stellt die Roboterethik noch keine allgemein anerkannte Disziplin innerhalb der akademischen Philosophie dar, auch wenn das Interesse an teildisziplinübergreifenden Kollaborationen wächst. Im Vergleich mit dem englischsprachigen Raum, wo die ethische Auseinandersetzung 13mit artifiziellen Systemen seit Mitte des vergangenen Jahrhunderts einen Kanon klassischer Literatur hervorgebracht hat, präsentiert sich der deutschsprachige Diskurs überschaubar.[7] Hierzulande muss sich die Roboterethik aus den Reihen akademischer Philosophinnen und Philosophen ab und an noch den Vorwurf gefallen lassen, sie sei gar keine richtige Ethik beziehungsweise sie habe keinen spezifischen Gegenstand, da sich Ethik nur mit dem menschlichen Handeln beschäftige. Doch selbst wenn sich nach vorheriger Prüfung herausstellen sollte, dass Roboter keine moralischen Handlungssubjekte sein können und damit zu moralischem Handeln selbst nicht befähigt wären, sollte man ihnen einen Platz im moralischen Universum zuweisen. Schließlich sind alle möglichen Wesen und Entitäten – wie etwa Tiere, Pflanzen, Häuser, Autos, Smartphones, Landschaften oder ganze Ökosysteme – Objekte moralischen Handelns, und wir sprechen einer ganzen Reihe von nichtmenschlichen und zum Teil auch unbelebten Entitäten einen Wert, ja, in manchen Fällen sogar Rechte zu. Um was für eine Art von Wert es sich im Falle von Robotern handelt, bleibt freilich zu diskutieren und hängt von dem zugrunde liegenden Ansatz ab. Doch wo, wenn nicht in der Ethik, wäre der angemessene Raum für eine solche Diskussion? Nachdem im ersten Kapitel ein Überblick über die ethischen Fragen, die sich in einigen Bereichen der Robotik stellen, gegeben wurde, behandelt das gesamte zweite Kapitel ebendie Frage, welchen Wert wir einem jeweiligen Roboter zuschreiben sollten.
Vergleichbar den anderen Bereichsethiken, die sich mit nichtmenschlichen Wesen und Entitäten beschäftigen, wird in der Roboterethik darüber nachgedacht, inwiefern das fragliche Gegenüber selbst als moralischer Akteur und damit als Subjekt moralischen Handelns interpretiert werden muss, inwiefern Roboter also moral agents sind, »Entitäten, die Handlungen ausführen können« (Floridi/Sanders 2004: 349). Roboter als Subjekte moralischen Handelns, denen potenziell ein intrinsischer (das heißt ein absoluter oder Eigenwert) zukommt, sind Gegenstand von Kapitel 2.1. 14In einem zweiten Bereich wird danach gefragt, inwiefern man sich Robotern gegenüber in einer bestimmten Weise verhalten sollte beziehungsweise ob ihnen ein spezifischer Umgang zusteht und inwiefern sie damit in die Kategorie der sogenannten moral patients fallen, »als Entitäten, die man gut oder schlecht behandeln kann« (Floridi/Sanders 2004: 349). Mit Robotern als Objekten moralischen Handelns, denen ein intrinsischer oder ein instrumenteller Wert zukommt, befasst sich das Kapitel 2.2.[8] Weiterhin, in einem dritten Bereich, diskutiert die Roboterethik Alternativen zu dieser klassischen Unterscheidung zwischen Subjekten und Objekten moralischen Handelns. In Kapitel 2.3 wird sich zeigen, inwiefern einige Roboterethikerinnen und -ethiker die aristotelische Differenzierung zwischen moralischen Handlungssubjekten und -objekten sowie insbesondere das gängige Verständnis vom moralischen Handlungssubjekt problematisieren und welche Alternativen sie dafür vorschlagen.[9]
Die Roboterethik stellt also traditionelle ethische Fragen mit Blick auf Roboter – etwa danach, welche Kompetenzen wir generell als grundlegend für moralische Akteursschaft erachten, welche moralischen (und anderen) Werte wir artifiziellen Systemen implementieren sollten, auf was für ein moralisches Selbstverständnis es schließen lässt, wenn wir Roboter ›schlecht‹ behandeln, und in welchen Bereichen – zum Beispiel Industrie-, Militär-, Medizin-, Altenpflege-, Servicerobotik – wir uns auch zukünftig ausschließlich beziehungsweise in einem signifikanten Ausmaß auf menschliche und nicht auf artifizielle Expertise verlassen sollten.
Das dritte Kapitel und damit der zweite Hauptteil dieser Studie ist Fragen der Verantwortungszuschreibung in der Mensch-Roboter-Interaktion gewidmet – vorrangig aus ethischer Perspektive, bietet es dabei jedoch auch einige Ausblicke auf weitere für die Zuschreibung von Verantwortung relevante Handlungsräume wie etwa rechtliche und gesellschaftliche Verantwortlichkeiten, die mit Robotern einhergehen. Denn die Verantwortung ist 15nicht nur ein grundsätzliches Phänomen in nahezu jeder Sphäre menschlichen Handelns, sie wird auch von vielen Menschen als anthropologische Konstante gesehen und ist eine fundamentale ethische Kategorie. Daher ist die Verantwortung auch grundlegend für ein ethisches Nachdenken über Roboter. Eine Untersuchung von Verantwortungszuschreibungen in der Roboterethik sowie eine Analyse der mit dem Bau von Robotern einhergehenden Verantwortlichkeiten bietet zudem einen Brückenschlag zu weiteren Bereichen menschlichen Handelns, in denen Entscheidungen über den Einsatz von sowie den Umgang mit Robotern zu treffen sind, wie etwa in der Politik (politische Verantwortung), der Ökonomie (Konsument*innenverantwortung, Verantwortung von Unternehmen) und dem Recht (strafrechtliche Verantwortung). In Orientierung am zweiten Kapitel wird in Kapitel 3.1 danach gefragt, inwiefern Roboter Verantwortungssubjekte sein können, in Kapitel 3.2 diskutiert, inwiefern Menschen für Roboter als Verantwortungsobjekte Rede und Antwort zu stehen haben, und in Kapitel 3.3 besprochen, welche alternativen Zuschreibungsmodelle von Verantwortung es in der Mensch-Roboter-Interaktion gibt.
Darüber hinaus schlägt das dritte Kapitel mehrere Antworten vor, wie mit einer gegenwärtig vermuteten Transformation dieser wichtigen menschlichen Kompetenz umgegangen werden kann (Loh 2019b). Die Vermutung einer Transformation der Verantwortung speist sich zum einen aus den fundamentalen Umwälzungen im Wesen ›des‹ Menschen, die einer Entwicklung autonomer, selbstlernender Roboter zugeschrieben werden. Zum anderen spricht man von radikalen Paradigmenwechseln und einer damit einhergehenden Transformation unseres Verantwortungsverständnisses in den Organisationsformen unserer gesellschaftlichen, politischen und ökonomischen Systeme aufgrund der Herausforderungen durch Robotisierung, Automatisierung, Digitalisierung und Industrie 4.0. Allenthalben wird auch der Sorge Ausdruck verliehen, dass dank dieser Umstände unserer modernen technisierten Massengesellschaft der Verantwortung ultimative Grenzen gesetzt sind, sich gar gefährliche Lücken in den Möglichkeiten, Verantwortung zuzuschreiben, auftun (siehe etwa Lenk 1994 und Matthias 2004 in Kapitel 3.2). Dennoch scheint der Ruf nach Verantwortung zugleich mit ungebrochener Vehemenz zu erklingen. Die Frage, die das dritte Kapitel beantwortet, lautet, ob wir trotz 16all dieser Veränderungen auf das traditionelle Konzept der Verantwortung weiterhin bauen können (die Kapitel 3.1. und 3.2) oder ob sich unser tradiertes Verständnis von Verantwortung tatsächlich wandelt beziehungsweise wandeln sollte (Kapitel 3.3).
(Arbeits-)Definition von »Roboter«: Einleitend wurde die Roboterethik als Teilbereichsethik der Maschinenethik bezeichnet, weil alle Roboter Maschinen, nicht aber alle Maschinen Roboter sind. Eine Maschine ist ein künstliches Gebilde, das aus durch ein Antriebssystem (Motor, Wind, Wasser) bewegten Teilen besteht und Energie umsetzt (Canguilhem 2012; Strandh 1980). Roboter sind spezielle Maschinen. Historisch geht der Ausdruck »Roboter« auf das tschechische Wort »robota« für Arbeit, Frondienst und Zwangsarbeit zurück, das 1920 von dem Künstler Josef Čapek geprägt wurde (vom slawischen Wortstamm »rab« für »Sklave«; Jordan 2017: 50; siehe auch deMiranda 2019b). Sein Bruder Karel Čapek nutzte es in dem Theaterstück R.U.R. Rossum’s Universal Robots (1921) als Bezeichnung für humanoide Apparaturen, die den Menschen zu Diensten stehen. Der erste etablierte Bereich der Robotik, nämlich die Industrie, spiegelt die Vision, die Čapek in dem genannten Theaterstück entwirft (siehe hierzu Kapitel 1). Auch ist sie Kernbestand der sogenannten Industrie 4.0, der technologischen Transformation der menschlichen Arbeitswelt durch Digitalisierung und Automatisierung. Čapek ist allerdings kein uneingeschränkter Technikenthusiast, sondern geht in R.U.R. auf zahlreiche Herausforderungen ein, die die Erschaffung von Robotern mit sich bringt. Der Plot seines Stücks läuft letztlich auf eine Revolte der Roboter hinaus, die die Weltherrschaft anstreben. Čapek wirft darüber hinaus zahlreiche weitere philosophische Fragen auf, etwa die nach dem Wesen ›des‹ Menschen, nach der Verantwortung der Wissenschaftlerinnen und Wissenschaftler für ihre künstlichen Kreaturen sowie danach, was es heißt, eine emotionale Bindung zu einem anderen Wesen einzugehen. So endet sein Stück beispielsweise mit einer Liebesbeziehung, die sich zwischen zwei Robotern anbahnt. Damit ist in dem durch Čapek begründeten historischen Verständnis vom Roboter eine breite Grundlage für die Diskussionen angelegt, die in den sich anschließenden Jahrzehnten aufkommen sollten.
Den folgenden Ausführungen liegt eine erweiterte Version einer von Catrin Misselhorn (2013: 43) vorgeschlagenen Definition zu17grunde, der zufolge ein Roboter eine elektro-mechanische Maschine ist, die a) über einen eigenständigen Körper und b) über mindestens einen Prozessor verfügt, c) Sensoren hat, die Informationen über die Welt sammeln, d) sowie über Effektoren oder Aktoren verfügt, die Signale in mechanische Abläufe übersetzen. Das Verhalten eines Roboters e) ist oder erscheint zumindest autonom, und er kann f) in seine Umgebung hineinwirken beziehungsweise physisch auf sie Einfluss nehmen. Dieses Verständnis ist nicht unproblematisch, sind doch einige der angeführten Bedingungen (wie beispielsweise Verkörperung, Autonomie und Einflussmöglichkeit) mehrdeutig und daher mindestens erklärungsbedürftig. Auch schließt es häufig als Roboter bezeichnete artifizielle Systeme wie etwa Computer, Chatbots, medizinische Assistenzsysteme und ferngesteuerte Drohnen aus. Damit eröffnet es den großen Graubereich, der von Technikphilosoph*innen ausgeleuchtet zu werden verdient und in dem der Science-Fiction-Schriftsteller Isaac Asimov bereits die roboternahe Sphäre vermutet hat, in der wir auch weiteren Verwandten und Bekannten der Roboter begegnen (1982: 53).
Nach der hier vorgeschlagenen Definition handelt es sich also um keinen Roboter im eigentlichen Sinne, wenn eine der genannten Bedingungen a) bis f) nicht vorliegt: So erfüllen Computer etwa nicht die Bedingung f). Die Art und Weise der Verkörperung spielt hingegen keine Rolle, Roboter gibt es in jeder denkbaren Gestalt, die humanoiden unter ihnen werden Androidinnen und Androiden genannt (Drux 1988). Computer sind im übertragenen Sinn eher das ›Gehirn‹ eines Roboters, so wie Algorithmen metaphorisch gesprochen etwa deren ›mentale Verhaltensmuster‹ und ›gelernte Abläufe‹ darstellen, nicht aber den eigentlichen Roboter selbst. Künstlichen Systemen wie beispielsweise dem chirurgischen Assistenzsystem DaVinci und ebenso Drohnen mangelt es an der Autonomiebedingung e) (Jordan 2017: 31, 59, 262-266). Die Bedingungen a) bis f) sind im Einzelnen notwendig und gemeinsam hinreichend für die in dieser Studie verwendete enge Definition von »Roboter«. Auf den folgenden Seiten werden insbesondere die philosophisch herausfordernden Facetten dieser Definition betrachtet, wie etwa das Autonomieverständnis (Kapitel 2.1) sowie das, was mit Einfluss gemeint ist (Kapitel 3.1 und 3.2).
An der einen oder anderen Stelle (insbesondere in Kapitel 1) wird diese Einführung auch Roboter in einem weiteren Sinne (also 18Entitäten, bei denen eine oder mehrere der Bedingungen nicht erfüllt sind) zumindest streifen. Es geht weniger darum, strikt zwischen Robotern und Nichtrobotern zu differenzieren. Würden wir den Begriff »Roboter« jedoch generell in einem weiten Sinn verstehen, wozu auch die Alltagssprache neigt, dann kämen wir vermutlich dahin, ihn als generell deckungsgleich mit »Maschine« anzusehen.[10]
Ich bin mehreren Personen zu großem Dank verpflichtet, die mich bei der Entstehung dieses Buches unterstützt und mir mit Rat und ihrer Einschätzung zur Seite gestanden haben: John-Stewart Gordon, Isabella Hermann, Eric Hilgendorf, Tanja Kubes, Lara Lammer, Wulf Loh, Susanne Steigler und Mia Steinfeldt danke ich für ihre ausnehmend kritische Lektüre des Manuskripts, die unumwunden vorgebrachten Verbesserungsvorschläge, zahlreiche Literaturtipps, ihre Hinweise und Korrekturen, die meine Argumentation geschärft haben und insbesondere für die Diskussion meines Ansatzes sowie ihre wiederholten Aufforderungen zu mehr Genauigkeit und Ausführlichkeit. Durch das Team der Technik- und Medienphilosophie an der Universität Wien um Mark Coeckelbergh wurde mir ein sehr produktiver Raum zur Arbeit am und zum Austausch über das Buch gegeben, der nicht zuletzt auch durch meine Student*innen und die mit ihnen geführten Gespräche belebt und bereichert wurde. Auch möchte ich ausdrücklich meinem Lektor, Jan-Erik Strasser, für die hervorragende Zusammenarbeit im Allgemeinen sowie die sensible Lektüre des Manuskripts im Besonderen danken.
Diese Studie fokussiert die drei Hauptarbeitsfelder der Roboterethik sowie Rolle und Funktion der Verantwortung in diesen. Zuvor wird nun ein Einblick in fünf Sektoren der Robotik und die dort aufgeworfenen ethischen Fragen gegeben, nämlich Robotik und Arbeit (paradigmatisch an der Industrierobotik diskutiert), autonomes Fahren, Medizin-, Therapie- und Pflegerobotik (als exemplarisch für den Großbereich der Social Robotics), Sexrobotik sowie Militärrobotik. Denn es existiert nahezu kein Bereich des menschlichen Alltags, in den Roboter (mit mehr oder minder ausgeprägter Autonomie sowie unterschiedlich differenzierten Lern- und Interaktionsfähigkeiten) noch nicht Einzug gehalten hätten. In den Kapiteln 2 und 3 werde ich wiederholt auf diese fünf exemplarischen Bereiche der Robotik zurückkommen. Weitere Sektoren der Robotik, die hier nicht in den Blick genommen werden können, sind beispielsweise Haushaltsrobotik, Robotik in der Bildung, Robotik als Spielzeug oder Robotik in Kunst, Literatur, Film und Musik (Ichbiah 2005; Jordan 2017: 61-98; Ceppi 2019; McNulty 2019; Verdicchio 2019).
Ausgehend von der seit Karel Čapek und dessen Theaterstück R.U.R. Rossum’s Universal Robots (1921) ersten Dimension des menschlichen Alltags, in die Roboter signifikant eingebunden worden sind, der Industrierobotik, geht das Thema Robotik und Arbeit inzwischen weit über die Industrie im engen Sinne hinaus. Autonome Fahrassistenzsysteme finden in der öffentlichen Diskussion breite Resonanz, wird doch seit einiger Zeit auch im deutschsprachigen Raum verstärkt über ihre serienmäßige Produktion und Vermarktung nachgedacht. Bereits in der Gegenwart werden Roboter-Assistenzsysteme für Medizin, Therapie und Pflege entwickelt, wo sie die Pfleger*innen etwa bei körperlich anstrengenden Tätigkeiten unterstützen sollen. Darüber hinaus arbeitet man gerade in diesem Sektor an autonomen artifiziellen Systemen, die eigenständig in Privathäusern zum Einsatz gebracht werden, dort körperlich beziehungsweise geistig eingeschränkten Menschen in ihrem Alltag zur Hand gehen und unter Umständen sogar soziale Interaktionspart20nerinnen und -partner sein sollen. Mit Robotern sexuellen Umgang zu haben, stellt vielleicht für viele Menschen derzeit weder eine alltagstaugliche noch gewünschte Option dar. Dennoch findet die Sexrobotik zunehmend größere Verbreitung. Darüber hinaus lassen sich mit ihr im Fokus einige grundlegende Fragen über die Möglichkeit von emotionalen Beziehungen mit Robotern auf den Punkt bringen, die auch in den Kapiteln 2.2 und 2.3 besprochen werden. In die Entwicklung der Militärrobotik schließlich fließen nicht nur beeindruckende finanzielle Summen, hier werden auch brisante Themen über den Einsatz artifizieller Systeme, die im wahrsten Sinne des Wortes über Leben und Tod zu entscheiden haben, virulent.
Robotik und Arbeit (Industrierobotik): In dem ersten etablierten Bereich der Robotik, nämlich der Industrie, sollen Roboter bislang vor allem diejenigen Arbeiten übernehmen, die als »dull, dangerous, and dirty« gelten, also als »langweilig, gefährlich und schmutzig«, wobei alles andere als ausgemacht ist, welche Tätigkeiten hierunter fallen (Marr 2017). Vor dem Hintergrund der sogenannten Industrie 4.0[1] sowie eines immer verbreiteteren Einsatzes von Maschinen in immer mehr und immer unterschiedlicheren Aufgabenbereichen wird schon seit längerem befürchtet, dass Roboter den Menschen ganz generell ihre Arbeit streitig machen werden (Brzeski/Burk 2015; Frey/Osborne 2013).
Langweilige, da repetitive und monotone, schmutzige und nicht zuletzt gefährliche Tätigkeiten an den Montage- und Fließbändern, in den Produktions- und Lagerhallen der Industrie werden bereits heute vermehrt von Robotern ausgeführt (Ichbiah 2005: 204-255; Jordan 2017: 219-242). Die Kuka-Roboter in der Automobilindustrie und die Amazon-Lagerroboter stehen exemplarisch für diesen Sachverhalt (Brodnig 2018; Knop/Jansen 2017).[2]
21Das Thema Robotik und Arbeit wirft einige fundamentale philosophische Fragen auf: Welchen Wert hat Arbeit für uns? Unter welchen Bedingungen sind wir bereit, welche Tätigkeiten in welchem Ausmaß auszuüben? Was ist gute und was ist entfremdete Arbeit? Welchen Wandel insbesondere auch in der Bildung müsste eine Gesellschaft durchlaufen, um die zukünftigen Generationen auf das Zeitalter der Automation hinreichend vorzubereiten? Mit welchen Herausforderungen werden wir an der Schnittstelle von Arbeit im Zeitalter der Automation, Robotik und Menschen, die sich als Frauen definieren, konfrontiert? Wie lässt sich eine Gesellschaft ohne Arbeit und etwa auf der Grundlage eines bedingungslosen Grundeinkommens denken?
Die Philosophin Hannah Arendt hat in ihrem Buch Vita activa oder Vom tätigen Leben (1960) zwischen drei menschlichen Tätigkeitsweisen differenziert: Arbeiten als alles, was wir für unser Überleben tun (die Produkte des Arbeitens werden konsumiert), Herstellen als all das, was wir mit einer leitenden Vision planend tun (die Ergebnisse des Herstellens sind nicht zum Verzehr gedacht), Handeln als das, was Menschen nur gemeinsam sprechend tun, alles, was nicht eigentlich geplant oder produziert werden kann, sondern spontan zwischen Menschen entsteht und in letzter Konsequenz unkontrollierbar ist. Alle drei Weisen des Tätig-Seins sind gleichermaßen wichtig und lassen sich nicht aufeinander reduzieren, Arbeiten, Herstellen und Handeln sind Teil des menschlichen Daseins. Umso tragischer ist, so Arendt, der Schwund des Handelns und die allgemeine Transformation der Herstellungs- in Arbeitsprozesse, die sie in Vita activa für die Gegenwart konstatiert. Die Menschen – so Arendts kapitalismuskritisch treffende Diagnose – würden nichts mehr im eigentlichen Sinne tun oder herstellen, was Dauerhaftigkeit und die Stabilität der menschlichen Welt garantiere, sondern all ihr Treiben verlöre sich letztlich in endlosen Konsumschleifen. Der letzte Schritt dieser bereits zu einer Arbeitergesellschaft degenerierten Ansammlung von Stakeholdern, die nicht wirklich mehr miteinander lebten und handelten, sondern nur noch nebeneinander her vegetierten, ist die Abgabe der Arbeit 22an die Maschinen. Was könnte schlimmer sein, fragt Arendt, als eine Welt, in der wir bereits vergessen haben, wie wir die Zeit, in der wir nicht arbeiten, überhaupt verbringen wollen? Was weiß das Animal Laborans, zu dem der Mensch der Gegenwart verflacht ist, mit sich anzufangen, wenn man ihm nun auch noch seine Arbeit nimmt (2014 [1960]: 12-13)?
Anhand dieser kurzen Ausführungen zeigt sich, inwiefern die ethischen Fragen, die sich im Sektor der Industrierobotik und ganz allgemein in der Auseinandersetzung mit dem Thema Robotik und Arbeit stellen, auf Herausforderungen der modernen Massengesellschaft antworten, die unabhängig von der Roboterethik bestehen. Angesichts der umfassenden Einführung artifizieller Systeme in die Arbeitswelt werden diese Probleme allerdings in bislang nicht dagewesener Weise akut.[3]
Autonomes Fahren: Seit einigen Jahren erhält die Debatte um autonome Fahrassistenzsysteme auch im deutschsprachigen Raum vermehrt Aufmerksamkeit, denn es scheint absehbar, dass schon bald selbstfahrende Fahrzeuge das Straßenbild prägen werden.[4] Dabei ist es mittlerweile üblich, von fünf Stufen des automatisierten Fahrens zu sprechen: assistiertes Fahren, das derzeit bei den meisten Autos etwa in Form eine Tempomats bereits möglich ist, teilautomatisiertes Fahren, hochautomatisiertes Fahren, vollautomatisiertes Fahren sowie schließlich fahrerloses Fahren (Dahlmann 2016). Bislang schreibt das seit 1968 international gültige Wiener Übereinkommen über den Straßenverkehr den Fahrzeugführerinnen und -führern explizit die uneingeschränkte und dauernde Kontrolle des Fahrzeugs vor. Doch die seit 2014 an dem Wiener Abkommen vorgenommenen Modifikationen sollen das teilautomatisierte Fahren (zweite Stufe des automatisierten Fahrens) in naher Zukunft ermöglichen. Seit 2016 sind selbstfahrende Autos zulässig, die zu jeder Zeit durch die Fahrzeugführer*innen überstimmt und abgeschaltet werden können (Hilgendorf 2018a, 2018b, 2018c).
Das autonome Fahren verspricht die radikale Reduktion von 23Unfällen im Straßenverkehr, die zu etwa 90 Prozent auf menschliches Versagen zurückgehen. Aber auch die besten autonomen Autos (so die realistische Einschätzung) werden Unfälle verursachen, allein aufgrund von Materialversagen. Auch können Fehler in der Software dazu führen, dass das Fahrzeug zu stark abbremst oder beschleunigt. Um Kollisionen im Straßenverkehr zu vermeiden, halten die Verkehrsordnungen vieler Länder die Fahrerinnen und Fahrer zu einem rücksichtsvollen und vorsichtigen Fahrverhalten an. Dies kann immerhin in einem bestimmten Ausmaß gelernt und geübt werden, wenn dadurch auch Spontanität und reflexartiges Reagieren in brenzligen Situationen nur äußert bedingt kalkulierbar und gegebenenfalls vermeidbar sind. Autonome Autos müssen über moralische Prinzipien verfügen, die man ihnen zuvor einprogrammieren muss, um bei drohender Gefahr im Straßenverkehr über das angemessene Fahrmanöver entscheiden zu können. Das bedeutet, dass, neben der Schwierigkeit, die nahezu unübersehbare Zahl von Szenarien im Straßenverkehr zu erfassen, im Vorhinein moralische Grundsatzentscheidungen zu treffen sind. So ist beispielsweise ein Auto, das die Sicherheit seiner Insass*innen über alles andere stellt, gesellschaftlich ebenso wenig akzeptabel wie ein Fahrzeug, das generell seine Passagiere opfert, um andere Verkehrsteilnehmerinnen und -teilnehmer zu retten. Zu einer Beantwortung der ethischen Fragen, die in das autonome Fahren involviert sind, wurde in Deutschland die weltweit erste Ethikkommission zum autonomen Fahren geschaffen, die 2017 ihren ersten Bericht vorlegte.
Im Mittelpunkt der Diskussion um die ethischen Grundsätze für das autonome Fahren steht gegenwärtig das sogenannte Trolleyproblem, das auf ein philosophisches Gedankenexperiment von Philippa Foot beziehungsweise auf die Strafrechtler Hans Welzel und Karl Engisch[5] zurückgeht (Engisch 1930; Foot 1967; Welzel 1951). Das Trolleyszenario ist ein beliebter Referenzpunkt in der Roboterethik, insbesondere in den beiden traditionellen Arbeitsfeldern (Kapitel 2.1 und 2.2), und findet in der Gegenwart vor allem in der Debatte um autonome Fahrassistenzsysteme erneut großen Anklang, wenn es dort auch häufig leider als eine Art Rätsel missverstanden wird, das man lösen muss, bevor man weiter über die 24mögliche Einführung autonomer Autos nachdenken kann. Das Gedankenexperiment befragt uns allerdings lediglich über unsere Intuitionen – genauer darüber, ob wir einen außer Kontrolle geratenen Zug, der eine Gruppe Menschen zu überrollen droht, absichtlich so umleiten sollten, dass nur eine einzelne Gleisarbeiterin beziehungsweise ein einzelner Gleisarbeiter zu Tode kommt. Dahinter steht unter anderem die Überlegung, ob man in einer Gefahrensituation den Tod einiger Menschen in Kauf nehmen darf, um viele zu retten.Was hier den Ausschlag geben soll, wurde immer wieder in verschiedenen Varianten und mit der Charakterisierung der beteiligten Personen nach spezifischen Merkmalen wie etwa Alter, Geschlecht und Beruf überlegt. Sobald selbstfahrende Autos verbreitet sind, könnte dieses Problem auch jederzeit im Straßenverkehr auftreten (wenn auch die Ethikkommission diskriminierenden Szenarien mit guten Gründen einen ersten Riegel vorgeschoben hat; dazu weiter unten). Man denke etwa an ein autonomes Auto, vor dem plötzlich drei Kinder die Straße überqueren. Ein Zusammenprall erscheint unvermeidlich, da der Bremsweg des Fahrzeugs zu lang ist und es aufgrund parkender Autos nicht nach rechts ausweichen kann. Ein Ausweichen auf die Gegenfahrbahn würde allerdings zu einer Kollision mit einer älteren Fahrradfahrerin führen. Was ist in einer solchen Situation zu tun? Für welches Manöver sollte sich der Algorithmus entscheiden? Bislang trifft die Fahrerin beziehungsweise der Fahrer solche Entscheidungen reflexartig, da sie oder er keine Zeit zum Durchdenken ethischer Probleme hat. Beim autonomen Fahren entscheiden hingegen die zuvor einprogrammierten Algorithmen.
Ein (utilitaristischer) Zugang im geschilderten Fall besteht darin, die Fahrradfahrerin zugunsten der drei Kinder zu ›opfern‹, da man möglichst wenige Menschenleben beklagen möchte und zudem die Kinder im Unterschied zur Fahrradfahrerin ihr ganzes Leben noch vor sich haben. Diese Aufrechnung von Menschenleben verstößt jedoch nicht nur gegen die moralische Intuition vieler Menschen, sondern auch gegen das im Grundgesetz verankerte Prinzip der Menschenwürde. Menschen sind aufgrund ihrer Würde unendlich viel wert, und Unendlichkeit lässt sich nicht addieren. Die Überzeugung, Menschenleben nicht gegeneinander aufzusummieren, geht auf den Philosophen Immanuel Kant zurück, ist ein Grundgedanke der deontologischen Ethik (steht 25als solche also dem utilitaristischen Denken entgegen) und fester Bestandteil zahlreicher Rechtssysteme. Allerdings stößt auch diese Position an die Grenzen der moralischen Intuition, was sich zum Beispiel dann zeigt, wenn den möglichst wenigen zu rettenden Menschen möglichst viele geopfert werden. Irgendwann sehen sich viele Menschen zu dem Eingeständnis genötigt, dass die Anzahl doch irgendwie relevant ist, und verfallen damit dem utilitaristischen Kalkül, das die zu opfernde Person instrumentalisiert. Was sollten die Hersteller*innen von selbstfahrenden Autos tun? Wie sind die Algorithmen zur Fahrzeugsteuerung zu programmieren? Die Ethikkommission hat jedenfalls darauf hingewiesen, dass von der utilitaristischen Quantifizierung von Menschenleben anhand gleich welcher Kriterien unbedingt abzusehen ist, und entspricht damit dem im Grundgesetz verankerten deontologischen Prinzip von der Unantastbarkeit der menschlichen Würde.[6]
Bereits heute sind die Fahrzeugherstellerinnen und -hersteller darauf bedacht, dass es erst gar nicht zu Unfällen im Straßenverkehr kommt. Die Steuerungssysteme sind defensiv programmiert, das heißt, dass im Zweifel sofort gebremst und die Geschwindigkeit stets der Verkehrssituation angepasst wird. Kommt es dennoch zu einer Gefahrensituation, sollte in Übereinstimmung mit dem Grundgesetz sowie den Leitlinien der Ethikkommission keine in der Programmierung verankerte Bemessung der möglichen Opfer anhand gewisser Qualitäten erfolgen. Stattdessen ist das Steuerungssystem so auszurichten, dass es auf ein sicheres Ausweichmanöver abzielt. Ist dies nicht möglich, sollte die Geschwindigkeit in der Fahrspur und damit die Kollision maximal reduziert, allerdings die ursprüngliche Fahrtrichtung beibehalten werden, unabhängig davon, wer in diesem Fall zu Schaden kommt.
Gerät ein selbstfahrendes Auto in einen Unfall, kann die lenkende Person nicht mehr haftbar gemacht werden. Doch auch der Algorithmus, der das Fahrzeug steuert, ist nicht schuldfähig – bleiben also nur die Hersteller*innen. Jedoch lässt sich retrospektiv eine Schadenverursachung durch das System kaum mehr auf die ursprüngliche Programmierung oder das spätere selbständige 26Dazulernen (das Trainieren durch Benutzung) zurückführen. Das Europaparlament arbeitet deshalb aktuell an einem Konzept, das es erlaubt, (einigen) Robotern, vergleichbar juristischen Personen, einen »Status als elektronische Personen« zuzuschreiben (Europäisches Parlament 2014-2019), analog zu einer Aktiengesellschaft, die ja ebenfalls kein Mensch, aber gleichwohl handlungs- und haftungsfähig ist. Selbstlernende Systeme müsste man öffentlich registrieren, über ein Vermögen verfügen lassen und mit einer obligatorischen Haftpflichtversicherung ausstatten. Man wird künftig vermutlich vermehrt über eine solche electronic personhood nachdenken, je mehr Situationen auftreten, in denen das bestehende Recht nicht mehr ausreicht.[7]
Medizin-, Therapie- und Pflegerobotik: Schon heute werden zahlreiche Assistenzsysteme eingesetzt, die die in den Sektoren Medizin, Therapie und Pflege tätigen Menschen in ihrer oftmals körperlich und geistig überaus fordernden Arbeit unterstützen. Von Hebe- und Transportsystemen über Programme, die in der Entscheidungsfindung hinsichtlich eines Einsatzes von Medikamenten beraten (Anderson u. a. 2006a, 2006b), bis hin zu Therapierobotern, die die Kommunikation mit den Patient*innen fördern – ein sich seit gut 15 Jahren beständig entwickelndes Feld, in dem Roboter auf vielfältige Weise eingesetzt werden, ist etwa die Therapie von Kindern mit Autismus (Richardson u. a. 2018; kritisch Elder 2017) –, existiert ein breites Spektrum an artifiziellen Systemen für eine Vielzahl unterschiedlicher Aufgaben in Krankenhäusern, Therapie- und Pflegeeinrichtungen (Ichbiah 2005: 350-389; Khetrapal 2019; Klein u. a. 2018; Weidner u. a. 2015). Das DaVinci-Operationssystem assistiert beispielsweise bei der Durchführung minimalinvasiver urologischer und gynäkologischer Operationen und wird derzeit an mehreren deutschen Universitätskliniken eingesetzt. Jedoch handelt es sich dabei im engen Sinne gar nicht um einen Roboter, denn die vier Arme der Maschine, die über eine von einer Chirurgin oder einem Chirurgen bediente Steuerkonsole gelenkt werden, lassen sich weder programmieren, noch sind sie in der Lage, eigenständig zu agieren. Damit verfügt das DaVinci-Sys27tem noch nicht einmal in einem schwachen Sinn über Autonomie (die Bedingung e); siehe Einleitung und Kapitel 2.1), unterliegt es doch der permanenten Kontrolle der Chirurgin beziehungsweise des Chirurgen. Die artifizielle Robbe Paro ist hingegen ein Beispiel für einen echten Pflegeassistenzroboter. Paro ist einer jungen Sattelrobbe nachempfunden und wird vorrangig in der (Alten-)Pflege und (Alten-)Therapie assistierend genutzt, denn insbesondere demenzkranke Menschen, die dazu neigen, sich von ihren menschlichen Betreuer*innen zu isolieren, öffnen sich ihr gegenüber. Paro reagiert auf äußere Reize, kann seinen Kopf, Schwanz sowie die Augen bewegen, Namen lernen und robbenähnliche Geräusche von sich geben (Ichbiah 2005: 406-407; Schulz/Barth 2006; Shibata/Wada 2011; Wada u. a. 2008).
Über die Arbeit mit Assistenzsystemen hinaus werden derzeit Pflegesysteme entwickelt, die direkt in den Privathäusern von Patientinnen und Patienten, älteren beziehungsweise geistig oder körperlich eingeschränkten Menschen zum Einsatz kommen sollen. Solche Roboter (wie etwa der Care-O-bot; siehe dazu Ackermann 2015; Misselhorn 2018a: 137), die für eine Vielzahl an Tätigkeiten in Haushalt und Pflege vorgesehen sind, existieren bislang allerdings lediglich als Prototypen.
Insgesamt steht die Robotik in Medizin, Therapie und Pflege exemplarisch für den Großbereich der Social Robotics (Breazeal 2002; Duffy 2008, 2004; Fong u. a. 2003; Markowitz 2015; Seibt u. a. 2016). Damit sind insbesondere solche Maschinen gemeint, die sich in direkter Interaktion mit Menschen befinden und zumeist in deren intimem Nahbereich die Rolle von artifiziellen Gefährt*innen[8] übernehmen sollen. Bezüglich der unmittelbaren Nähe zu ihren menschlichen Nutzerinnen und Nutzern sowie der delikaten Aufgaben, mit denen soziale Roboter vor allem in Medizin, Therapie und Pflege betraut sind, wie etwa die Assistenz beim Toilettengang, die Überwachung von Wasch- und Hygienetätigkeiten sowie das Umlagern, ergeben sich mehrere ethische Fragen: Wie autonom sind Patient*innen, deren Einnahme von Medikamenten etwa durch ein artifizielles Pflegesystem überwacht wird? Wird ihre Autonomie hinsichtlich einer freien Entscheidung zur Einnahme 28oder Verweigerung der Medikamente gegebenenfalls eingeschränkt zugunsten ihrer Autonomie, sich frei in ihrer eigenen Wohnung bewegen zu können und nicht an ein Krankenhausbett oder Altenpflegeheim gebunden zu sein, wo sie rund um die Uhr überwacht werden würden? Wie sollte sich ein Roboter im Fall einer Verweigerung konkret verhalten (sollte er etwa die Patientin oder den Patienten zwingen, ihre beziehungsweise seine Medikamente einzunehmen oder Verwandte oder Ärzt*innen benachrichtigen)?
Weitere ethische Herausforderungen betreffen das Design der Maschinen: Die menschliche (Anthropomorphismus; Kapitel 2.2) oder tierische (Zoomorphismus) Gestalt sozialer Roboter begünstigt die von den Konstrukteurinnen und Konstrukteuren durchaus gewollte Möglichkeit einer emotionalen Bindung an die Maschinen. Es stellt sich damit allerdings die Frage, inwiefern sich ein artifizielles System überhaupt in einem genuinen Sinn als Gegenüber, mit dem man eine Beziehung oder gar Freundschaft eingehen kann, verstehen lässt und ob diejenigen, die behaupten, sich in einer solchen Beziehung zu befinden, nicht eigentlich einen Kategorienfehler begehen, indem sie dem unbelebten Objekt Kompetenzen zuschreiben, über die es schlicht nicht verfügt. Ebenfalls über ihre menschliche oder tierische Gestalt verstärkt werden Gefühle der Scham und des Vertrauens (Kapitel 3.1), die mit Blick auf Roboter eventuell ungerechtfertigt sind (das bleibt zu diskutieren), da es sich wie gesagt um künstliche Artefakte handelt, die weder verstehen, was Scham ist, noch angemessen darauf zu reagieren in der Lage sind. Daher ist es vielleicht auch übertrieben, ihnen zumindest in einem starken Sinn Vertrauen entgegenzubringen – allenfalls noch Materialvertrauen, das man metaphorisch auch in alle anderen technischen Werkzeuge zu investieren bereit ist, ließe sich, so die Kritik, rechtfertigen.
Weitere ethische Fragen betreffen die Sicherheit der Patientendaten, die von den Pflegesystemen gespeichert werden, sowie die mit Blick auf die Industrierobotik angesprochenen Themen einer angemessenen Gestaltung der Pflegeberufe beziehungsweise einer Auseinandersetzung mit der Frage, ob und unter welchen Bedingungen die Tätigkeiten in Medizin, Therapie und Pflege auch weiterhin vorrangig von Menschen ausgeübt werden sollten. Ebenso wie mit Blick auf den ersten Bereich der Robotik sind damit auch hier (feministische) Herausforderungen angesprochen, vor die sich 29insbesondere Menschen, die sich als Frauen verstehen, durch die Automatisierung und Digitalisierung bestimmter Berufe gestellt sehen.[9]
Sexrobotik: Für die meisten Menschen mag die Sexrobotik wie pure Science-Fiction klingen. In der Tat existieren jedoch immerhin bereits einige große internationale Unternehmen, die Sexroboter serienmäßig herstellen und vertreiben. Der Robotiker Douglas Hines hat 2010 mit Roxxxy den weltweit ersten Sexroboter auf den Markt gebracht.[10] Roxxxys interaktive Fähigkeiten wie »zuhören beziehungsweise verstehen was du sagst, sprechen, deine Berührung spüren, ihren Körper bewegen, beweglich sein sowie Gefühle und eine Persönlichkeit haben« zeichnen sie als einen sozialen Roboter und die Sexrobotik im Allgemeinen als Spezialbereich der oben beschriebenen Social Robotics aus. Obwohl Roxxxy durch die Interaktion mit ihren Nutzer*innen eine eigene Persönlichkeit (beziehungsweise so viele unterschiedliche Rollen wie gewünscht) zu entwickeln in der Lage sein soll, kann man ihr auch eine von fünf vorprogrammierten Persönlichkeiten geben, nämlich Wild Wendy, S&M Susan, Mature Martha, Frigid Farah und Young Yoko. Daneben lässt sie sich mit unterschiedlichen Frisuren und Haarfarben ausstatten. Neben den oben genannten Fähigkeiten soll Roxxxy auch imstande sein, eine »Unterhaltung zu führen«, »ihre Geschlechtsteile [zu] bewegen, während sie ›benutzt‹ wird« und sogar »einen Orgasmus [zu] haben« (TrueCompanion 2019). Ihr aktueller Preis liegt bei knapp $ 10 000. Laut Homepage des Herstellers existiert auch eine männliche Variante, Rocky, über die allerdings nahezu keine Informationen bereitgestellt werden.
Auch Matt McMullens Sexroboter Harmony wird als »perfekte Gefährtin« beschrieben, die nach Aussehen und Persönlichkeit den individuellen Bedürfnissen ihrer Nutzerinnen und Nutzer ange30passt werden kann. Noch mehr als Roxxxy ist Harmony »in vielen Gesprächsthemen bewandert und dazu gemacht, Unterhaltungen zu führen. Auch lernt sie mit der Zeit« (Realbotix 2019; siehe auch Danaher 2017a: 7). Auch für Harmony kann man zwischen zehn vorprogrammierten Charakteren wählen, sie kostet mehr als $ 5000, und es sollen auch männliche sowie Transgender-Versionen dieses Sexroboters existieren.
Der Sexroboter Samantha, der über ähnliche Features verfügt wie Roxxxy und Harmony, wurde unlängst mit einem »Moralkodex« und damit der Möglichkeit versehen, »Nein« zu sagen. Und schließlich wäre noch LumiDolls Sexroboter Kylie zu nennen, der aufgrund überdimensioniert großer Brüste auch als Kuh-Kylie bekannt ist (Mlot 2018; Morgan 2017).
Mit der Entwicklung von Sexrobotern gehen zahlreiche ethische Fragen einher, die sich nicht auf den feministischen Diskurs beschränken, auch wenn dieser zuweilen von einigen prominenten Vertreter*innen dominiert wird. Die Roboterethikerin Kathleen Richardson hat beispielsweise 2015 die Campaign Against Sex Robots ins Leben gerufen und vertritt ein radikal-feministisches Argument gegen Sexroboter im Allgemeinen, denn sie versteht diese »als Teil einer größeren Kultur der Ausbeutung und Objektifizierung, wodurch eine Kultur der Vergewaltigung bestärkt und der Handel mit Sex normalisiert wird« (Murphy 2017; siehe auch Murray 2017). Durch Roboter wie Roxxxy, Harmony und Kylie, insbesondere veranschaulicht an Roxxxys fünf (und Harmonys zehn) Persönlichkeitsmodi sowie an Kylies diskriminierendem Spiznamen, werden in der Tat höchst fragwürdige Geschlechterstereotype perpetuiert und heteronormative, patriarchale, Frauen instrumentalisierende und diskriminierende Machtstrukturen bestätigt. Denn natürlich, so ließe sich mit Richardsons Argumentation weiterdenken, ist Samanthas sogenannter Moralkodex kein echter Kodex, sondern kann im Gegenteil Nutzerinnen und Nutzer sogar dazu einladen, sich über das »Nein« hinwegzusetzen, also Vergewaltigung als gewöhnlichen Ausdruck gelebter Sexualität bestätigen. Spätestens hier wird die in der Einleitung bereits angesprochene Notwendigkeit ethischer Pflicht- und Weiterbildungskurse für angehende sowie bereits als solche tätige Ingenieur*innen offensichtlich (siehe hierzu auch Kapitel 4).
Richardsons Position konträr entgegen stehen einige Denkerinnen und Denker (auch wenn diese die genannten diskriminieren31den Genderstereotypen in der Konstruktion existierender Sexroboter keinesfalls bestreiten würden) wie etwa Vanessa de Largie. Die australische Schauspielerin und Sexkolumnistin vertritt insofern ein liberal-feministisches Argument, als ihr zufolge Sexroboter Frauen gerade neue Möglichkeiten geben, sich von existierenden patriarchalen und verobjektivierenden Machtstrukturen zu befreien. De Largie spricht zudem aus leidvoller Erfahrung; eine Vergewaltigung verarbeitete sie mit ihrer Show Every Orgasm I Have Is A Show Of Defiance To My Rapist. Sie ziehe es vor, »wenn eine Person ihre Vergewaltigungsfantasie mit einem Sex-Bot auslebt und nicht mit einem Menschen« (de Largie 2017). Ein ähnliches Argument wird mit Blick auf Pädophilie gemacht; vielleicht ließen sich Sexroboter in Kindergestalt als Therapieassistenzsysteme einsetzen, so wie auch Sexroboter im Allgemeinen menschliche Therapeut*innen in ihrer Arbeit mit beispielsweise Traumapatientinnen und -patienten unterstützen könnten. Menschen mit bestimmten körperlichen Einschränkungen wären erst mit Sexrobotern in der Lage, ihre sexuellen Bedürfnisse zu befriedigen, wie vielleicht auch misanthropische Menschen gar in Sexrobotern erstmals eine angenehme und sie zufriedenstellende Form des Gegenübers finden (ÄrzteZeitung 2018; Bendel 2017b; Di Nucci 2017; Eichenberg u. a. 2019; McArthur/Danaher 2017; kritisch Strikwerda 2017).
Schließlich stellen sich mit Sexrobotern ähnliche Fragen hinsichtlich der Möglichkeit, mit ihnen Beziehungen einzugehen, wie bereits mit Blick auf Therapie- und Pflegeroboter. Auch knüpfen sie an das Themenfeld Robotik und Arbeit hinsichtlich der Herausforderungen, vor die beispielsweise die Eröffnung von Sexroboter-Bordellen die Sexindustrie und die dort tätigen Menschen stellt.[11]
Militärrobotik: In der Militärrobotik überlagern sich zwei Bereichsethiken, nämlich ein Anwendungsfeld der Roboterethik (die sich mit dem Roboter als moralischem Gegenüber befasst) und die Militär- oder Kriegsethik (als Bereichsethik für einen Sonderbereich des menschlichen Lebens; siehe Einleitung). Die folgenden knappen Ausführungen befassen sich allerdings lediglich mit Aspekten, die Erstere betreffen.
32Autonome Waffensysteme werden für die Bewegung in der Luft, dem Meer und auf dem Land entwickelt und stellen weltweit neben der Industrierobotik den Sektor in der Robotik dar, in den die meisten Gelder fließen.[12] Eines der jüngsten Großereignisse in der Debatte um Risiken, rechtliche und ethische Fragen hinsichtlich autonomer Waffensysteme stellte ein Treffen der United Nations Group of Governmental Experts (GGE) über letale autonome Waffensysteme (LAWS) im November 2017 dar, in dem ein etwaiges Verbot aktueller und zukünftiger autonomer Kriegstechnologien diskutiert wurde. Allerdings konnten keine abschließenden Richtlinien formuliert, sondern lediglich »die Notwendigkeit weiterer Gespräche festgestellt« werden (Misselhorn 2018a: 156). Die ethischen Herausforderungen in diesem Bereich lassen sich grob in zwei Fragenkomplexe einteilen: Wer trifft eine Entscheidung über das Agieren eines Roboters beziehungsweise wie lässt sich verhindern, dass Unbefugte die Kontrolle über die Roboter erlangen? Und: Wieviel Autonomie darf ein artifizielles System bekommen?
Das Entscheidungssubjekt in der Interaktion mit Kriegsrobotern: Für gewöhnlich unterscheidet die Debatte zwischen drei Kategorien der Einbindung von Menschen in den Entscheidungsprozess; Menschen sind entweder in the loop, on the loop oder out of the loop. In-the-Loop
