Informatikethik - Thomas Matzner - E-Book

Informatikethik E-Book

Thomas Matzner

0,0

Beschreibung

Informatikprodukte machen unser Leben angenehmer, können uns aber auch schaden. Was können Auftraggeber, Entwickler und Nutzer solcher Produkte tun, um die angenehmen Seiten auszuschöpfen und Schäden zu vermeiden? Wie schützen wir uns vor "fake news" aus unbekannten Quellen im Netz? Welche Regeln sollen für staatliche Überwachungsmaßnahmen gelten? Informatiksysteme bewerten unsere Kreditwürdigkeit, Berufsleistung und vieles andere. Wer ist dafür verantwortlich, dass dies seriös geschieht, und was müssen alle Beteiligten tun, um ihrer Verantwortung gerecht zu werden? Wie sicher muss ein autonomes Fahrzeug gemacht werden? Diese und viele anderen Fragen werden in diesem Buch behandelt, anhand von praktischen Fallstudien, aber auch auf dem Fundament der wissenschaftlichen Ethik. Es liefert keine Patentlösungen, führt seine Leser aber zu einer Denkweise, mit der sie ethische Fragen rund um die Informatik selbständig behandeln können und von tendenziöser Berichterstattung unabhängig werden. Das Buch wendet sich an alle, die Informatiksysteme beauftragen, bauen oder nutzen. Es setzt weder Vorkenntnisse in Informatik noch in Ethik voraus, sondern entwickelt die nötigen Grundlagen im Text selbst. Die vorgestellten Fallstudien eignen sich auch für den Unterricht an Schulen und Hochschulen.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 656

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Thomas Matzner ist Diplom-Informatiker und seit 1992 selbständig. Sein Hauptarbeitsgebiet ist die Konzeption von Informationssystemen. Er arbeitet in der Rolle des Requirements Engineers, Product Owners, Business Process Managers und Business Analysts.

„Viele in den Text eingeflossenen Urteile werden einigen Lesern übermäßig dezidiert erscheinen. Aber wenn die eine oder andere Stellungnahme den Leser zum Widerspruch reizt – um so besser. Philosophie – und erst recht Moralphilosophie – ist keine Lehre, sondern eine Tätigkeit. Kritik, Widerspruch und Auseinandersetzung sind ihr Lebenselement. Wenn es den Leser zu aktiver und rationaler Auseinandersetzung mit ihm ... herausfordert, hat dieses Buch eines seiner wichtigsten Ziele erreicht.“

(Birnbacher 2013, IX..X)

Thomas Matzner

[email protected]

Vorwort

Die Ethik ist eines der ältesten Wissensgebiete der Menschheit, die Informatik eines der jüngsten. Dass beide etwas miteinander zu tun haben, ist seit Bekanntwerden etlicher Datenskandale vor einigen Jahren ins breitere Bewusstsein gedrungen. Bezeichnend hierfür ist etwa ein Artikel (Randow 2014) im Politikteil einer großen Zeitung, der signalisierte, dass der Diskurs über Informatik nicht mehr auf eine kleine Schicht technikaffiner Menschen beschränkt sein soll, sondern ebenso von allgemeinpolitischer Bedeutung ist wie etwa der über die Energieversorgung oder die Reproduktionsmedizin.

Während andere ethische Fragen sich lebhaften öffentlichen Interesses erfreuen, man denke etwa an die Regelung zum Schwangerschaftsabbruch, ist die Beteiligung an Fragen der Informatikethik spürbar eingeschränkt. Die Europäische Datenschutzgrundverordnung etwa, 2018 in Kraft getreten und zwei Jahre zuvor verabschiedet, war bis zu ihrer Verabschiedung im Mai 2016 medial und öffentlich fast unbekannt. Ich habe bei Vorträgen Anfang 2016 die Frage gestellt, wer von den Anwesenden schon von ihr gehört hatte; das waren regelmäßig weniger als fünf Prozent. Einer der Gründe für das Desinteresse, zuallererst der Medien, in der Folge dann der breiten Bevölkerung, mag mangelnde Allgemeinbildung über Informatik sein. Lange Zeit galt sie als eine Spezialdomäne für Nerds, für die wenigen, die schon in der Schule für Mathematik geschwärmt hatten. Sie galt als unzugänglich für den Rest der Bevölkerung, die mit diesem Zustand auch zufrieden war, solange die Informatiker mit ihren Leistungen das Leben bequemer machten.

Nun ist durch die Datenskandale durchaus eine Gattung von Büchern, Artikeln und anderen Formaten entstanden, die eindringlich vor den Gefahren der Informatik warnen. Das führt dazu, dass viele Menschen allerlei Schreckensszenarien, vor allem durch Datenmissbrauch, kennen, sich jedoch in ihrem alltäglichen Handeln dadurch kaum beeinflussen lassen. Wie soll die Informatikbranche darauf reagieren? Soll sie ihr Handeln streng reglementieren oder alles beim Alten lassen, da sich die Mehrzahl der Mitbürger ja gut damit eingerichtet hat?

Ein Weg, die Schere zwischen Wahrnehmung des Risikos und Sorglosigkeit zu schließen, ist die Beschäftigung mit Informatikethik. Sie setzt grundlegendes Wissen über beide Disziplinen, Ethik und Informatik, voraus und kann dazu dienen, die Interessen der an einer Handlung Beteiligten miteinander abzugleichen. Dieses Buch versucht dafür eine Grundlage zu schaffen, indem es Informatik und Ethik erklärt und zwischen beiden eine Verbindung schafft, hauptsächlich durch die Behandlung von Fallbeispielen.

Von anderen Gebieten mit ethischer Bedeutung, etwa der Umweltverträglichkeit von Technik, kennen wir die Aufteilung der moralischen Verantwortung zwischen Herstellern und Nutzern. Hat etwa ein Auto zu hohe Verbrauchswerte, werden Hersteller und Käufer kritisiert. Das gilt in verstärktem Maß für die Informatikethik, da die Anforderungen an viele Produkte und Leistungen der Informatik nicht durch die Informatiker, sondern durch Nutzer oder andere fachfremde Personen definiert werden. Also ist Informatikethik keine reine Berufsethik für die Informatiker. Aus diesem Grund richtet sich dieses Buch an alle Menschen, unabhängig von deren Vorwissen über Informatik und Ethik. Die meisten von uns kommen als Nutzer von Informatiksystemen mit ihnen in Berührung. Wer im Berufsleben steht, kann leicht in die Situation kommen, Anforderungen an ein zu entwickelndes oder zu kaufendes Informatiksystem zu stellen, also in der Verantwortung des Auftraggebers zu stehen.

Bei der Themenauswahl ging es mir auch darum, zu zeigen, dass ethisches Handeln auch auf Gebieten von Bedeutung ist, die nicht im Rampenlicht der Öffentlichkeit stehen, bei ganz unauffälligen programmgesteuerten Abläufen in Wirtschaft und Verwaltung. Bei der Fülle möglicher Themen musste ich eine Auswahl treffen; entscheidend ist es, meinen Lesern eine Denkweise zu vermitteln, die sie zur Lösung von Fragen ihres eigenen Handelns anwenden können.

Ethik wird nicht im luftleeren Raum angewendet. Viele Betrachtungen werden zeigen, dass wir uns mit Lebensumständen und -erfahrungen rund um unser Handeln befassen müssen, um zu angemessenen Moralurteilen zu gelangen. Meine Erfahrungen habe ich vorwiegend in Deutschland gesammelt; deshalb spielen fast alle besprochenen Fälle hier oder könnten sich hier abspielen. Manche Überlegungen lassen sich auf Länder und Gesellschaften mit ähnlichen Wirtschafts-, Politik- und Wertesystemen übertragen. Einen Anspruch auf weltweite Anwendbarkeit erhebe ich nicht.

Explizit ausgeschlossen ist das Thema der Computerkriminalität. Betrug, Diebstahl und andere seit langem bekannte Straftaten sind zweifelsohne verwerflich, so dass auch bei Benutzung von Hilfsmitteln der Informatik keine erneute ethische Bewertung nötig ist. Ebenso ausgeschlossen ist die IT-Sicherheit, also die Frage, wie man sich gegen Angriffe und Missbrauch wehrt. Dieses Buch ist kein technischer Ratgeber.

Ein Anwendungsgebiet der Informatik mit ethischem Bezug ist das Anfertigen und Aufspüren von Plagiaten, daher hier ein paar Anmerkungen zur Entschärfung des Themas. Keinerlei Aussagen über allgemeine Ethik in diesem Buch sind meine eigene Erfindung. Sie sind freie, zumeist vereinfachte, Wiedergabe der Inhalte der zitierten Lehrbücher. Lernstoff über Informatik, wie man ihn im Studium erfährt, gebe ich wieder, ohne aus der Vielzahl von Lehrbüchern zu zitieren, die ihn enthalten. Auch meine Beschreibungen über die Art, wie Informatik in der Praxis betrieben wird, sind aus eigener Erfahrung, vielfältigem Austausch mit Fachkollegen und der Literatur gewonnen und mögen an vielen anderen Stellen gleich oder ähnlich publiziert worden sein. Kurzum: Für keine der Aussagen und Argumentationen in diesem Buch kann ich Originalität beanspruchen. Meine eigene Leistung ist das Zusammenfügen vieler bekannter und weniger bekannter Tatsachen zu einem Ganzen.

Olivier Ndjimbi-Tshiende danke ich für die Ermutigung, mich als anfangs Fachfremder aktiv mit moralphilosophischen Fragen zu befassen. Thomas Pehl und der Technischen Verbindung Genia sei gedankt für die erstmalige Gelegenheit, meine Gedanken einem Publikum vorzutragen und darüber intensiv zu diskutieren. Mein Kollege Michael Aschenbrenner hat weit mehr als 100 Verbesserungsvorschläge eingebracht. Ruth Stubenvoll hat mir wesentliche Hinweise zur Klärung der philosophischen Begriffe gegeben und eine Vielzahl von Verbesserungen angeregt. Christian Djeffal hat mir die entscheidenden Hinweise zur Aufdeckung des wahren Sachverhalts über den Kriminalfall Loomis gegeben. Thomas Sagstetter hat mir wertvolle Hinweise und Anregungen zu juristischen Themen geliefert. Ihnen allen sei herzlich gedankt – verbliebene Mängel gehen zu meinen Lasten.

In der zweiten Auflage wurden vorwiegend typografische und einige sprachliche Fehler korrigiert. Darüber hinaus wurden zwei unverzeihliche Versäumnisse behoben: die Definition der Begriffe Informatikethik und Informatiksystem.

München, Anfang 2020

Thomas Matzner

Inhalt

Überblick über die Grundlagen der Ethik

1.1 Ethik und Moral

1.1.1 Verhältnis moralischer zu nicht-moralischen Aussagen: Das Gesetz von H

UME

1.1.2 Moralisieren

1.1.3 Die Bedeutung präziser Sprache

1.2 Der Werkzeugkasten der Ethik

1.2.1 Die Rolle der Vernunft in der Moral

1.2.2 Pflichtethik

1.2.3 Konsequentialistische Ethik

1.2.4 Menschenrechte

1.2.5 Exkurs: Die Sphäre gemeinsamen Handelns

1.2.6 Exkurs: Unsicherheit von Handlungsfolgen

1.2.7 Das Letztbegründungsproblem

1.2.8 Diskursethik

1.2.9 Gesinnungsethik

1.2.10 Akteurs- und Institutionenethik

1.2.11 Exkurs: Whistleblowing

1.2.12 Moral und Recht

1.3 Zusammenfassung

Folgewirkungen mangelnder Sorgfalt

2.1 Folgen von Lücken in Regelwerken

2.2 Automatisierung versus personelle Abwicklung

2.3 Hersteller- und Nutzerverantwortung

2.4 Kritische Infrastrukturen

2.5 Der Kategorische Imperativ

2.6 Leistungen öffentlicher Stellen

Bestehende Moralsysteme für Informatiker

3.1 Ethische Leitlinien der GI

3.2 ACM Code of Ethics and Professional Conduct

3.3 Charta der Digitalen Grundrechte der Europäischen Union

3.4 Vergleich mit der ärztlichen Berufsethik

3.5 Zusammenfassung

Überwachung durch Staatsorgane

4.1 Vom Rechtsstaat zum Orwell-Staat

4.2 Generalverdacht

Das neue Veröffentlichen

5.1 Ausgangspunkt: Das alte Veröffentlichen

5.1.1 Zugangswege zum alten Veröffentlichen

5.1.2 Reichweite alter Veröffentlichungen

5.1.3 Wirkung von Veröffentlichungen

5.1.4 Freie Meinungsäußerung

5.2 Der Schritt zum neuen Veröffentlichen

5.2.1 Zugangswege zum neuen Veröffentlichen

5.2.2 Reichweite neuer Veröffentlichungen

5.2.3 Meinungsfreiheit beim neuen Veröffentlichen

5.2.4 Die neue Qualität des Veröffentlichens

5.3 Selektion von Inhalten

5.3.1 Illegale Inhalte

5.3.2 Legale, aber unerwünschte oder schädliche Inhalte

Begriffe und Schlagwörter rund um Algorithmen

6.1 Die „Macht der Algorithmen“

6.2 Algorithmen

6.3 Künstliche Intelligenz

6.4 „Big Data“

6.5 „Digitalisierung“

Entwicklung und Betrieb von Algorithmen

7.1 Rollen bei Softwareentwicklung und -betrieb

7.2 Softwareentwicklung

7.3 Betrieb softwaregestützter Verfahren

Ethische Grundüberlegungen des Algorithmisierens

8.1 Die Rolle des Einsatzzwecks

8.2 Beobachtbares Verhalten vs. innerer Ablauf

8.3 Regelgetriebene vs. datengetriebene Algorithmen

8.4 Menschliche vs. algorithmische Voraussagen

8.5 Pflicht zur Begründung

8.6 Verantwortung für algorithmische Verfahren

Entwurf einer Moral des Algorithmisierens

Einige Fallstudien

10.1 Kreditvergabe

10.2 Beurteilung der Berufsleistung

10.3 Algorithmen im Gerichtssaal

10.4 Rekurs: Die Bedeutung präziser Sprache

10.5 Autonomes Fahren

10.6 Automatisierte Kriegswaffen

Schlusswort

Verzeichnis der Fall- und Analogstudien

Liste der vorgeschlagenen Moralurteile

Glossar

Literatur

Namens- und Sachregister

Hinweis zur Typografie

Das Buch enthält eine Reihe von Fallstudien, an denen wesentliche Teile des ethischen Stoffs entwickelt werden. Sie sind grau unterlegt.

An einigen Stellen werden die Überlegungen zur Informatikethik durch Analogien aus anderen Lebensbereichen unterstützt. Dazu dienen Analogstudien, also Fälle, die sich nicht mit Informatik befassen, aber ähnliche Struktur aufweisen. Auch sie sind grau unterlegt.

Einer der Kernbestandteile des Buchs sind Vorschläge für Moralurteile. Sie sind typografisch hervorgehoben:

Beispiel für ein Moralurteil

1 Überblick über die Grundlagen der Ethik

Ethik ist ein Teilgebiet der Philosophie. Sie wird auch als Moralphilosophie bezeichnet; ich verwende durchgehend den Begriff Ethik. Ihre Kernfrage lautet in der berühmten Formulierung von Kant: Was soll ich tun?

Sie gliedert sich in zwei große Teilgebiete: die Allgemeine Ethik und die Angewandte Ethik. Allgemeine Ethik befasst sich, ohne ein spezifisches Anwendungsgebiet im Auge zu haben, mit der Frage, wie wir zu guten Regeln für unser Handeln kommen. Angewandte Ethik gliedert sich wiederum in Bereichsethiken für unterschiedliche Lebensbereiche, etwa Medizin, Technik, Medien, Politik oder Umgang mit Tieren. Dieses Buch befasst sich mit Informatikethik, also mit einer Bereichsethik, also mit Angewandter Ethik.

Informatik wird meist eingesetzt, um eine Wirkung in einem anderen Lebensbereich als der Informatik selbst zu erzielen. Informatiksysteme in Kliniken und Arztpraxen dienen der Medizin, in Unternehmen dienen sie wirtschaftlichen Zielen, in Behörden dienen sie etwa sozialen Zielen oder dem Rechtswesen. Um nun bei der Beschäftigung mit Informatikethik nicht eine Vielzahl anderer Bereichsethiken, eben etwa die Medizin-, Wirtschafts- oder Sozialethik mitbehandeln zu müssen und damit zu überfrachten, muss Informatikethik sinnvoll von diesen abgegrenzt werden. Informatikethik befasst sich mit ethischen Fragen, die durch den Einsatz von Informatiksystemen in diversen Lebensbereichen entstehen, nicht jedoch mit allen in diesen Lebensbereichen entstehenden ethischen Fragen. Wenn es etwa um eine Entscheidung einer Bank geht, welchen Kreditkunden bestimmte Kredite eingeräumt werden, ist es Sache der Informatikethik zu untersuchen, ob Informatiksysteme an dieser Entscheidung mitwirken dürfen und welche Bedingungen sie dazu erfüllen müssen. Nicht Gegenstand der Informatikethik ist die Frage, ob es überhaupt zulässig ist, Kredite zu vergeben und dies von der Bonität des Kreditnehmers abhängig zu machen.

Lehrbücher über Angewandte Ethik setzen meist eine Kenntnis der Allgemeinen Ethik voraus und verweisen zu Beginn auf entsprechende Lehrbücher. Für den Unterricht etwa an einer Hochschule ist dies das passende Vorgehen: zuerst die Grundlagen lernen, dann die Anwendung. Dieses Buch jedoch wendet sich an die Hersteller, Betreiber und Nutzer von Informatikprodukten und -leistungen, also an alle interessierten Leser. Ihnen soll nicht zugemutet werden, zunächst dieses Buch aus der Hand zu legen und ein anderes über allgemeine Ethik lesen zu müssen. Also entwickle ich die für meine Zwecke benötigten Grundlagen der Allgemeinen Ethik.

Darstellungen ausschließlich der Allgemeinen Ethik müssen zwangsläufig recht abstrakt formuliert sein, da ein konkretes Anwendungsgebiet fehlt. Darunter leidet manchmal die Verständlichkeit. Deshalb entwickle ich die allgemeinethischen Grundlagen stets an Beispielen aus der Informatikethik oder anderen Gebieten, wodurch eine Verschränkung von allgemein- und bereichsethischen Betrachtungen entsteht. Diese Verschränkung führt, so hoffe ich, zu einem verständlichen Text – allerdings auch dazu, dass die Darstellung der Allgemeinen Ethik über die Abschnitte verstreut ist. Deshalb wird hier zu Anfang ein grober Abriss der in diesem Buch behandelten Themen der Allgemeinen Ethik gegeben.

Ein Teilgebiet der Ethik ist die Metaethik; sie befasst sich mit der sprachlichen Gestalt von Moralurteilen. In Lehrbüchern steht sie oft am Anfang. Der Text dieses Buches ist auch ohne Ausführungen über Metaethik nachvollziehbar. Ich werde Moralurteile in diesem Buch stets so formulieren, dass sie auch ohne metaethische Vorbildung klar als solche erkennbar sind. Deshalb erübrigt sich eine Darstellung der Metaethik; allerdings ist ein wichtiges Grundprinzip, das in 1.1.1 vorgestellte Gesetz von HUME, der Metaethik zuzurechnen.

Die eigentliche Ethik ist in Gebiete aufgeteilt, die sich in der Art unterscheiden, wie man zu Moralaussagen kommt und was in ihnen beurteilt wird. In der Pflichtethik (deontischen Ethik) werden Handlungen beurteilt, als geboten, verboten, erlaubt, akzeptabel, zu missbilligen, oder ähnliches. Sie ist das erste, was den meisten Menschen zum Thema Moral einfällt: Gebote und Verbote der Art „Du musst...“ oder „Du darfst nicht...“. Sie ist für den Handelnden und den Beurteilenden einer Handlung einfach anzuwenden, allerdings starr und in Gefahr, Situationen über einen Kamm zu scheren, die einer differenzierten Betrachtung bedürften. Sie ist Gegenstand von 1.2.2.

Dieser Gefahr entgeht die konsequentialistische Ethik (Wertethik, teleologische Ethik), die Folgen von Handlungen bewertet. Da die meisten Handlungen mehrere Folgen haben, muss sie zweierlei leisten: einzelne Folgen von Handlungen mit Werten versehen und diese Werte gegeneinander abwägen. Für beide Aufgaben gibt es zwar kein allgemein anwendbares und allgemein akzeptiertes Verfahren. Dennoch ist konsequentialistische Ethik nützlich, weil sie zu intensiver Untersuchung der Folgen von Handlungen, der durch sie geförderten und beeinträchtigten Interessen der Beteiligten, anregt. Gerade für neuartige Moralgebiete wie die Informatikethik, in der sich noch keine konsensfähigen pflichtethischen Regeln herausgebildet haben, kann sie als Grundlage für nahezu alle ethischen Betrachtungen dienen. Neben ihrer Einführung in 1.2.3 zieht sie sich deshalb durch die Abschnitte nahezu des gesamten Buches.

Von der Gesamtheit der Folgen einer Handlung zu unterscheiden sind die vom Akteur erwünschten Folgen, seine Absichten. Sie werden in der Gesinnungsethik beurteilt. Für die Aufstellung einer Bereichsethik ist sie kaum geeignet, da sie das konkrete Ausformen der Moralurteile dem Handelnden überlässt, was in 1.2.9 näher ausgeführt wird. Sie spielt im Rest des Buchs deshalb kaum mehr eine Rolle.

Bezogen sich die letzten drei Begriffe auf den Gegenstand der Moralurteile, bezeichnet die Diskursethik ein Verfahren, zu ihnen zu gelangen. Sie beschreibt einen im Grunde demokratischen Gestaltungs- und Entscheidungsprozess, der jedoch in mancher Hinsicht auf einem idealisierten Bild menschlichen Verhaltens beruht. Ihre Möglichkeiten und Grenzen werden in 1.2.8 diskutiert.

Eine zentrale Stellung bei jeder Betrachtung Allgemeiner oder Angewandter Ethik nehmen die Menschenrechte ein. Sie geben eine gewisse Orientierung bei der Lösung moralischer Aufgaben, da sie anderen Interessen übergeordnet sind. Allerdings stellen sie uns in vielfältiger Weise vor die schwierige Aufgabe, zwischen mehreren von einer Handlung betroffenen Menschenrechten abzuwägen, weshalb Betrachtungen über sie neben ihrer Vorstellung in 1.2.4 sich über weite Strecken des Buches ziehen werden.

Ein zentrales Konzept der Ethik, sowohl in der akademischen Literatur wie auch im Alltag, ist die Gerechtigkeit. In der Wirtschaftsethik begegnet sie uns auf Schritt und Tritt, wenn es etwa um den für eine Arbeit angemessenen Lohn geht. Wenn auch die Informatik oft wirtschaftlichen Tätigkeiten dient, habe ich wirtschaftsethische Themen weitgehend vermieden, weil sie schon in reichhaltiger Literatur behandelt werden. Die Informatikethik im engeren Sinn macht wenig Gebrauch vom Gerechtigkeitsbegriff, so dass er nur am Rande in einigen Fallstudien vorkommt.

Ethik ist ein jahrtausendealtes Wissensgebiet; entsprechend unüberschaubar ist die Literatur. Im Gegensatz zu Gebieten wie Recht, Naturwissenschaften oder Mathematik folgen Darstellungen der Ethik kaum einem einheitlichen Schema. Manche Autoren gehen historisch vor und stellen die Ethiken berühmter Philosophen, etwa ARISTOTELES oder KANT, vor. Andere folgen einer Gliederung wie der oben verwendeten, die allerdings eine erhebliche Variationsbreite aufweist. Die Frage, was man gelesen haben muss, um das Gebiet der Ethik zu beherrschen, kennt also keine klare Antwort. Die Leser dieses Buches können deshalb nicht erwarten, en passant einen vollständigen Überblick über Allgemeine Ethik zu erhalten; die Ausführungen beschränken sich auf das für den hier verfolgten Zweck Notwendige. Wer sich also selbst inspiriert fühlt, solche Überlegungen aktiv weiterzubetreiben, sollte sich, etwa anhand der hier wiederholt zitierten Lehrbücher, eine breitere Wissensbasis verschaffen.

1.1 Ethik und Moral

„Unter Moral versteht man in der Neuzeit meist die Gesamtheit der Normen zur Regelung des Zusammenlebens, die in einer Gemeinschaft gelten oder gelten sollen. ... Normen sind Handlungsregeln in Form von Geboten oder Verboten wie etwa ‚Du sollst nicht Lügen!‘, ‚Du sollst Notleidenden helfen!‘ ...“ (Fenner 2010, 3)

Diese Definition bestätigt, was viele von uns sich wohl intuitiv unter Moral vorstellen. Gebote wie die genannten werden uns schon im Kindesalter beigebracht mit dem Hinweis, dass sie in der Gemeinschaft gelten, dass wir sie also befolgen müssen, um mit den Menschen in unserer Umgebung in Eintracht leben zu können. Die genannten Beispiele geben allerdings nicht die ganze Bandbreite möglicher Normen wieder; insbesondere können Gebote und Verbote auch mit Bedingungen versehen sein, die etwa ausdrücken, wann eine Notlüge erlaubt ist oder dass wir Notleidenden nicht helfen müssen, wenn wir uns dadurch selbst in große Gefahr begeben.

Diskussionswürdig ist allerdings die Forderung „in einer Gemeinschaft gelten oder gelten sollen“. Wenn wir sie streng interpretieren, sind etwa Gebote in einem Buch wie diesem nicht Gegenstand der Moral, weil bis zum Erscheinen des Buches gar keine Gelegenheit bestand, sie einer Gemeinschaft vorzustellen, also kaum angenommen werden kann, dass sie dort schon als gültig angesehen werden. Man müsste also bis zu dem Zeitpunkt einer positiven Entscheidung der Gemeinschaft das Thema anders benennen, etwa „Prä-Moral“ oder „Moralvorschlag“. Das wäre sprachlich umständlich und würde kaum Nutzen bringen. Ein Autor könnte nun beanspruchen, es sei ja gerade seine Absicht, dass seine Aussagen „in einer Gemeinschaft gelten sollen“. Wer würde sich nicht wünschen, dass seine Ansichten von vielen seiner Mitmenschen geteilt werden? Wenn man „gelten sollen“ aber so individualistisch auffasst, verliert der Begriff seinen Sinn, eben weil er aus Sicht des Autors immer zutrifft.

Andere Autoren fordern die Gültigkeit in einer Gemeinschaft nicht, so etwa:

„Im Mittelpunkt der Moral stehen Urteile, durch die ein menschliches Handeln positiv oder negativ bewertet, gebilligt oder missbilligt wird.“ (Birnbacher 2013, 13)

Diese Definition ist in zwei Hinsichten weiter gefasst als die von FENNER. Zum einen ist keine Gültigkeit in einer Gemeinschaft gefordert. Außerdem beschränkt sie sich nicht auf Gebote und Verbote. Wenn jemand ein Verhalten eindeutig missbilligt, kann man das als Verbot ansehen; etwa ist die negative Bewertung „Es ist eine schlechte Erziehungsmethode, Kinder zu schlagen“ kaum anders zu deuten als ein Verbot, eben dieses zu tun. Wenn jemand dann aber fortfährt: „Ein leichter Klaps auf den Hintern ist gerade noch annehmbar“, ist dies eine tendenziell negative Bewertung, aber weder Gebot noch Verbot.

Etwas später schränkt BIRNBACHER diese weit gefasste Definition durch eine Reihe von Merkmalen von Moralurteilen ein, etwa durch den Anspruch auf Allgemeingültigkeit:

„Moralische Urteile sind ihrem Gehalt nach mehr als bloße Meinungsäußerungen. Sie appellieren an die Vernunft und das Empfinden anderer und reklamieren eine über das einzelne Subjekt hinausgehende Verbindlichkeit.“ (Birnbacher 2013, 24)

Diese Einschränkung ist für den Autor eines Ethikbuchs bequemer als die von FENNER, denn sie erlaubt ihm, seine Auffassungen als Moralurteile zu bezeichnen, auch wenn sie noch keine breite Akzeptanz gefunden haben, vorausgesetzt, sie geben nicht nur eine persönliche Vorliebe des Autors wieder. Damit sind im übrigen auch Moralurteile eingeschlossen, die von den Menschen einer Gemeinschaft als fragwürdig oder gar verwerflich angesehen werden. Wenn etwa jemand meint, es wäre höchste Zeit, die Prügelstrafe in der Schule wieder einzuführen, wird er in unserer Gesellschaft wenig Anhänger finden, seine Meinung stellt aber dennoch ein Moralurteil dar.

Dieser nüchterne Begriff des Moralurteils verhält sich ähnlich wie andere Begriffe für menschliche Erzeugnisse. Wir bezeichnen etwas als „Lied“ oder „Bauplan“ unabhängig von seiner subjektiv empfundenen oder objektiv gemessenen Qualität sowie der Zustimmung, die es in einer Gemeinschaft genießt. Solche Merkmale geben wir neben dem Grundbegriff zusätzlich an und sprechen etwa von einem guten, aber vom Gemeinderat noch nicht verabschiedeten Bauplan für ein Rathaus oder von einem schlechten, aber sehr beliebten Lied.

BIRNBACHERs Definition schließe ich mich insoweit an, als ich jede Aussage, die eine Handlung mit einem Anspruch auf Allgemeinheit bewertet, als Moralurteil bezeichne. Den Begriff der Norm vermeide ich, da er wegen seines Gebrauchs in anderen Lebensgebieten, etwa der Technik, eine weitreichende, durch Verabschiedung gewonnene Verbindlichkeit suggeriert. BIRNBACHER folge ich auch bei der Ausweitung des Begriffs über Gebote und Verbote hinaus. FENNERs Definition folge ich hinsichtlich der Moral als Zusammenfassung von Moralurteilen; so bilden etwa die in diesem Buch vorgeschlagenen Moralurteile eine von mir entworfene und meinen Mitmenschen zur wohlwollenden Prüfung vorgelegte Moral. Zusammengefasst also:

Ein Moralurteil ist eine Bewertung einer Handlung mit dem Anspruch auf Allgemeingültigkeit. Eine Moral ist eine Sammlung von Moralurteilen.

Hier und im Rest dieses Buches verwende ich meist den Begriff Gebot für Gebote, Verbote und Erlaubnisse. Dies ist keine Einschränkung; denn alle drei lassen sich als Gebote formulieren:

Gebot: Man muss Handlung H tun.

Verbot: Man muss Handlung H unterlassen.

Erlaubnis: Es gilt nicht, dass man Handlung H unterlassen muss.

Ethik ist die Wissenschaft über Moralurteile. Sie enthält also selbst keine Urteile, sondern setzt sich etwa damit auseinander, wie wir zu solchen Urteilen gelangen, wie sie zueinander in Beziehung stehen, ob sie schlüssig sind.

Der Begriff der Ethik wird in der Praxis mancherorts verwendet, wo streng genommen der Begriff der Moral besser angebracht wäre. Wenn etwa ein Unternehmen eine Unternehmensethik für sich beansprucht, handelt es sich meist um eine Sammlung von Handlungsvorschriften, also Moralurteile, nicht jedoch um eine wissenschaftliche Auseinandersetzung. Also müsste man so ein Erzeugnis als Unternehmensmoral bezeichnen. Ähnliches gilt für den Begriff der Berufsethik. Auch dieses Buch enthält als zentrales Resultat eine Reihe von Handlungsempfehlungen, könnte also auch ebensogut den Titel „Informatikmoral“ tragen. Es hat sich jedoch in der Angewandten Ethik eingebürgert, etwa von Technik-, Medizin-, Medien- oder Wirtschaftsethik zu sprechen. Da die meisten Darstellungen, auch dieses Buch, beides enthalten, konkrete Moralurteile wie auch Erwägungen über sie, sind beide Bezeichnungen zutreffend, und ich schließe mich dem Sprachgebrauch der bestehenden Bereichsethiken an.

In welchen Situationen brauchen wir Moral? Es geht darum, Handlungen zu reglementieren, und diese Mühe nehmen wir nicht gerne ohne triftigen Grund auf uns.

Es müssen

mehrere

Personen von einer Handlung betroffen sein. Eine Handlung, deren Folgen nur den Akteur betreffen, kann für ihn selbst von entscheidender Bedeutung sein, ist jedoch nicht nach moralischen Regeln, sondern nach dem Nutzen für den Akteur allein zu beurteilen. Allerdings muss die Abwägung gründlich getroffen werden: Die Entscheidung, auszuwandern, betrifft oberflächlich nur den Akteur. Wenn es aber Familie und andere gibt, die mit dem Akteur verbunden sind, haben wir mehrere Beteiligte. Unter

Beteiligten

an einer Handlung verstehe ich alle, die an der Handlung selbst mitwirken, sowie alle, die von den Folgen der Handlung betroffen sind.

Die antike Ethik schloss die Lehre vom individuellen Wohlbefinden mit ein; auch heute wird eine solche als Individualethik bezeichnet, die für mehrere Personen dann genauer als Sozialethik. Wir konzentrieren uns auf Sozialethik, werden jedoch manchmal an Grenzfälle stoßen, an denen auch die Individualethik sich zu Sozialethik ausweitet.

Es muss zwischen den Beteiligten widerstrebende

Interessen

geben. Dient eine Handlung den Interessen aller Beteiligten, hat man moralisch nichts zu entscheiden. Wenn etwa A gerne kocht, B gerne isst, und A für A und B etwas Gutes kocht, haben wir kein moralisches Problem zu lösen. Man darf aber nicht vorschnell urteilen, dass eine Handlung für alle vorteilhaft ist. Wenn A erwartet, dass B sich revanchiert, B das aber unterlässt, weil er nicht gerne kocht, fällt das in den Bereich der Moral.

Moral dient also der Lösung von Interessenkonflikten mehrerer Beteiligter. Wenn eine Handlung das Interesse keines der Beteiligten tangiert – welchen Bedarf hätten wir dann an einer moralischen Regelung? Das ist die Abgrenzung etwa zur Religion, wo manche liturgischen Rituale ohne Bezug zu den Interessen der hier Lebenden ausgeführt werden, oder zum Brauchtum, wo bestimmte Traditionen aufrechterhalten werden, ohne jemandem zu nützen.

Wenn wir, etwa in politischen Diskussionen, über Interessen sprechen, begegnet uns oft der Begriff „Werte“. Sie klingen, als seien sie der alltäglichen Sphäre enthoben und sakrosankt. So liest man etwa, autoritäre Staaten hätten ein Problem damit, die Werte der EU zu akzeptieren. Das hört sich feierlich an, aber auch hinter unseren Menschenrechten stehen Interessen, was wir spätestens dann merken, wenn sich jemand anschickt, sie zu verletzen.

(Kutschera 1999, 71) folgend, verwende ich den Begriff des Werts nüchterner. Werte sind demnach Eigenschaften von Personen, Sachen oder Zuständen, die wir zu deren Beurteilung verwenden.

1.1.1 Verhältnis moralischer zu nicht-moralischen Aussagen: Das Gesetz von HUME

Zwischen Moralurteilen und anderen Formen von Aussagen besteht ein grundlegender Unterschied, der durch das folgende Beispiel illustriert wird.

Fallstudie 1: Internet-Gigant

Ein Informatiker hält einen kenntnisreichen und nützlichen Vortrag zu dem Thema: Welche Alternativen gibt es zu den Internet-Giganten – den Betreibern von Suchmaschinen, E-Mail-Diensten, Kommunikationsplattformen etc. –, die uns mit Werbung und Datenhandel belästigen?

Zur Motivation zeigt er die Geschäftsdaten eines dieser Internet-Giganten, nennen wir ihn IG. Obwohl IGs Nutzer kein Geld zahlen, nimmt IG jährlich durch Werbung pro Nutzer x Dollar ein; bei y Milliarden Nutzern ergibt das ein hübsches Sümmchen von x * y Milliarden Dollar. Deshalb, so schließt der Vortragende, soll man IG nicht nutzen, sondern sich nach Alternativen umsehen.

Die Zahlen x und y sind sorgfältig ermittelt; ich zweifle sie nicht an. Es mag auch sinnvoll sein, IG zu meiden. Dennoch stelle ich die Frage: Ist der Schluss, den der Vortragende zieht, gültig? Genauer:

Sei A die Aussage: IG nimmt mit y Milliarden Nutzern x * y Milliarden Dollar ein.

Sei B die Aussage: Man soll IG nicht nutzen.

Gilt: Aus A folgt B?

Die Antwort lässt sich überraschend leicht geben. Grundlage ist das Gesetz von David HUME (1711 - 1776), das in (Kutschera 1999, 31) präzise wiedergegeben ist. Ich verzichte hier auf die letzten begrifflichen Feinheiten (und die dazu nötigen, in der genannten Quelle zuvor angestellten Betrachtungen über Metaethik) und gebe das Gesetz in Alltagssprache wieder:

Aus Tatsachen können keine Moralurteile gefolgert werden und umgekehrt.

Die Gültigkeit von HUMES Gesetz ist einfach einzusehen. Die Schlussregeln der Logik erlauben es, aus einer Reihe von Aussagen andere abzuleiten. Dies geschieht durch wohldefinierte Transformationsregeln, etwa den Modus ponens:

Wenn A gilt, und aus A B folgt, gilt auch B.

Eine zusammenfassende Darstellung der Schlussweisen der Logik gibt etwa (Detel 2007). Jedenfalls führt keine Regel der Logik in einen Satz, der keine Moralurteile enthält, solche ein. Moralurteile erkennt man eindeutig an ihrer sprachlichen Form, etwa dem Vorkommen von Wörtern wie "muss", "darf", „akzeptabel“, „missbilligt“. Also kann ein Moralurteil nicht aus einer Menge von Tatsachen, egal wie groß diese ist, folgen.

Ich höre nun zwei Einwände entrüsteter Leser gegen diese Argumentation. Der erste lautet: Das mag nach den Regeln der formalen Logik zutreffen, und man mag damit in einer Masterprüfung in Philosophie eine gute Figur machen. Aber im realen Leben schließen wir ständig Gebote aus Tatsachen, niemand stört sich daran, und unser Leben wäre ärmer, wenn wir es nicht dürften.

Ein Bestandteil meiner Methode zur Entwicklung einer Informatikethik ist der Blick auf Lebensbereiche, in denen wir schon gefestigte moralische Vorstellungen haben, also das Aufsuchen von Analogien. Demgemäß gibt es Fallstudien wie die obige, die sich mit Informatikfragen, Analogstudien, die sich mit anderen Lebensbereichen befassen. Sehen wir uns ein offensichtliches Beispiel an:

Analogstudie 1: Tempolimit

Zu schnelles Fahren führt zu tödlichen Unfällen. Deshalb darf man nicht zu schnell fahren.

Nicht alle, aber etliche Menschen werden diesem Schluss zustimmen. Widerlegt er HUMEs Gesetz?

Um diesen Schluss logisch gültig zu machen, also das für ein Gebot nötige „darf“ einzuführen, ist eine zusätzliche Voraussetzung nötig. Sie ist für uns so selbstverständlich, dass wir vergessen, sie jedesmal explizit aufzuführen. Es handelt sich um das Tötungsverbot.

HUMEs Gesetz sagt nur aus, dass aus Tatsachen keine Gebote folgen. Aus Tatsachen und Geboten können jedoch weitere Gebote folgen. Hier greift der Modus ponens:

Man darf nicht töten.

Zu schnelles Fahren tötet.

Also darf man nicht zu schnell fahren.

Dieser Schluss ist also gültig. Doch er führt zum zweiten Einwand: HUMEs Gesetz mag gültig sein, ist aber in der Praxis unbedeutend. Zu einem unvollständigen Schluss

Tatsachen → Moralurteil

muss man lediglich das passende grundlegende Moralurteil in die Voraussetzungen mit aufnehmen, also

Tatsachen, moralische Voraussetzung → Moralurteil,

um eine gültige Schlusskette zu bilden. Eine passende moralische Voraussetzung wird sich wohl finden lassen; das Tötungsverbot etwa findet sich schon in den Zehn Geboten und den moralischen Regelwerken anderer Kulturen.

Doch so einfach ist es nicht. Es gibt nicht das passende Gebot, um ein anderes Gebot zu rechtfertigen. Sehen wir uns das Beispiel vom schnellen Fahren genauer an, stellen wir fest: Ich habe den vorigen Schluss nicht präzise genug geführt. Unsere Regeln für Tempolimits sind nicht durch das Tötungsverbot begründet, sondern durch ein strengeres Gebot:

Man darf kein zu hohes Risiko eingehen, zu töten.

Wäre die Regel nur durch das Tötungsverbot begründet, könnte sich ein Raser darauf berufen, richtig gehandelt zu haben, solange niemand getötet wurde. Doch das menschliche Leben ist uns so wichtig, dass wir in manchen – wenn auch nicht in allen – Lebensbereichen bereits ein erhöhtes Risiko ablehnen.

Und jetzt wird es kompliziert: Wie hoch darf das Risiko sein, und was ergibt sich daraus für das Zusammenwirken von Tatsachen und moralischen Geboten? Ich bleibe noch bei dem Tempolimit-Fall, weil die Tatsachen hier übersichtlich und den meisten Menschen bekannt sind.

Je höher das gefahrene Tempo, umso höher das Risiko eines Unfalls. Die Zahl der Unfälle ist so hoch, dass sich verlässliche Aussagen über Ursachen und Risiken ableiten lassen. Nehmen wir also an, die Unfallforscher legten uns ein Diagramm vor, das den Zusammenhang zwischen maximal gefahrener Geschwindigkeit und der Zahl tödlicher Unfälle zeigt. Dieses Diagramm stellt die Tatsachen dar. Wie aber kommen wir nun zu dem besten möglichen Gebot, d.h. dem Tempolimit und dem daraus folgenden Unfallrisiko, das wir uns wünschen sollen? Hier ist keineswegs klar, welches Gebot wir als Voraussetzung heranziehen sollen. Das Gebot kann etwa lauten:

Man darf die Zahl tödlicher Unfälle nicht über den Wert x erhöhen.

Mit dieser Voraussetzung kann man aus dem Diagramm ein maximal erlaubtes Tempo ableiten und kommt damit zu einem neuen Gebot, einer Spezialisierung des allgemeinen Gebots. Aber welchen Wert soll x haben? Es gibt zwei ausgezeichnete Werte, nämlich 0 und „beliebig viele“, die wegen ihrer bizarren Auswirkungen ausscheiden. Jeder andere Wert ist ein Kompromiss zwischen Nutzen des raschen Fortkommens und dafür in Kauf genommenen Todesfällen. Die wissenschaftlich belegbaren Tatsachen liefern uns kein Kriterium für die Entscheidung, welchen Kompromiss zwischen dem Nutzen motorisierten Verkehrs und der dadurch entstehenden Gefahr für Leben und Gesundheit wir als angemessen ansehen sollen.

Dieses Beispiel ist das erste von einer Form, die uns immer wieder begegnen wird. Die moralische Frage lautet hier nicht einfach: Darf man Handlung h tun? Stattdessen ist zu fragen: Bis zu welcher Grenze darf Handlung h ausgeführt werden? Die dabei entstehende Aufgabe nenne ich Grenzziehung. Sie ist gegenüber dem bloßen Gebieten oder Verbieten schwieriger zu lösen. Hat eine Handlung ausschließlich schädliche Auswirkungen, ist es naheliegend, sie zu verbieten; hat sie ausschließlich nützliche, fällt es leicht, sie zu erlauben. Bei Grenzziehungen fehlt hingegen ein klares Indiz für oder gegen die Handlung, an seine Stelle tritt ein Kontinuum möglicher Nutz- oder Schadwirkungen.

HUMEs Gesetz ist niederschmetternd, ähnlich den Unvollständigkeits- und Unentscheidbarkeitssätzen (Hoffmann 2013, 292) der Mathematik. Egal, wie viele Tatsachen der Welt wir kennen und wie gut diese wissenschaftlich fundiert sind – wir können daraus nicht ein einziges Moralurteil folgern. Die Tatsachen können uns helfen oder sogar unerlässlich sein für die Bildung eines Moralurteils. Aber die Grundentscheidung, was wir erreichen wollen, also was wir für erwünscht oder unerträglich halten, müssen wir in jedem Fall eigenständig treffen. Sie folgt nicht aus den Tatsachen, ist demnach nicht wissenschaftlich fundiert und nicht beweisbar.

HUME hat seinem Gesetz die Beobachtung vorausgeschickt, dass in Texten über moralische Fragen oft zu Beginn eine Reihe von Tatsachen dargestellt wird, worauf sich nach einiger Zeit das Wörtchen "soll" (oder ein ähnliches) einschleicht. Der flüchtige Leser könnte, wenn er Vertrauen in die Gültigkeit der Tatsachen hat, dieses Vertrauen auf das ihnen (nicht aus ihnen) folgende Gebot übertragen und es fälschlicherweise für wohlbegründet halten. Auch heute, in einer Zeit, die fortwährend nach Geboten sucht, ist eine Vielzahl von Moralargumentationen nach diesem Schema aufgebaut.

Für einen solchen Schluss von Tatsachen auf Gebote wird der Begriff naturalistischer Trugschluss verwendet; für den umgekehrten, ebenso ungültigen Schluss von Geboten auf Tatsachen der Begriff moralistischer Trugschluss. Letzterer wird uns in der Informatikethik selten begegnen; er tritt gemäß (Bischof 2012, 16) etwa dann auf, wenn aus dem Gebot, Frauen und Männer als gleichwertig zu schätzen, geschlossen wird, es dürfte keinerlei tatsächlichen Unterschied zwischen Frauen und Männern geben. Der naturalistische Trugschluss begegnet uns im täglichen Leben, auch bei der Beurteilung von Sachverhalten der Informatik, auf Schritt und Tritt.

Bei schwierigen politischen Entscheidungen liegt die Verführung zum naturalistischen Trugschluss nahe. Ist das Thema komplex, werden Wissenschaftler beauftragt, zu dem Entscheidungsprozess beizutragen. Dies ist nützlich oder sogar notwendig. Fragwürdig wird es jedoch, wenn die Wissenschaftler aufgefordert werden, selbst die Folgerung zu ziehen, was nun getan werden soll. An der Oberfläche profitieren hiervon beide Seiten: Die Politiker sichern sich vor Angriffen ihrer Gegner und können behaupten, sie hätten lediglich das nach den Regeln der Wissenschaft Erforderliche umgesetzt. Nicht alle Wissenschaftler kennen HUME, und ihnen winken Forschungsgelder und Einfluss, wenn sie sich zur Abgabe von Empfehlungen einspannen lassen. HUMEs Gesetz stellt jedoch klar, dass der Wissenschaftler, sobald er Gebote formuliert, seine Methodik verlässt und nicht mehr wissenschaftlich handelt. Natürlich hat auch er als Staatsbürger das Recht, Entscheidungen zu beeinflussen. Seine moralischen Folgerungen sind jedoch denen, die jeder andere hinreichend informierte Bürger ziehen kann, nicht überlegen.

So gerüstet, kehren wir zurück zu unserem einleitenden Fall des Internet-Giganten IG. Aus Humes Gesetz folgt, dass der Schluss von der Tatsache, wie viel Umsatz IG mit wie vielen Kunden generiert, zu dem Gebot, IG zu meiden, ungültig ist. Nun kann man versuchen, ihn analog zu unserem Tempo-limit-Beispiel durch Hinzunahme eines allgemeineren Gebots zu retten. Das ist aber um einiges schwieriger als beim Tempolimit; denn ein ähnlich starkes und allgemein akzeptiertes Gebot wie das verschärfte Tötungsverbot ist nicht auf Anhieb erkennbar. Ich stelle einige Kandidaten vor, ohne Anspruch auf Vollständigkeit.

Unternehmen, die mit sehr vielen Kunden sehr hohe Erträge erwirtschaften, sind zu meiden.

In einem Teil der Gesellschaft wird dieses Gebot für richtig gehalten, allerdings nur in dem Teil, der das kapitalistische Wirtschaften ablehnt. Würde man das Gebot für verbindlich halten, müssten etwa auch Telefongesellschaften und große Erzeuger von Medikamenten gemieden werden.

Unternehmen, die ihre Leistungen scheinbar kostenlos anbieten, aber mit Werbung dennoch Erträge erzielen, sind zu meiden.

Hier gilt ein ähnliches Argument wie zuvor. Das Privatfernsehen arbeitet nach dem gleichen Modell, seit Jahrzehnten gesellschaftlich akzeptiert. Sogar die besten Zeitungen werden teilweise und ihre Online-Varianten manchmal vollständig durch Werbung finanziert, ohne dass dies für anstößig gehalten wird.

Unternehmen, die ihre Erträge auf eine für den Nutzer intransparente Weise erwirtschaften, sind zu meiden.

Dieses Argument wird von Gegnern der IG-Branche gerne in folgender Form gebracht: "Ihr glaubt, das sei alles kostenlos, aber wenn ihr wüsstet, auf wie viele Arten die an euch verdienen ...". Auf diese Situation, auf uninformierte Subjekte, werde ich noch näher eingehen. Als Gebot ist dies fragwürdig, gehören doch zum Uninformiertsein zwei: einer, der nicht informiert und einer, der sich nicht informiert. Gerade im Zeitalter des Internet sind Informationen über Branchen, einzelne Unternehmen und ihre Geschäftsmodelle keine Mangelware. Das Gebot lässt sich also in vielen Fällen entschärfen und ins Konstruktive wenden:

Bevor man eine (Geschäfts-)Beziehung nutzt, soll man sich über die Interessen des Partners informieren.

Dies ist streng genommen ein individualethisches Gebot, da es nicht auf den Ausgleich der Interessen mehrerer Beteiligter zielt, sondern lediglich dem Akteur selbst hilft, ähnlich dem guten Rat, bei Aussicht auf Regen einen Schirm mitzunehmen. Den Schluss von A nach B macht es jedenfalls nicht gültig.

Man soll keine Monopolisten heranzüchten. Wenn ein Unternehmen also übermäßig hohe Profite erwirtschaftet, soll man Alternativen nutzen.

Das hat Sinn, denn ein Monopolist hat Möglichkeiten, seine Macht zum Nachteil vieler anderer auszuüben. Allerdings ist für diese Regel die Tatsache A unglücklich gewählt. Ein Monopolist definiert sich nicht über die absolute Höhe seiner Erträge, sondern über seinen Marktanteil, und dazu sagt die Voraussetzung A nichts aus.

Unternehmen, die Daten ihrer Nutzer sammeln, sind zu meiden.

Das ist nicht unvernünftig, und mit dem Datensammeln werden wir uns ausführlich befassen. Es macht allerdings den Schluss von A nach B nicht gültig, da die Tatsache A nicht das Datensammeln, sondern die Erträge betraf. Man könnte unterstellen, dass der Referent das Datensammeln als bekannt vorausgesetzt hat und ein Gebot der folgenden Art zugrundelegt:

Unternehmen, die Daten sammeln und daraus auch noch hohen Profit erzielen, sind zu meiden.

Doch auch dies ist fragwürdig. Das Datensammeln berührt die Interessen der Nutzer in mancherlei Weise, es kann Nutzen und Schaden erzeugen. Ob IG damit hohe Profite erzielt, berührt diese Interessen kaum. Hier zeigt sich der Unterschied zwischen vernunftbasierter und emotionaler Betrachtung moralischer Konflikte, den ich unter dem Stichwort „Moralisieren“ noch näher beleuchten werde. Ist einem Nutzer durch das Sammeln seiner Daten Schaden entstanden, mag er sich über den Profit, den IG damit erzielt hat, zusätzlich ärgern. Sein Schaden ist jedoch durch den Profit nicht gesteigert worden.

Egal ob meine Leser jede dieser Interpretationen teilen − das Beispiel zeigt, dass das Erraten der passenden moralischen Voraussetzung zu einer unvollständigen Schlussfolgerung ein unsicheres Geschäft ist. Wer Gebote aus Tatsachen schließt, kann dafür einen der folgenden Gründe haben:

Ihm ist das zugrunde liegende Gebot bewusst, doch er nennt es nicht explizit. Das ist leicht zu heilen, indem man ihn auffordert, es explizit zu machen.

Ihm scheint der Schluss von A auf B intuitiv plausibel, ohne dass er ihn durch Angabe eines zugrundeliegenden Gebots vervollständigen kann. Einen solchen Schluss können wir nicht übernehmen, sondern bestenfalls als Ausgangspunkt für präzisere Überlegungen nehmen, um einen gültigen Schluss und ein womöglich verändertes Gebot B' zu gewinnen.

Er möchte ursprünglich Gebot B durchsetzen und hat sich die Tatsache A zurechtgelegt, um eine scheinbar zwingende Argumentation aufzubauen. (Kahneman 2011, 45) schildert dieses Phänomen als „... discouraging implications for reasoning in everyday life. ... [W]hen people believe a conclusion is true, they are also very likely to believe arguments that appear to support it, even when these arguments are unsound. ... [T]he conclusion comes first and the arguments follow.“

Wie gesagt, viele, auch gut gemeinte, Darstellungen moralischer Themen verwenden solche unvollständigen Schlüsse. Eine der Motivationen für diesen Text war es, die Fragen von Grund auf zu behandeln, anstatt vorschnelle Schlüsse zu ziehen. Dazu werde ich den Unterschied zwischen Moral und Moralisieren herausarbeiten.

1.1.2 Moralisieren

Fallstudie 2: Internet-Versandhändler

Ein Professor für Betriebswirtschaft hält einen Vortrag über einen Selbstversuch in Sachen Datenschutz. Viele Jahre war er regelmäßiger Kunde bei einem großen Internet-Versandhändler, nennen wir ihn IVH. Eines Tages, an Tag x, fiel ihm bei Betrachtung seines Kundenkontos auf, dass IVH alle Daten zu seinen bisherigen Bestellungen gespeichert hatte: Artikel, Preis, Lieferanschrift, Kreditkartennummer – einfach alles, was im ursprünglichen Auftrag stand.

Er fand das nicht in Ordnung und verlangte von IVH, zumindest die Daten zu löschen, die älter sind als 10 Jahre. IVH weigerte sich. Daraufhin wandte sich der Kunde an verschiedene deutsche und europäische Behörden. Die einen waren nicht zuständig, anderen waren die Hände gebunden, die letztlich entscheidenden fanden die Speicherung nach den gesetzlichen Vorgaben zulässig. Der Fall trug sich vor dem Inkrafttreten der Europäischen Datenschutzgrundverordnung zu.

Das Fazit des Professors: Die Behörden haben ihren Job nicht gut gemacht. Sie haben sich weggeduckt oder die Gesetze so ausgelegt, dass sie nicht tätig werden mussten. Vor allem aber, so sein abschließendes Urteil, hat IVH verwerflich gehandelt: Trotz ausdrücklichen Kundenwunsches die Daten nicht zu löschen, zerstöre das Vertrauen in IVH. Schutz von Personendaten gehöre zu unseren wichtigen Werten. IVH missachte also unsere Werte.

Die Zuhörer des Vortrags stimmen der Ansicht des Professors überwiegend zu. Es scheint ausgemachte Sache zu sein: IVH hätte dem Wunsch des Kunden folgen sollen, und zwar nicht nur aus geschäftlichem Eigeninteresse, um den Kunden nicht zu verlieren. Das Festklammern an einer formalen Rechtslage, ohne Bewusstsein für die betroffenen Werte, zeige eine verwerfliche moralische Einstellung und zerstöre Vertrauen. Der Professor lehrt übrigens auch Wirtschaftsethik, ist also fachliche Autorität in Fragen wie dieser.

Bei gründlicher Betrachtung haben wir es hier nicht nur mit einem, sondern mit einer Vielzahl von Werten zu tun. Beginnen wir mit üblichen Wertvorstellungen von Kunden eines Händlers:

Großes Sortiment – ein Vorteil von Händlern im Internet, da sie nicht alle Waren an einer Vielzahl von Standorten vorrätig halten müssen.Kundenfreundliche Betriebszeiten – hier haben Händler im Internet Vorteile, da die Ladenschlussgesetze dort nicht anwendbar sind. Der Professor lebt in Bayern, wo das restriktivste Ladenschlussgesetz deutschlandweit gilt. Auch dies ist ein moralisches Thema, da hier die Interessen des Verkaufspersonals gegen die der Kunden stehen: Das Verkaufspersonal will zur gleichen Zeit arbeiten wie die meisten – die meisten Kunden arbeiten zur gleichen Zeit wie das Verkaufspersonal. Also wird für regulär arbeitende Kunden der Einkauf abends hektisch, und am Samstag finden sie lange Warteschlangen und kaum freies Verkaufspersonal vor.Günstiger Preis.Rückgabemöglichkeit bei Nichtgefallen – hier ist der Kunde bei Fernabsatzgeschäften in einer guten Position, da er die Ware ohne Begründung zurückgeben kann.Gesetzeskonformer Umgang mit den im Rahmen der Bestellung erhobenen personenbezogenen Daten.Individuelles Eingehen auf Wünsche des Kunden.

Zwischen etlichen dieser Interessen besteht ein Konflikt. Wer etwa auf individuelles Eingehen auf seine Wünsche Wert legt, bindet Personal, erzeugt Kosten und kann kaum gleichzeitig auf günstige Preise hoffen.

Die Wertehierarchie von IVH sieht ungefähr so aus:

Betriebszeit, Sortiment: sehr hoch,Preis, Rückgabemöglichkeit: hoch,Datenschutz: mittel – das gesetzlich Erforderliche wird getan, aber nicht mehr.Individuelles Eingehen auf Kundenwünsche – niedrig. Es handelt sich um ein Massengeschäft.

Nun zur Wertehierarchie des Kunden. Bis zum Tag x muss sie ähnlich der von IVH gewesen sein, sonst hätte er – immerhin Professor der Betriebswirtschaft – IVH nicht als bevorzugten Lieferanten geführt. Am Tag x hat der Kunde dann seine Wertehierarchie verändert. Nun lautete sie:

Datenschutz zusammen mit Eingehen auf Kundenwünsche: wichtiger als alles andere,Betriebszeit, Sortiment, Preis, Rückgabemöglichkeit: zweitrangig.

Das steht dem Kunden zu, rechtlich wie moralisch. Er hat dem Lieferanten kein Treueversprechen auf alle Zeit gegeben. Kunden dürfen ihre Präferenzen ändern zwischen billig und teuer, hip und spießig, vegetarisch und Hackbraten. In unserem Fall hat der Kunde vom Lieferanten jedoch nicht nur verlangt, seine veränderte Wertehierarchie hinzunehmen, sondern sie zu seiner eigenen zu machen. Er hat verlangt, der Lieferant solle seine Informationssysteme sofort dahingehend umstellen, dass Daten über vergangene Transaktionen auf Kundenanforderung gelöscht werden können.

Ich frage nicht, ob es geschäftlich klug wäre, IVH würde dem Kunden den Gefallen tun und einige seiner Transaktionsdaten löschen. IVH kann sich ausmalen, dass dieser Kunde im Fall einer Weigerung verärgert ist und nicht mehr bestellen wird. Die Frage, ob IVH in seinem eigenen geschäftlichen Interesse handelt, ist keine moralische und kann IVH überlassen werden. Hat IVH aber ohne Werte gehandelt? Wie die obige Liste zeigt, ist das nicht der Fall. IVH hat die Werte, nach denen er handelt, offen dargelegt. Wie jeder Händler, bietet er Leistungen auf Basis einer Wertehierarchie an und hofft auf Kunden, die diese teilen. Nicht jeder Kunde hat dieselbe Hierarchie; deshalb gibt es unterschiedliche Typen von Händlern.

Hat IVH Vertrauen zerstört? Vertrauen ist zum Teil ein psychologisches Phänomen. Wenn der Professor und seine Zuhörer sagen, sie hätten nun zu IVH kein Vertrauen mehr, kann man ihnen schwerlich widersprechen. Umgekehrt ergibt sich daraus keine Basis für eine allgemeingültige moralische Bewertung. IVH hat laut Auskunft der Behörden im Rahmen der Gesetze gehandelt, die Verträge mit dem Kunden eingehalten, nichts im Verborgenen getan und seine Handlungsweisen nicht verändert.

Das Beispiel zeigt uns: Moral befasst sich mit dem Umgang mit widerstrebenden Werten, d.h. Interessen mehrerer Beteiligter. Um zu einer vernunftbasierten moralischen Einschätzung einer Handlung zu kommen, müssen wir alle Beteiligten und alle ihre Interessen betrachten.

Es zeigt uns weiter, dass es in vielen praktisch bedeutsamen Fällen keine allgemeingültige Wertehierarchie gibt. Stellen wir uns eine mögliche Alternative zum Einkauf bei IVH vor: Der Kunde geht in einen stationären Laden, kauft eine Ware und bezahlt bar, ohne irgend eine Datenspur zu hinterlassen. Allerdings führte der Händler nicht das gewünschte Produkt, sondern ein anderes, das noch dazu teurer war. Es fehlte die Zeit, bis zum Ladenschluss einen anderen Händler zu suchen. Ob der eine Kunde den Kauf eines anderen Produkts für akzeptabel hält, ein anderer nicht, hängt von deren individuellen Interessen, ihrer Wertehierarchie, ab. Der eine sagt etwa: „Datenschutz ist ein Menschenrecht. Ob meine Kaffeetassen braun oder weiß sind, ist für mich kein großer Unterschied.“ Der andere: „Für mein sauer verdientes Geld will ich die Ware, die mir gefällt, nicht das, was der Händler mir aufschwatzt. Über braune Tassen würde ich mich täglich ärgern – über gespeicherte Kundendaten musste ich mich noch nie ärgern.“

Die beiden Kunden haben damit eine unterschiedliche Wertehierarchie zum Ausdruck gebracht. Zwischen diesen beiden Hierarchien ist auf reiner Vernunftbasis kaum zu entscheiden. Wir können deshalb jemanden, der eine bestimmte Wertehierarchie hat – sei er Kunde oder Lieferant – objektiv weder bestätigen noch widerlegen. In der Wahl seiner Werte ist er zwar nicht vollkommen frei: Er darf nichts Unmögliches fordern und andere nicht über Gebühr schädigen. Er hat aber in den meisten Lebensbereichen einen weiten Spielraum.

Was hat nun der vortragende Professor getan? Er hat seine eigene am Tag x neu festgelegte Wertehierarchie zu der allgemeingültigen erhoben. Er hat dies getan, obwohl seine zuvor gelebte Wertehierarchie eine andere war. Er hat von unseren Werten im Plural gesprochen, obwohl er im entscheidenden Augenblick der moralischen Beurteilung nur einen von vielen Werten herausgegriffen hat. Dass er zuvor andere Interessen hatte, dass auch sein Geschäftspartner IVH ein Anrecht auf Interessen hat, ging in seine Argumentation nicht ein.

Eine solche Betrachtung, bei der nur ein Teil der Beteiligten und/oder ihrer Interessen betrachtet wird, nenne ich in Anlehnung an (Oermann 2015, 10) weder Ethik noch Moral, sondern Moralisieren. Hier trifft jemand vorschnell Moralurteile, ohne zuvor eine systematische Klärung aller involvierten Werte betrieben zu haben.

Zweck der Darstellung von HUMEs Gesetz und der dagegen verstoßenden Trugschlüsse sowie von der Technik des Moralisierens ohne erschöpfende Klärung aller Grundlagen war Warnung davor, moralische Fragen rasch auf der Basis von Emotionen oder der Betrachtung von Einzelinteressen zu beantworten. Sie dient als Motivation für die folgende Reise durch die Grundlagen der Ethik, die uns zu einer solideren, allerdings auch aufwendigeren Beantwortung moralischer Fragen führt.

1.1.3 Die Bedeutung präziser Sprache

In der Alltagssprache wird der Begriff „philosophisch“ manchmal für schwer verständliche Aussagen verwendet, für Texte, aus denen sich unterschiedliche Bedeutungen herauslesen lassen, so dass der Rezipient nicht weiß, welche Interpretation der Autor tatsächlich im Kopf hatte. Gerade in einem technischen Umfeld wie der Informatik nennt man eine „Philosophie“ manchmal ironisch ein Gedankengebäude, das aus Sicht des Technikers nicht vollständig klar und schlüssig begründet ist. Von daher ist es nicht weit zu der Entscheidung: Schluss jetzt mit der „Philosophie“; lasst uns das konkrete Problem wirksam lösen.

Gute Bücher über Ethik sind in diesem ironischen Sinn keineswegs „philosophisch“. Ihre Sprache ist klar, ihre Begriffe sind definiert, und die Argumentationen werden sorgfältig entwickelt. Beispiele sind etwa (Kutschera 1999) und (Birnbacher 2013). Es gibt allerdings auch andere Autoren, die ihre Begriffe nicht klar definieren und ihren Stoff so aufbauen, dass nur derjenige ihm folgen kann, der ihn schon kennt.

An einigen entscheidenden Stellen dieses Buches wird sich zeigen, dass unpräzise Sprache Anlass zu Missverständnissen und in der Folge zu Fehlurteilen geben kann. Dieser Versuchung sind wir vor allem dann ausgesetzt, wenn ein schwierig zu fassender, abstrakter Sachverhalt scheinbar anschaulich, in Wirklichkeit aber irreführend bezeichnet wird. Auf einige Beispiele, die später im Detail diskutiert werden, möchte ich jetzt schon hinweisen. Sie haben hauptsächlich mit Vermenschlichung von Maschinen zu tun.

Häufig hört und liest man, dass Maschinen Entscheidungen treffen. Oberflächlich betrachtet, könnte man das für richtig halten. Wenn der Bahnkunde zum Fahrkartenautomaten geht, sein Fahrziel und einige sonstige Wünsche eingibt, werden ihm vom Automaten nach wenigen Sekunden eine Zugverbindung und einen Fahrpreis angezeigt. In diesem kurzen Zeitraum war sicherlich kein Mensch an dem Ablauf beteiligt. Hat also nicht der Automat entschieden, was er uns anbietet und welchen Preis er verlangt? Genaueres Nachdenken ergibt jedoch, dass das Tarifwerk von Menschen ersonnen ist; der Automat vollzieht die dort vorgegebenen Regeln nur nach. Das Gleiche gilt für die Wahl der schnellsten, schönsten oder billigsten Verbindung. Also haben Menschen entschieden: Sie hatten einen Spielraum, in dem sie Regeln setzen konnten. Der Automat vollzieht diese Entscheidungen lediglich nach.

In einer frühen Version dieses Manuskripts habe ich diskutiert, wem bestimmte Daten „gehören“. Auch das wirkt anschaulich, gibt aber zu Missverständnissen Anlass. Bei herkömmlichen Wirtschaftsgütern ist das Gehören eng mit dem Nutzen verbunden. Wem ein Motorrad gehört, der darf es nutzen oder darüber bestimmen, wer es nutzen darf. Zu einem Zeitpunkt kann das Motorrad nur von einer oder zwei Personen genutzt werden. Auch für nicht gegenständliche Güter wie etwa ein Geldvermögen gilt, dass sie nicht gleichzeitig von vielen genutzt werden können. Anders bei Informationen. An der Wettervorhersage, an einer Information, hat zwar der Wetterdienst das Urheberrecht; die Nutzung ist jedoch Millionen von Menschen möglich, sobald die Vorhersage breit verteilt wurde. Der klassische Begriff des Gehörens führt also unsere Intuition in die Irre, wenn wir versuchen, die Spielregeln für materielle Güter auf Informationen zu übertragen.

In ungeahnte Höhen schwingt sich die Fantasie, wenn Informatiksystemen über das Entscheiden hinaus noch weitere menschliche Fähigkeiten zugeschrieben werden, etwa Intelligenz oder Verstand. Der Begriff der Künstlichen Intelligenz etwa ist in Wissenschaft und Praxis fest verankert und nicht mehr aus der Welt zu bringen. Er geht uns leicht über die Lippen, wenn Maschinen überraschende Leistungen erbringen, etwa blitzschnell Personen auf Bildern erkennen. Er führt jedoch regelmäßig in die Irre, wenn wir der Maschine, nachdem wir sie einmal als intelligent erkannt zu haben meinen, andere Eigenschaften zuschreiben, die wir mit Intelligenz in Verbindung bringen. Man würde etwa einen Menschen kaum intelligent nennen, der allzeit lediglich an ihn erteilte Aufträge ausführt. Genau so handeln jedoch Maschinen. Spekulationen, nach denen sie weitere Merkmale der Intelligenz, etwa einen eigenen Willen und echte, nicht nur simulierte Emotionen entwickeln werden, sind unbelegt.

Eine erfreuliche Eigenschaft von Informatiksystemen ist ihr formaler Charakter. Ihre Wirkungsweise kann präzise und konkret beschrieben werden. Ihre moralische Bewertung ist in vielen Fällen schwierig genug dadurch, dass menschliche Wünsche nicht immer präzise und konkret vorhanden oder bekannt sind. Wir sollten sie nicht durch verwaschene Beschreibung der Systeme zusätzlich erschweren. Selbst scheinbar harmlose Begriffe können schon in die Irre führen: Der soeben verwendete Begriff „erkennen“ für den maschinellen Vergleich von Bildinhalten ist ähnlich missverständlich wie der Intelligenzbegriff. Wenn ein Mensch etwa auf einem Bild seine Mutter erkennt, stellen sich neben der bloßen Feststellung ihrer Identität vielfältige Gedanken und Gefühle ein, die wir bei der Maschine nicht zu erwarten haben. Präziser wäre also gewesen: Die Maschine erhält zwei Bilder als Eingabe und liefert als Ergebnis die Aussage, ob auf den Bildern dieselbe Person abgebildet ist.

Ethik befassst sich mit Urteilen über Handlungen. Um solche Urteile gültig fällen zu können, muss klar sein, wer gehandelt hat und wer die Entscheidung über seine Handlung treffen konnte. Bei Berichten, in denen Maschinen zugeschrieben wird, zu „entscheiden“, „wissen“ oder „verstehen“, ist es deshalb erforderlich, zunächst eine sprachliche Bereinigung vorzunehmen und zu klären, wer tatsächlich entschieden, gewusst oder verstanden hat. Wir werden schlampige Formulierungen nicht aus der Welt schaffen, müssen aber vor einer ernsthaften Auseinandersetzung mit moralischen Themen deren Inhalte klar benennen, ähnlich wie ein Mediziner sich nicht mit dem Begriff „Bauchweh“ begnügt, sondern herausfindet und ausdrückt, ob es sich um Verdauungsprobleme oder eine Blinddarmentzündung handelt.

1.2 Der Werkzeugkasten der Ethik

Hier eine Fallstudie, an der sich viele grundlegende Konzepte der Ethik erläutern lassen.

Fallstudie 3: Standortdaten für Werbekunden

Dieses Beispiel spielt bei einem Softwarehersteller. Es ist fiktiv, aber realistisch.

Hauptprodukt des Herstellers ist eine App für mobile Geräte. Sie macht ihren Anwendern Vorschläge für Veranstaltungen, die sie an dem Ort besuchen können, an dem sie sich gerade aufhalten: Theater, Musik, Sport und vieles mehr. Das Einpflegen der Veranstaltungen und die Pflege und der Betrieb der App erfordern einigen personellen Aufwand, der bezahlt werden muss. Es gibt diese App deshalb in zwei Versionen. Die für den Benutzer kostenpflichtige Version kostet ein paar Euro pro Monat; eine kostenlose Version ist werbefinanziert. Bei ihr werden dem Benutzer Werbebotschaften angezeigt. Die Werbenden sind also Kunden des Softwareherstellers.

Das Verhältnis zwischen Anwendern, die bezahlen und solchen, die sich Werbung anschauen, ist 1 zu 10. Auch dies ist eine realistische Annahme. Die Werbekunden sind für den Hersteller also die Haupteinnahmequelle.

Eines Tages kommt der Geschäftsführer, kurz Chef genannt, zu einem Softwareentwickler, der diese App betreut. Es entwickelt sich folgendes Gespräch:

Chef: Ich habe eine dringende Aufgabe für dich. Unsere App fragt ja die Standortdaten der Anwender ab, um ihnen ortsbezogen passende Veranstaltungen vorschlagen zu können. Erweitere doch bitte die Schnittstelle zu unseren Werbekunden so, dass sie den jeweils aktuellen Standort des Nutzers erhalten.

Entwickler: Hab ich mich gerade verhört? Standortdaten an Dritte weiterleiten? Schon mal was von Datenschutz gehört?

Chef: Keine Sorge, das ist alles legal. Wir haben das mit unseren Rechtsberatern sorgfältig gestaltet. Der Anwender hat der App alle benötigten Rechte explizit eingeräumt. Und unsere Datenschutzerklärung beschreibt detailliert, welche Daten wir zum Zweck der Werbung erheben und weitergeben.

Entwickler: Das mag ja sein. Aber die gesetzlichen Vorschriften sind doch weltfremd. Der typische Benutzer will die App schnell ausprobieren und nickt die Rechte, die sie anfordert, einfach ab. Die seitenlange Datenschutzerklärung liest eh keiner. Und wenn er sie liest, versteht er die Auswirkungen nicht: Der Werbekunde könnte ein komplettes Bewegungsprofil von dem Anwender erstellen und missbrauchen.

Chef: Da brauchen wir uns keine Gedanken zu machen. Unsere Werbekunden sind Wirtschaftsunternehmen und haben ein einziges Ziel: Umsatz mit Werbung zu machen. Dem Anwender nachzuspionieren wäre für die nur Aufwand ohne Nutzen.

Entwickler: Für die meisten trifft das zu. Aber ein schwarzes Schaf kann es überall geben. Es muss nur ein einziger Mitarbeiter eines Werbekunden kriminelle Absichten hegen, dann haben wir unüberschaubare Folgen. Ich will morgen noch in den Spiegel schauen können. Ich entwickle so eine Funktion nicht.

Chef: Jetzt muss ich dir zwei unangenehme Wahrheiten sagen. Erstens: Wenn die Werbekunden diese Standortdaten haben, können sie viel gezielter ihre Werbung einsteuern. Eine Restaurantkette kann etwa die Angebote ihrer Filialen am Standort des Anwenders herausstellen. Dafür zahlen sie uns mehr Geld. Mit den bisherigen Einnahmen können wir die Firma nicht profitabel weiterbetreiben. Unser Unternehmen braucht diese Funktion also zum Überleben. Und zweitens: Du hast mit uns einen Arbeitsvertrag, der festlegt, dass du jede zumutbare Aufgabe erfüllen musst. Legal ist das Ganze, deinen Fähigkeiten entspricht es auch, also darfst du es nicht ablehnen. Wir brauchen die Funktion und die Mehreinnahmen schon im kommenden Monat. Also haben wir keine Zeit, jemand anderen einzuarbeiten, falls du es nicht machst. In diesem Fall müssten wir Insolvenz anmelden, und eure Arbeitsplätze, die Investitionen und der Einsatz von uns Gründern wären verloren.

Der Entwickler ist sichtbar im Zwiespalt. Die meisten Chefs würden es dabei belassen, die Anweisung schriftlich erteilen und die Gewissensbisse des Entwicklers abtun. Dies ist aber ein humaner Chef, deswegen sagt er:

Chef: Weißt du was – schlaf eine Nacht drüber. Denk in Ruhe über alles nach, aber bitte wirklich über alles, auch über die Lage der Firma. Morgen früh reden wir wieder drüber.

Ich habe dieses Beispiel in Vorträgen vorgestellt und die Teilnehmer gefragt, was sie dem Entwickler vorschlagen würden, falls sie mit ihm befreundet wären und er sie jetzt abends um Rat fragen würde. Die Antworten waren breit gestreut. Von Ausführen über Ablehnen bis zu Whistleblowing war alles vertreten. Er denkt am wenigsten an sich selber, sondern will es seinen Mitmenschen, so gut es geht, recht machen – bekommt aber keine klare Vorgabe.

Wie helfen ihm in dieser Lage Kenntnisse über Ethik?

Wenn er sich noch nie mit ihr befasst hat, wird die Nacht kaum ausreichen, genügend Rüstzeug anzusammeln, um das moralische Dilemma zu behandeln. Zunächst: Die Antwort auf seine konkrete Frage wird er in der Literatur nicht finden. Daher der Begriff „Werkzeugkasten“ im Titel dieses Abschnitts. Die Allgemeine Ethik, also diejenige, die nicht auf ein spezielles Anwendungsgebiet zielt, gibt nahezu keine konkreten Moralurteile an, die uns etwa sagen würden, ob der Entwickler die Loyalität zu seinem Arbeitgeber höher oder geringer zu stellen hätte als die Verantwortung für die Nutzer der App. Dafür enthält sie aber reichhaltige Überlegungen, wie man Moralurteile aufbauen kann und welche Vor- und Nachteile dabei auftreten.

1.2.1 Die Rolle der Vernunft in der Moral

Beide Akteure unserer Geschichte könnten es sich einfach machen. Der Chef hat den Rat seiner Anwälte und die Regelungen des Arbeitsvertrags auf seiner Seite. Er könnte – und wird im Alltag in vielen Fällen – einfach ein Machtwort sprechen. Er kann den Mitarbeiter zwar nicht mit Gewalt zwingen, eine bestimmte Software zu entwickeln. Wenn er ihm aber droht, ihn mit allen Mitteln rechtlich zu belangen, wenn er ihm die Schadenersatzsumme im Fall der Firmenpleite vorrechnet, wird das auf den Mitarbeiter eine ähnliche Wirkung haben wie die Gewalt, die der Galeerenführer mit der Peitsche auf den Ruderer ausübte: Er wird sich gezwungen sehen, dem Chef zu gehorchen.

Was kann ein Grund für den Chef sein, dieses für ihn doch angenehme Recht nicht einfach wahrzunehmen? Nun, Software entwickeln ist nicht Rudern. Er braucht Mitarbeiter, die mit Freude bei der Sache sind. Schlechte Stimmung führt zu schlechten Leistungen. Wenn der in die Enge gedrängte Mitarbeiter sich mit seinen Kollegen austauscht, breitet sich diese Stimmung aus, und das Betriebsklima wird bedrückend.

Umgekehrt könnte auch der Entwickler seine Überzeugung mit der Brechstange durchsetzen. Nehmen wir etwa an, er habe eine kurze Kündigungsfrist und jede Menge Resturlaub. Dann kann er sofort kündigen, in Urlaub gehen und den Chef mit seinem Problem im Regen stehen lassen. Auch er hat in diesem Fall das Recht auf seiner Seite. Die Verärgerung des Chefs tangiert ihn kaum, denn er will ja nichts mehr von ihm – außer einem Arbeitszeugnis, und gegen schlechte Zeugnisse kann man sich mit Hilfe von Anwälten und Gerichten wehren.

Was kann für ihn ein Grund sein, nicht so unnachgiebig zu handeln? Im konkreten Fall hat er kaum Schaden zu befürchten, denn Informatiker sind auf dem Arbeitsmarkt gefragt. Aber wer garantiert ihm, dass er am nächsten Arbeitsplatz nicht bald wieder in ein ähnliches Dilemma kommt? Wenn er bei moralischen Konflikten das Weggehen zum Prinzip macht, wird sein Lebenslauf bald einen Querulanten beschreiben, der es nirgends lange aushält. Und last but not least werden häufige Konflikte und Extremreaktionen auch seine eigene Zufriedenheit beeinträchtigen. Dieses Problem droht dem Entwickler allerdings auch bei der gegenteiligen Reaktion: wenn er in jeder Situation klein beigibt und im Lauf der Zeit zur Überzeugung kommt, nur noch als willfähriges Instrument böser Mitmenschen missbraucht zu werden.

Wir treffen in unserem Handeln auf Schritt und Tritt auf Regeln, die einzuhalten sind. Wenn sie für uns gerade angenehm sind, haben wir kein Problem mit ihnen. Wenn sie aber gegen unsere Interessen stehen, wenn wir uns etwa in einer langen Warteschlange hinten einreihen müssen, empfinden wir das zwar als mehr oder weniger lästig, sehen es aber in vielen Fällen nicht als unerträgliche Zumutung, gegen die wir uns auflehnen müssen. Wir sehen den Sinn der Regel ein, auch wenn sie uns gerade schlechter stellt als andere.

Das Zauberwort, das es uns ermöglicht, in Frieden mit einem Moralsystem und den Mitmenschen, mit denen wir es teilen, zu leben, heißt Einsicht. Sie scheidet die Pflicht vom Zwang. Eine Regel, die von uns ein bestimmtes Handeln fordert, betrachten wir als Pflicht, wenn wir sie als berechtigt einsehen. So empfinden es viele Schüler nicht nur als spaßig, regelmäßig in die Schule zu gehen; auch für die Eltern ist es nicht nur eine Freude, die Kinder für die Schule fertig zu machen, sich um Hausaufgaben und Elternsprechtage zu kümmern. Aber beide erkennen, dass der Verzicht auf Bildung für den jungen Menschen katastrophale Auswirkungen hätte. Sie sehen die Notwendigkeit der Schulpflicht ein.

Im Gegensatz dazu gibt es Menschen, die das Schlangestehen vor Automaten zur Flaschenrückgabe für eine Schikane, gibt es Unternehmer, die eine Mitgliedschaft in einer Kammer für nutzlose und teure Bürokratie halten. Sie sprechen von Zwangspfand und Zwangsmitgliedschaft, weil sie eben die Nützlichkeit der Regel nicht einsehen.

Man könnte einwenden, solchen Mitmenschen fehle es eben an der moralischen Gesinnung, an der für das Zusammenleben mit anderen notwendigen prosozialen Haltung. Diese ist zwar eine notwendige, nicht aber eine hinreichende Bedingung, um Moralurteile einzusehen. Jemand, der es grundsätzlich ablehnt, auf die Bedürfnisse anderer einzugehen, wird in keinem Fall einsehen können, seine momentanen Interessen zurückzustellen. Doch auch von einem prosozial eingestellten Menschen kann nicht verlangt werden, alle für ihn ungünstigen Regeln zu billigen. Eine Gesellschaft, in der alle stets ihre Wünsche zurückstellen, wäre genauso eine Hölle wie das Gegenteil davon.