Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Ethische KI – ein Mythos? Gina Bronner-Martin zeigt, warum Maschinen niemals moralisch handeln können. Nicht wegen technischer Defizite, sondern weil ihnen Bewusstsein, Intentionalität und Verantwortung grundsätzlich fehlen. Sie entlarvt die Illusion "ethischer KI" und stellt die entscheidenden Fragen: Wer kontrolliert diese Systeme? Wer trägt Verantwortung für ihre Folgen? Statt auf algorithmische Selbstregulierung zu setzen, fordert sie verbindliche demokratische Kontrolle und institutionalisierte Verantwortung. Ein entschiedener Gegenentwurf zur Technikutopie für alle, die verstehen wollen, warum sich das Problem nicht durch bessere Algorithmen lösen lässt.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 96
Veröffentlichungsjahr: 2025
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Ethische KI ist unmöglich
Monographie
von Gina Bronner-Martin
Ethische KI – ein Mythos? Gina Bronner-Martin zeigt, warum Maschinen niemals moralisch handeln können. Nicht wegen technischer Defizite, sondern weil ihnen Bewusstsein, Intentionalität und Verantwortung grundsätzlich fehlen. Sie entlarvt die Illusion „ethischer KI” und stellt die entscheidenden Fragen: Wer kontrolliert diese Systeme? Wer trägt Verantwortung für ihre Folgen? Statt auf algorithmische Selbstregulierung zu setzen, fordert sie verbindliche demokratische Kontrolle und institutionalisierte Verantwortung. Ein entschiedener Gegenentwurf zur Technikutopie für alle, die verstehen wollen, warum sich das Problem nicht durch bessere Algorithmen lösen lässt.
Gina Bronner-Martin verbindet als Wirtschaftsjuristin und Philosophin analytische Präzision mit systematischem Denken. Seit den 1990er Jahren beschäftigt sie sich mit den rechtlichen und ethischen Aspekten digitaler Technologien. Sie lebt und arbeitet als Beraterin, Dozentin und Autorin in Deutschland und der Schweiz. Essays, die sich mit ethischen Themen befassen, publiziert sie bei Medium (http://medium.com/lawandordnung).
Einleitung
Dezember 2020 bei Google, März 2023 bei Microsoft: In kurzen Abständen trennten sich die mächtigsten Technologiekonzerne der Welt von ihren führenden Ethikern oder lösten ganze Teams auf, die für „Responsible AI" zuständig waren. Und das exakt in dem Moment, als Künstliche Intelligenz begann, massiv in kommerzielle Produkte integriert zu werden.
Was diese Fälle gemeinsam haben? Ethik-Teams wurden nicht aufgelöst, weil sie gescheitert sind. Sie wurden aufgelöst, weil sie funktionierten und dadurch zu unbequem wurden. Ein internes Audio-Protokoll eines Microsoft-Meetings bringt es auf den Punkt: „Der Druck ist extrem hoch, diese neuesten OpenAI-Modelle schnell an Kunden auszuliefern." Wer Fragen stellt, bremst. Wer bremst, verliert Marktanteile.
Diese Entwicklung folgt einer gnadenlosen ökonomischen Logik. Echte ethische Kontrolle kostet Geld, verzögert den Markteintritt und gefährdet Profite. Die übliche Analyse lautet daher, die Unternehmen meinen es nicht ernst und betreiben „Ethics Washing". Das ist wahr, aber es greift zu kurz. Die Antwort dieses Buches ist radikaler:
Ethische KI kann es nicht geben.
Nicht weil die Algorithmen noch nicht gut genug sind. Nicht weil der politische Wille fehlt. Nicht weil Tech-Konzerne zu gierig sind, obwohl das alles wahr ist. Sondern weil die Aufgabe verfehlt ist. Maschinen können nicht ethisch handeln, weil ihnen die grundlegenden Voraussetzungen moralischer Handlungsfähigkeit fehlen: Bewusstsein, Intentionalität und Verantwortungsfähigkeit.
Das ist keine technische Limitation, die durch bessere Algorithmen überwunden werden könnte. Es ist eine philosophische Unmöglichkeit.
Die falsche Frage
Die gegenwärtige Diskussion um „ethische KI" beruht auf einer grundlegenden Verwechslung. Überall im Tech-Sektor, in Regulierungsinstitutionen und selbst in akademischen Debatten wird Ethik als Eigenschaft von Systemen behandelt, als etwas, das man in Code einbauen kann wie eine Sicherheitsfunktion. Diese Sichtweise ist kategorial verkehrt.
Moralisches Handeln erfordert, dass ein Akteur weiß oder wissen könnte, was er tut. Ein Mensch, der diskriminiert, tut das bewusst oder unbewusst, aber er versteht oder könnte verstehen, was Diskriminierung bedeutet. Ein KI-System, das diskriminierende Vorhersagen trifft, weiß hingegen nichts. Es optimiert eine mathematische Funktion ohne innere Erfahrung von Unrecht oder Ungerechtigkeit. Es gibt nur statistische Musteranpassung.
Verantwortung ist nicht delegierbar. Eine Maschine kann nicht zur Verantwortung gezogen werden. Sie hat keine Interessen, keine Rechte, keine moralische Stellung. Die Verantwortung für das, was ein KI-System tut, liegt bei Menschen – bei Entwicklerinnen und Entwicklern, Organisationen, Regulierenden. Der Versuch, diese Verantwortung auf den Algorithmus zu verschieben, ist eine Form der Entlastung, die Macht maskiert statt sie transparent zu machen.
Folgt man dieser Analyse, verschiebt sich die zentrale Frage von „Wie baue ich eine ethische KI?" hin zu „Wie nutze ich KI ethisch verantwortlich?" Das ist eine grundlegend andere Aufgabe. Sie umfasst Governance und demokratische Kontrolle, technisches Verständnis der Grenzen von Machine Learning und strukturelle Fragen der politischen Ökonomie: Wem gehört KI, wer profitiert, wer trägt die Lasten?
Aufbau des Buches
Diese Monographie entwickelt die These in acht Teilen:
Teil I zeigt philosophisch, warum Maschinen nicht moralisch handeln können – von der Tugendethik über Deontologie bis zum Utilitarismus führen alle Traditionen zum selben Schluss.
Teil II legt die technischen Grundlagen offen: Was sind KI-Systeme wirklich, und warum können auch technische Lösungen wie Fairness-Metriken das Problem nicht lösen?
Teil III demonstriert die kategoriale Unmöglichkeit ethischer Maschinen durch die Analyse von Bewusstsein, Intentionalität und Verantwortung.
Teil IV untersucht das Fairness-Trilemma und zeigt, warum die Wahl zwischen konkurrierenden Gerechtigkeitskonzepten eine politische, keine technische Entscheidung ist.
Teil V analysiert generative KI und Large Language Models, deren sprachliche Flüssigkeit Verstehen vortäuscht und gefährliche Verantwortungslücken schafft.
Teil VI präsentiert das Responsible AI-Paradox: Die Industrie bekennt sich zu Ethik, aber strukturelle Anreize wirken systematisch dagegen.
Teil VII bietet vier Fallstudien aus Strafjustiz, Gesundheit, Bildung und Arbeit, die zeigen, was diese abstrakten Probleme konkret bedeuten.
Teil VIII entwickelt eine Architektur der Verantwortung – von internen Strukturen über externe Kontrolle bis zu Haftungsregeln – und untersucht die politische Ökonomie von KI.
Was dieses Buch leistet
Der originäre Beitrag liegt nicht in der Wiederholung bekannter philosophischer Einwände gegen maschinelle Moral. Diese Argumente sind etabliert. Was hier geleistet wird, ist die systematische Verbindung dieser konzeptuellen Unmöglichkeit mit der politischen Ökonomie von KI-Entwicklung und einer realistischen Institutionentheorie.
Die Kernthese lautet: Ethische KI ist nicht deshalb unmöglich, weil wir die falschen Algorithmen verwenden, sondern weil verlässlich ethisches Handeln unter systematischen Fehlanreizen strukturell unmöglich ist – für Menschen wie für Maschinen.
Menschen sind nicht unfähig zu ethischem Handeln, aber sie sind strukturell unzuverlässig. Sie handeln unter systematischen Anreizen, kognitiven Verzerrungen und Machtasymmetrien, die ethisches Handeln erschweren oder verhindern, selbst bei aufrichtiger moralischer Intention. Institutionen kompensieren diese Unzuverlässigkeit nicht durch moralische Verbesserung, sondern durch Schadensbegrenzung mittels Machtverteilung, Transparenz und Rechenschaftsmechanismen, die auch bei unethisch motivierten Akteuren funktionieren.
Die Konsequenz: Nicht Moral muss die Richtung vorgeben, sondern Macht muss begrenzt werden, wo Moral versagt. Der Mechanismus basiert auf Zwang statt auf Einsicht, das Ziel ist realistische Schadensbegrenzung anstelle einer Utopie.
Diese Verschiebung von der Ethik der Technik zur politischen Ökonomie der Macht ist der systematische Beitrag dieses Buches. Es zeigt, warum Responsible AI strukturell scheitern muss, warum Selbstregulierung unter Wettbewerbsbedingungen logisch unmöglich ist, und warum die einzige realistische Antwort die Institutionalisierung von Gegenmacht durch externe Kontrolle, verbindliche Haftung und demokratische Partizipation ist.
Warum das wichtig ist
In einer Gesellschaft, in der Algorithmen zunehmend über Gesundheit, Wohlstand und Freiheit entscheiden, ist das Verständnis dieser Probleme keine akademische Spielerei. Es ist Voraussetzung dafür, dass Gesellschaften ihre Zukunft selbstbestimmt gestalten können.
Die zentrale Frage dieses Buches lautet nicht: Können wir eine ethische KI bauen? Diese Frage ist falsch gestellt. Sie lautet vielmehr: Unter welchen Bedingungen können wir KI so gestalten und einsetzen, dass sie dem Gemeinwohl dient statt es zu untergraben? Und wer entscheidet darüber?
Das ist kein inspirierendes Programm. Es ist kein revolutionärer Traum. Es ist pragmatisches Handeln unter ungünstigen Bedingungen mit bescheidenen Zielen und ohne Garantie auf Erfolg. Aber es ist die einzig ehrliche Antwort auf ein Thema, das ein politisches, kein technisches ist.
Teil I: Warum Maschinen nicht moralisch handeln können
Bevor wir verstehen können, warum Responsible AI strukturell scheitert, müssen wir verstehen, was moralisches Handeln überhaupt voraussetzt. Diese philosophischen Grundlagen sind keine akademische Spielerei. Sie liefern die präzise Argumentation, warum Lobbyversprechen wie „KI kann ethisch sein“ faktisch falsch sind. Für Entscheidungsträger, die gegen den Druck „Innovation braucht Freiheit" argumentieren müssen, sind die folgenden Seiten das intellektuelle Fundament.
„Der Mensch ist frei geboren und liegt überall in Ketten.“
Jean-Jacques Rousseau, Vom Gesellschaftsvertrag, 1762
Menschen reden heute viel über „ethische KI". Unternehmen werben mit „verantwortungsvoller" Technologie, Politiker fordern „moralische“ Algorithmen, Ingenieure entwickeln „faire" Systeme. Doch die wenigsten wissen, was sie eigentlich unter Ethik verstehen.
Ethik wird im Alltag gleichgesetzt mit Anstand, Fairness oder schlicht „dem Richtigen“. Diese Verkürzungen mögen für oberflächliche Diskussionen ausreichen. Sie führen jedoch in die Irre, wenn es um die Frage geht, ob Maschinen moralisch handeln können.
Die philosophische Tradition der Ethik ist über 2.000 Jahre alt. Ihre zentralen Erkenntnisse über die Natur moralischen Handelns sind hochaktuell und zeigen mit bemerkenswert einheitlicher Klarheit, dass Moral voraussetzt, was Maschinen nicht haben können.
Die drei großen ethischen Traditionen
Alle ethischen Debatten lassen sich auf drei große philosophische Traditionen zurückführen. Jede stellt eine andere Frage ins Zentrum. Wie soll ich sein? Was soll ich tun? Welche Folgen soll ich anstreben? Bemerkenswert ist, alle drei kommen zum selben Schluss bezüglich der Unmöglichkeit maschineller Moral.
Tugendethik: Charakter statt Regeln
Die älteste ethische Tradition geht auf Aristoteles zurück. In seiner Nikomachischen Ethik stellt er nicht die Frage „Was soll ich tun?“, sondern „Wie soll ich sein?“ Seine Ethik kreist um Eudaimonia, gelungenes, erfülltes Leben durch die Verwirklichung menschlicher Potenziale.
Aristoteles' zentrale Einsicht ist die Mesotes-Lehre. Tugenden liegen in der vernünftig bestimmten Mitte zwischen zwei Extremen. Tapferkeit liegt zwischen Feigheit und Tollkühnheit, Großzügigkeit zwischen Geiz und Verschwendung. Diese Mitte ist nicht mathematisch berechenbar. Sie erfordert praktische Klugheit, Phronesis, ein situatives Urteilsvermögen, das nur durch Erfahrung, Reflexion und Charakterbildung entsteht.
„Denn wir müssen uns zu der rechten Zeit, bei den rechten Gegenständen, gegen die rechten Menschen, um der rechten Ziele und in der rechten Weise von diesen Affektionen bewegen lassen.“Aristoteles, Nikomachische Ethik, Buch II, Kapitel 6
Ein Algorithmus kann keine Tugenden entwickeln. Er kann nicht klug im aristotelischen Sinne werden, denn Klugheit setzt voraus, dass man versteht, was in einer konkreten Situation auf dem Spiel steht. Emotional, sozial, existenziell. Ein KI-System kann Regeln befolgen, aber es kann nicht begreifen, warum Tapferkeit zwischen Feigheit und Tollkühnheit liegt. Die Tugendethik macht deutlich, Ethik ist nicht Regelanwendung, sondern Charakterbildung. Maschinen haben keine Persönlichkeit zu formen.
Deontologie: Autonomie und Würde
Immanuel Kant revolutionierte die Ethik durch die deontologische Wende. Nicht die Folgen einer Handlung bestimmen ihre Moralität, sondern die Maxime, aus der heraus gehandelt wird. Sein kategorischer Imperativ lautet:
„Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde.“
Eine Handlung ist nur dann moralisch, wenn ihre Handlungsgrundlage universalisierbar ist, wenn also alle Menschen so handeln könnten, ohne dass das System der Moral zusammenbricht. Noch wichtiger für die KI-Diskussion ist Kants Zweck-Formel:
„Handle so, dass du die Menschheit sowohl in deiner Person, als in der Person eines jeden anderen jederzeit zugleich als Zweck, niemals bloß als Mittel brauchst.“
Dies begründet die Menschenwürde als absoluten, unbedingten Wert. Menschen haben Würde, weil sie autonom sind, weil sie sich selbst Gesetze geben können.
Kant macht überdeutlich, dass Moral Autonomie voraussetzt, die Fähigkeit, sich selbst Gesetze zu geben und aus Freiheit zu handeln. Ein KI-System, das deterministisch programmiert ist, hat keine Freiheit. Es kann nicht aus Pflicht handeln, denn es kennt keine Pflicht. Es kann keine Maximen bilden, denn es reflektiert nicht über Handlungsgrundsätze.
Maschinen sind fremdgesetzgebend konstruiert. Sie befolgen Programme, die andere geschrieben haben. Sie können nie aus eigener Einsicht in die Richtigkeit einer Maxime handeln.
Utilitarismus: Die Grenzen der Optimierung
Der Utilitarismus, begründet durch Jeremy Bentham und weiterentwickelt durch John Stuart Mill, stellt die Folgen in den Mittelpunkt. Eine Handlung ist moralisch richtig, wenn sie das größtmögliche Glück für die größtmögliche Anzahl Betroffener bewirkt. Mill verfeinerte dies in seinem qualitativen Utilitarismus. Nicht alle Freuden sind gleichwertig. Geistige Freuden stehen höher als körperliche.
„Es ist besser, ein unzufriedener Mensch zu sein als ein zufriedenes Schwein; besser ein unzufriedener Sokrates als ein zufriedener Narr.“John Stuart Mill, Utilitarianism
Viele zeitgenössische KI-Ethiker behandeln Utilitarismus als algorithmisierbares Prinzip. Definiere eine Nutzenfunktion, maximiere sie, fertig. Diese Lesart verkennt Mills zentrale Einsicht. Die Unterscheidung zwischen höheren und niedrigeren Freuden ist nicht quantifizierbar. Sie erfordert qualitative Urteile, die nur verstehende Wesen treffen können. Ein System, das Nutzen „maximiert“, maximiert nur eine vorab definierte mathematische Funktion. Die Festlegung dieser Funktion ist selbst eine moralische Entscheidung, die nicht delegiert werden kann.
Ein naheliegender Einwand lautet, man könnte auf Mills qualitative Unterscheidungen verzichten und stattdessen Präferenz-Utilitarismus verwenden. Diese Variante, prominent vertreten durch Peter Singer, vermeidet scheinbar das Quantifizierungsproblem. Statt objektive „Freuden“ zu messen, aggregiert man einfach die offenbarten Präferenzen der Betroffenen. Was Menschen tatsächlich wählen, zeigt, was sie wertschätzen.
