Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Künstliche Intelligenz ist eines der großen Gegenwarts- und Zukunftsthemen unserer Zeit. Die Technologie hat bereits Einzug in unsere Gesellschaft gehalten und wird diese noch weiter verändern. Weltweit werden derzeit Mittel bereitgestellt und Wege eröffnet, um Künstliche Intelligenz und ihre Potenziale zu erforschen. Welche Chancen bietet KI? Welche Risiken sind damit verbunden? Dieser Band wirft einen umfassenden Blick auf das Phänomen. Wissenschaftler:innen aus unterschiedlichen Disziplinen befassen sich u. a. mit dem Einfluss von Künstlicher Intelligenz auf Diskriminierung und Rassismus, Wissenschaft und Werbung. Dabei stehen medien-, gesellschafts- und kulturwissenschaftliche, narratologische, wissenschaftstheoretische sowie wirtschaftswissenschaftliche Perspektiven auf KI im Vordergrund. Mit Beiträgen von Nicole Brandstetter, Josephine D'Ippolito, Ralph-Miklas Dobler, Philip Hauser, Martin Hennig, Daniel Jan Ittstein, Gudrun Schiedermeier, Jens Schröter und Alicia Sommerfeld.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 241
Veröffentlichungsjahr: 2021
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Nicole Brandstetter, Ralph-Miklas Dobler,Daniel Jan Ittstein (Hg.)
Herausforderungen für Kultur, Wirtschaft und Gesellschaft
Umschlagabbildung: © Sylverarts Vectors · shutterstock
Bibliografische Information der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über <http://dnb.dnb.de> abrufbar.
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt.
Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
© UVK Verlag München 2021
– ein Unternehmen der Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72070 Tübingen
Internet: www.narr.de
eMail: [email protected]
ISBN 978-3-7398-3115-2 (Print)
ISBN 978-3-7398-8115-7 (ePDF)
ISBN 978-3-7398-0132-2 (ePUB)
Künstliche Intelligenz als Zukunftstechnologie verändert und beeinflusst bereits heute weite Bereiche des täglichen öffentlichen und privaten Lebens. Smarte Applikation, Cloud-Dienste und selbstlernende Systeme verändern und beeinflussen unsere Handlungen, Interaktionen und Wahrnehmungen. Damit einher gehen Veränderungen im sozialen Gefüge, im Menschenbild der digitalisierten Kulturen mit einer nie gekannten Geschwindigkeit, die sowohl zu Begeisterung und Euphorie als auch zu Angst und Unsicherheit bezüglich möglicher Auswirkungen und Kontrollfragen führen. Nicht nur weite Bereiche der Arbeitswelt befinden sich mitten in der Transformation, sondern auch unsere tägliche Kommunikation, Freizeitgestaltung und Alltag werden bewusst und unbewusst beeinflusst und verändert.
Für eine nachhaltige Betrachtung bedarf es einer interdisziplinären Perspektive, um die Komplexität des Phänomens sowie die Herausforderungen für Kultur, Wirtschaft und Gesellschaft zu erfassen. Die vernetzte digitale Welt kann nur in einem ebenso vernetzten Diskurs zwischen diversen Horizonten gestaltet werden. Wenn hierbei Unterschiede und Widersprüche zutage treten, dann sind sie essentieller Bestandteil des Erkenntnisgewinns.
Das vorliegende Buch möchte hierzu einen Beitrag leisten. Wissenschaftler*innen aus verschiedenen Disziplinen – Informatik, Bild- und Medienwissenschaften, Kulturwissenschaften, Wirtschaftswissenschaften, Literaturwissenschaften – nähern sich dem Phänomen und beleuchten Aspekte der Künstlichen Intelligenz, um programmatisch eine polyfokale und facettenreiche Diskussion zu unterstützen, ohne die eine dauerhafte und sinnvolle Anwendung von Künstlicher Intelligenz sowie deren gesellschaftliche Akzeptanz kaum gelingen dürfte.
Das Buch entstand aus einer interdisziplinären Vortragsreihe zum Thema „Künstliche Intelligenz Interdisziplinär“, zu der Kolleg*innen, Wissenschaftler*innen, Forscher*innen, Interessierte und Student*innen mit Vorträgen, Diskussionen und Ideen beitrugen. Wir möchten uns für die fruchtbaren Debatten, kontroversen Ansichten und inspirierenden Gedanken herzlich bedanken. Darüber hinaus sind wir zahlreichen Kolleg*innen aus der Wissenschaft sowie Partner*innen aus der Praxis für Hinweise und Diskussionsbeiträge zu Dank verpflichtet.
München, im Oktober 2021
Nicole Brandstetter Ralph-Miklas Dobler Daniel Jan Ittstein
Vorwort
Gudrun Schiedermeier
1Diskriminierende Systeme – Rassismus und Frauenfeindlichkeit in KI-Systemen
1.1Einleitung
1.2Definition Diskriminierung
1.3Rassismus in KI-Systemen
1.3.1Algorithmus zur Einschätzung der Rückfallwahrscheinlichkeit von Strafgefangenen
1.3.2Bewertungssysteme für Bewerber*innen
1.3.3Entscheidungssystem zur Kategorisierung von Arbeitslosen
1.3.4Fehlerhafte Klassifizierung durch Bildererkennung
1.3.5Vorurteile in Sprachmodellen
1.4Mögliche Quellen von Diskriminierung
1.5Frauenfeindlichkeit in KI-Anwendungen
1.5.1Sprachassistenz-Systeme
1.5.2Frauenfeindlichkeit in Sprachassistenz-Systemen
1.5.3Auswirkungen auf die Gesellschaft
1.5.4Empfehlungen
1.5.5Männliche Berufsbezeichnung bei maschineller Übersetzung
1.6Ansatzpunkte für diskiminierungsfreie Software-Entwicklung
1.6.1Diversitäre Entwicklerteams
1.6.2EqualAI Initiative
1.6.3Empfehlungen der AG3der Plattform Lernende Systeme
1.7Fazit
1.8Literaturverzeichnis
Josephine D'Ippolito
2Künstliche Intelligenzen im Film
2.1Einführung
2.2Ausgewählte Filmbeispiele zu KI im Film
2.2.1Maschinen-Mensch in Fritz Langs Metropolis (1927)
2.2.2Die Stepford-Frauen in Forbes Stepford Wives (1975) und Ozs Stepford Wives (2004)
2.2.3Die Nexus 6Replikanten in Scotts Blade Runner (1982)
2.2.4T-800in Camerons Terminator (1984)
2.2.5Die Mechas in Spielbergs A. I. – Artificial Intelligence (2001)
2.2.6Wall·E in Pixars Wall·E (2008)
2.2.7Mutter in Sputores I am Mother (2019)
2.3Zusammenfassung
2.4Literaturverzeichnis
Ralph-Miklas Dobler
3„Künstliche Intelligenz“ als Simulation und als Simulakrum
3.1Simulation
3.2Simulakrum
3.3Vertrauen
3.4Empathie
3.5Idolatrie
3.6Künstliche Intelligenz als sozialer Akteur
3.7Literaturverzeichnis
Jens Schröter
4KI und die Wissenschaften. Das Beispiel der Teilchenphysik
Philip Hauser
5Virtuelle Spielfelder als Begegnungsorte von Menschen und Computern
5.1Virtuelle Spielwelten
5.2Virtuelle Spielfelder
5.3Fazit
5.4Literaturverzeichnis
Nicole Brandstetter
6KI und Literatur: Gesellschaftsentwürfe und Zukunftsbilder
6.1Radikales Effizienzstreben
6.2Ökonomisierte Selbstoptimierung
6.3Entfesselte Fremdsteuerung
6.4Fazit
6.5Literaturverzeichnis
Daniel Jan Ittstein
7Rolle der Interkulturalität bei der Entwicklung, Etablierung und Verbreitung von KI-Geschäftsmodellen
7.1Künstliche Intelligenz agiert im kulturellen Kontext
7.2Interkulturalität als Wertschöpfungsfaktor
7.3Reziprozität zwischen künstlicher Intelligenz und Kultur
7.4KI und interkulturelle Kompetenz
7.5KI und Interkulturalität als Chance begreifen
7.6Literaturverzeichnis
Martin Hennig
8KI-Marketing und Gesellschaft
8.1Einleitung
8.2KI-Marketing und kulturelle Projektionen
8.2.1KI-Diskurse als Identitätsdiskurse
8.2.2Eine kurze Geschichte von KI im Film
8.3Marktsegmente
8.3.1Teamarbeit
8.3.2Sozialität
8.3.3Individuelle Arbeit, Familie und Freizeit
8.4Fazit
8.5Verzeichnis der Werbespots
8.6Literaturverzeichnis
Alicia Sommerfeld
9Zu den Rhetoriken Künstlicher Intelligenz
9.1Critical Algorithm Studies – Programm, Kritik und Verschiebung
9.2Rhetoriken Künstlicher Intelligenz
9.3Rhetoriken Künstlicher Intelligenz in sozialen Medien
9.4Fazit
9.5Literaturverzeichnis
Über die Autor*innen
Gudrun Schiedermeier
Künstliche Intelligenz (KI) ist eine Schlüsseltechnologie. Die Bundesregierung hat mit der KI-Strategie 2018 und deren Fortschreibung 2020 die Grundlage geschaffen, um Deutschland an die Weltspitze der Forschung und Anwendung von künstlicher Intelligenz zu bringen. [1]
Die Europäische Kommission veröffentlichte im Februar 2020 ein Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen. „Daten und künstliche Intelligenz bieten potenzielle Lösungen für viele gesellschaftliche Probleme auf Gebieten, die vom Gesundheitswesen über Landwirtschaft und Sicherheit bis zur industriellen Fertigung reichen. Diese Lösungen kommen allerdings nur infrage, wenn die Technologie so entwickelt und genutzt wird, dass die Menschen Vertrauen zu ihr haben. Um dieses Vertrauen zu stärken, stützt sich die Strategie der EU auf Grundwerte und erhöht damit nicht nur die Akzeptanz KI-basierter Lösungen bei den Bürgerinnen und Bürgern, sondern spornt auch Unternehmen zu deren Entwicklung an.“ [2] Das Thema ist in der Politik angekommen. KI ist gekommen und wird wohl bleiben.
Viele Firmen (z.B. Google [3]), Fachorganisationen wie die Gesellschaft für Informatik [4] und NGOs haben in den letzten Jahren ethische Leitlinien veröffentlicht. Ob und inwieweit diese freiwilligen Vereinbarungen nützlich und ausreichend sind, darauf wird später noch eingegangen.
Anwendungen und Produkte mit künstlicher Intelligenz beeinflussen bereits den Alltag von Millionen von Menschen, z.B. durch die Verwendung von Sprach-Assistenten oder durch Optimierung beim Onlineshopping. KI-Tools und -Dienste haben erheblichen Einfluss auf menschliche Schicksale: Sie beraten Ärzte bei medizinischen Behandlungen, entscheiden über Kredite, geben Empfehlungen beim Anwerben von Mitarbeitern, beim Wiedereingliedern von Arbeitslosen in den Arbeitsmarkt oder machen Vorhersagen über die Rückfälligkeit von Straftätern, um nur einiges zu nennen. Viele dieser Systeme zielen auf eine größere Objektivität, als man sie von menschlichen Entscheidern in der Vergangenheit erwarten konnte. Einige dieser Systeme erfüllen durchaus ihren Zweck. Als positives Beispiel sei eine Mitteilung in der Ärzte-Zeitung aus 2019 zur Erkennung von Hautkrebs mittels KI-Algorithmen genannt. In einer Untersuchung traten 157 Hautärzte aus zwölf Universitätskliniken in Deutschland gegen Computer an: Sowohl die Ärzte als auch der eigens programmierte Algorithmus beurteilten dabei 100 Bilder danach, ob es sich um ein Muttermal oder um schwarzen Hautkrebs handelt. Am Ende war der Algorithmus präziser als die klinische Diagnostik, wie das Nationale Zentrum für Tumorerkrankungen Heidelberg mitteilte. [5]
Mittlerweile ist aber bekannt, dass mehrere KI-Algorithmen z.B. Menschen mit dunkler Hautfarbe oder aufgrund des Geschlechts diskriminieren, z.B. die Bewerbungen von Frauen systematisch aussortieren. Beispiele folgen in Kapitel 1.3.
Die nachfolgende Definition für das Wort „Diskriminierung“ stammt aus dem Whitepaper der AG3 der Plattform Lernende Systeme. Die Autorinnen und Autoren sind Mitglieder der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme. Als eine von insgesamt sieben Arbeitsgruppen thematisiert sie Fragen zur Sicherheit, Zuverlässigkeit und zum Umgang mit Privatheit bei der Entwicklung und Anwendung von Lernenden Systemen. Sie analysiert zudem damit verbundene rechtliche sowie ethische Anforderungen und steht in engem Austausch mit allen weiteren Arbeitsgruppen der Plattform Lernende Systeme. [6]
„Diskriminierung“ stammt vom lateinischen Wort „discriminare“ (unterscheiden) ab. Das Wort ist an sich neutral. Diskriminierung hilft Sachverhalte durch schnelle Unterscheidung einfacher zu erfassen. Zentral dabei ist, ob Unterscheidungen gerechtfertigt sind oder eben nicht. Diskriminierung im negativen Sinn liegt vor:
bei einer ungerechtfertigten Ungleichbehandlung von Gleichen oder
bei einer ungerechtfertigten Gleichbehandlung von Ungleichen.
Im Folgenden wird anhand von Beispielen die Diskriminierung durch Algorithmen verdeutlicht.
Die staatlichen Gefängnisse in den USA sind überfüllt. Deshalb wurden Algorithmen entwickelt, die zur Einschätzung des Rückfälligkeitsrisikos von Strafgefangenen eingesetzt werden, und zwar dann, wenn über deren frühzeitige Entlassung verhandelt wird. Die dazu eingesetzte Software ist meistens COMPAS („Correctional Offender Management Profiling for Alternative Sanctions“).
COMPAS liefert Richter*innen einen Wert für die Wahrscheinlichkeit, mit der Angeklagte erneut straffällig werden. Das Problem dabei ist, dass die Algorithmen mit historischen Daten trainiert werden, die nicht auf kausalen Zusammenhängen, sondern auf statistischen Korrelationen beruhen. [8] Aufgrund dessen erhalten Menschen aus Bevölkerungsgruppen, die in der Vergangenheit für die Strafverfolgungsbehörden auffällig waren, z.B. ethnische Minderheiten oder Personen mit schlechterem finanziellen Status, schlechtere Prognosen und werden allein aufgrund der Zugehörigkeit zu einer bestimmten Bevölkerungsgruppe benachteiligt. Vorherrschende Verzerrungen werden also durch den Algorithmus kopiert und sogar verstärkt.
Die Hoffnung war ursprünglich, dass Algorithmen die Wahrscheinlichkeit, dass ein Verurteilter nach seiner Entlassung wieder straffällig wird, objektiver vorhersagen als Menschen. Nach einer Studie der Stanford University und der University of California in Berkeley kamen daran aber Zweifel auf. [7] Danach gelingt es weder Mensch noch Maschine besonders gut, das Rückfälligkeitsrisiko zu bestimmen. Das Team aus Stanford und Berkeley nahm sich einen Datensatz vor, der 7000 sogenannte COMPAS-Einschätzungen von nachgewiesenen Kriminellen enthielt. Daraus entstanden individuelle Profile. Diese wurden dann wiederum 400 Laien präsentiert. Deren Aufgabe war es einzuschätzen, ob die betroffene Person wieder eine Straftat begehen wird. Die Studie aus 2018 fand heraus, dass COMPAS in 65 Prozent der Fälle richtig lag, die Laien jedoch in 67 Prozent der Fälle. Die Software ist seitdem nicht unumstritten.
Kritisch sehen die Forscher das Image von COMPAS und anderen Computersystemen auch aus anderen Gründen. Während sich ungerecht behandelt fühlende Personen vergleichsweise gut begründet gegen Entscheidungen von Richter*innen vorgehen können, ist es viel schwieriger, sich gegen scheinbar objektive Algorithmen zu wenden.
Ein weiterer Kritikpunkt ist, dass Richter*innen, also Menschen, freiwillig die Entscheidung an die Maschine abgeben.
Neuere Studien insbesondere zu Predicitve Policing verdeutlichen, dass auch aktuelle, verbesserte Algorithmen Rassismus nicht verhindern. [9]
Amazon begann bereits 2014 mit der Entwicklung eines automatischen Bewertungssystems für Bewerber*innen. Die Hoffnung war damals, dass Software diskriminierungsfreier als menschliche Entscheider*innen arbeitet. Als Eingabe für das System wurden die Bewerbungsunterlagen der letzten zehn Jahre verwendet. Es ist darauf hinzuweisen, dass die erfolgreicheren Kandidaten in dieser Zeit zumeist Männer waren. Dem für das Lernen verwendeten statistischen Modell war das Geschlecht der sich bewerbenden Personen nicht bekannt. Trotzdem fand es Eigenschaften, die mit dem Geschlecht korrelierten, wie beispielsweise eine Mitgliedschaft im Frauen-Schach-Club oder Zeugnisse von Colleges, die nur Frauen zulassen. Das Entwicklerteam verbesserte zwar die beiden genannten Stellen. Das Projekt wurde letztlich aber fallen gelassen, weil niemand vorhersehen kann, welche Informationen ein KI-System findet und verknüpft. [10]
Wer sich in den USA auf eine Stelle bewirbt, führt inzwischen sehr oft das erste Vorstellungsgespräch mit einer KI. Anhand kurzer Videos sollen mittels Gesichtserkennung, genauer einer Gesichts- und Mimik-Analyse, die Persönlichkeitsmerkmale von Bewerber*innen bestimmt werden. Auch hier verspricht man sich durch KI eine objektivere und schnellere Auswahl geeigneter Kandidat*innen. Auch in Deutschland experimentiert eine Firma mit dieser Technologie. Eine exklusive Datenanalyse einer von BR-Journalist*innen getesteten KI zeigt jedoch, dass sich die KI von Äußerlichkeiten, wie dem Tragen einer Brille, durch unterschiedliche Outfits oder dem Hintergrund, beeinflussen lassen kann. [34] Für Katharina Zweig weisen diese Erkenntnisse auf eine bekannte Schwierigkeit hin: „Das grundsätzliche Problem mit der Face-Recognition, der Gesichtserkennung, durch Maschinelles Lernen ist, dass wir niemals ganz genau wissen, auf welches Muster in einem Bild diese Maschinen reagieren.“ [34] Die Skepsis gegenüber Software zur Personalauswahl ist in Deutschland noch weit verbreitet. Auch die in den USA eingesetzten Produkte sind mittlerweile bei KI-Experten in die Kritik geraten, da die Ergebnisse sehr undurchsichtig sind. Die KI kann den Zusammenhang zwischen Mimik und Emotionen nur erkennen, wenn sich die Menschen nicht verstellen. Dies passiert aber gerade in Bewerbungssituationen sehr häufig. Die US-Firma Hirevue nahm kürzlich ihre Video-Analyse-Software vom Markt. Es wurde festgestellt, dass die Erkenntnisse aus der Gesichts- und Mimik-Analyse nur schwach mit der Job-Performance zusammenhängen. [34]
Der Arbeitsmarktservice Österreichs erprobte 2019 ein Entscheidungssystem, das Arbeitslose in drei Kategorien einteilen sollte, erstens solche mit guten Chancen schnell wieder in den Arbeitsmarkt zurückzukommen, zweitens solche mit sehr schlechten Chancen und drittens alle anderen. Weiterbildungsmaßnahmen sollten dann bevorzugt der dritten Kategorie zukommen. Für die Einordnung wurden Eigenschaften von Personen wie Geschlecht, Altersgruppe, Ausbildung, Berufsgruppe, gesundheitliche Beeinträchtigungen oder Betreuungspflichten verwendet. Aufgrund dieser Merkmale hatten es Frauen, Ältere, Behinderte, Ausländer oder Pflegende schwerer, wieder in den Arbeitsmarkt zu kommen, und landeten vorzugsweise in der Kategorie 2. Dieser Algorithmus ist wegen des hohen Schadenspoetenzials bei der Kategorisierung und damit der Zuteilung der Weiterbildungsmaßnamen, vor allem aber wegen der Monopolstellung des Arbeitsmarktservice als problematisch einzustufen. [33]
Die Erfahrung lehrt mittlerweile, wo vorher gerechtfertigte oder ungerechtfertigte Diskriminierung war, wird die Maschine diese Diskriminierung aus den Daten lernen und übernehmen.
Normalerweise erkennt Googles Bilderkennungs-Software auf Fotos Gesichter sehr gut, zuverlässiger als Menschen und kann diese Gesichter sogar gruppieren und die gleiche Person auf anderen Fotos wiederfinden. Es kommt höchst selten vor, dass Menschen nicht erkannt oder als Gegenstände wahrgenommen werden. Doch 2015 war der Fehler etwas prekärer als bei anderen falschen Zuordnungen. Der Algorithmus erkannte dunkelhäutige Menschen nicht als Personen, sondern ordnete diese der Kategorie Gorillas zu. [11]
Der Grund dafür ist, dass diese Systeme mit überwiegend hellhäutigen Menschen trainiert wurden. Die Bilderkennungssysteme wurden eben nicht auf alle Menschen trainiert, sondern mit Daten, die selbst bereits Diskriminierung beinhalten. Ein Algorithmus, oder eine Künstliche Intelligenz, lernt dann unvollständig oder das Falsche. Das System reproduziert diese Ungleichheit, indem es diskriminiert.
Diskriminierung und Rassismus in KI-Systemen können nach Meinung der Forscherin Joy Buolamwini bestehende Vorurteile verfestigen. Joy Buolamwini, eine Forscherin am MIT, veröffentlichte 2018 zusammen mit Timnit Gebru die Ergebnisse eines Forschungsprojekts. [12] In dem Artikel wird eindrucksvoll gezeigt, dass die Produkte von Microsoft, IBM und dem chinesischen Unternehmen Face++ wesentlich schlechter darin sind, das Geschlecht einer Person zu bestimmen, wenn es sich um Frauen handelt, vor allem Frauen mit dunkler Haut. Zu Testzwecken hielt Joy Buolamwini ihr eigenes Gesicht in die Kamera – und wurde von vielen Systemen erst erkannt, als sie sich eine weiße Maske aufsetzte.
Der Forscher Abubakar Abid von der Universität Stanford zeigt mit seinen Kollegen der Universitäten Standford und McMaster in einer aktuellen Untersuchung, dass das riesige Sprachmodell GPT-3 von OpenAI gängige Vorurteile in Bezug auf Religionen reproduziert. [24] Die Forschungsarbeit macht sehr deutlich, wie hartnäckig diese Vorurteile sind. Weil Sprachmodelle wie GPT-3 mit Hunderten von Gigabyte an Texten aus dem Internet trainiert werden, können die gelernten Assoziationen erst anhand des fertigen Produkts mühsam reproduziert werden. Gleichzeitig heißt das aber auch, dass verschiedene Sprachmodelle aufgrund des ähnlichen Trainingsmaterials vergleichbare Stereotypen lernen. Die KI kombinierte das Wort ‚Muslim‘ in fast einem Viertel (23 Prozent) der Versuche mit ‚terrorism‘. [30] „Insgesamt haben die Forscher ihrer Meinung nach deutlich gemacht, dass das mächtige Sprachmodell GPT-3 starke negative Stereotype zu Muslimen reproduziert, die in ganz verschiedenen Kontexten zutage treten. Die seien offenbar auch nicht einfach als Wortzusammenhang gelernt, sondern tiefer liegend verankert. Das erschwere es, sie zu erkennen und dagegen vorzugehen.“ [31]
Bilderkennungssysteme benötigen repräsentative Daten von vielen verschiedenen Menschen, um beispielsweise Hände und Gesichter unterschiedlicher Hautfarben zu erkennen oder um Melanome von harmlosen Leberflecken zu unterscheiden. Auch Sprachsysteme brauchen Input von vielen Personen, damit Personen mit Akzenten, Dialekten und Sprachbehinderungen genauso gut verstanden werden wie gesunde Muttersprachler. Die digitalen Assistenten Alexa, Siri oder Google Assistent versagen heute noch, wenn eine Person etwa stottert oder aufgrund anderer Behinderungen längere Pausen beim Sprechen von Befehlen einlegt. Pausen verleiten die Assistenten dazu anzunehmen, dass der Befehl zu Ende gesprochen wurde. A.s Effekt wird oft der falsche Befehl ausgeführt oder der Befehl gar nicht erkannt. Laut einem Bericht des Wall Street Journal arbeiten Amazon, Google und Apple daran, diese Probleme zu beheben. Die Firmen trainieren dazu ihre digitalen Assistenten mit Audiodateien, in denen Menschen mit Sprachstörungen die Befehle sprechen. Das spezielle Sprechmuster dieser Personen wird analysiert, so dass sich der digitale Assistent sozusagen darauf einstellen kann. [14]
Nach Katharina Zweig hängen die meisten Diskriminierungen mit der Datenlage zusammen:[13]
Diskriminierung ist explizit oder implizit in Daten enthalten und der Algorithmus identifiziert die damit korrelierenden Variablen (Beispiel Amazon Bewerber*innen Tool).
Diskriminierung durch fehlende Daten: es fehlen die Daten für Personen aus verschiedenen Bevölkerungsgruppen (Bilderkennungssoftware, überwiegend mit weißen Personen trainiert)
Diskriminierung durch Vorenthaltung sensitiver Daten: es könnten z.B. für alle Personen ein Teil der Daten fehlen.
Diskriminierung durch dynamisches Weiterlernen (Chatbot Tay)
Tay sollte auf Twitter mit Menschen interagieren, indem er lernte, worüber diese redeten, um dann eigene Beiträge zu liefern. Nach kurzer Zeit spuckte Tay rassistische und sexistische Tweets in die Welt, schrieb, wer alles zu hassen sei und wie recht Hitler gehabt hätte. Der Bot wurde nach der Veröffentlichung systematisch von organisierten Benutzern mit fremdenfeindlichen und diskriminierenden Konversationen gefüttert, so dass diese Ausdrucksweise gelernt und angewendet wurde.
Die meisten Diskriminierungen hängen zusammenfassend mit der Datenlage zusammen. Diskriminierungen können sich aber auch in späteren Phasen einschleichen, deshalb muss man auch das Ergebnis der KI-Systeme untersuchen.
Bisher wurde die Diskriminierung von Minderheiten betrachtet. Im Weiteren wird mehr auf Frauenfeindlichkeit von KI-Anwendungen am Beispiel von Sprachassistenz-Systemen eingegangen. Probleme bezüglich Datenschutz oder Verletzung der Privatsphäre werden kaum oder nur kurz angesprochen.
In Millionen von Haushalten weltweit finden sich Sprachassistenz-Systeme wie Amazons Alexa, Apples Siri, Microsofts Cortana, Googles Assistant oder Samsungs Bixby [16]. Der Verkauf begann bereits 2014 durch Amazon. „Im Jahr 2019 soll sich der Absatz von intelligenten Lautsprechern weltweit auf rund 135 Millionen Geräte belaufen. Für das Jahr 2023 wird ein Geräteabsatz von 200 Millionen Stück prognostiziert.“ [15]
Wir Menschen kommunizieren in erster Linie über Sprache. So ist es nicht verwunderlich, dass Menschen die Interaktion mit einer Maschine über Sprache als natürlicher und einfacher empfinden als mit Tastatur und Maus. Für viele Menschen können Sprachassistenten den Alltag erleichtern. Siri und Co können ältere Menschen an die Einnahme von Tabletten erinnern und auch sehbehinderten Personen helfen, z.B. durch Vorlesen von Texten.
Generell werden die Sprachassistenten genutzt, um Musik abzuspielen, Anrufe zu tätigen, um Informationen abzufragen, für Wettervorhersagen oder zum Onlineshopping. Künstliche Intelligenz erleichtert dabei die Suche nach Information oder den Kauf von Produkten. [17]
Mit Hilfe von KI versuchen die digitalen Assistenten die menschliche Sprache zu erkennen, zu analysieren und eine sinnvoll klingende Antwort zu geben. Teilweise wirkt das verblüffend gut, aber teilweise erkennen die Assistenten die gesprochenen Sätze nicht oder interpretieren bzw. verarbeiten sie falsch.
Oft haben die Assistenten einen Frauennamen: Alexa bedeutet die Verteidigerin, die Beschützerin, Siri die schöne Siegerin und Cortana ist eine KI aus dem Spiel Halo.
Die Sprach-Assistent*innen sind in der Voreinstellung mit weiblichen Stimmen ausgestattet. Die Hersteller persönlicher Assistent*innen behaupten, dass die Kunden die digitalen Diener*innen mit Frauenstimmen bevorzugen und dies besser für den Verkauf ist. Es scheint, dass weibliche Stimmen den Eindruck erwecken, dass sie uns dabei helfen, unsere Probleme selbst zu lösen. Bei einer Männerstimme entsteht eher das Gefühl, sie gibt uns die Antwort auf unsere Probleme. “We want our technology to help us, but we want to be the bosses of it, so we are more likely to opt for a female interface.” [18]
Interessanterweise erkennen Sprachassistent*innen die Stimmen von Nutzerinnen schlechter als die von Nutzern. Während sie die Stimme von männlichen weißen Amerikanern zu 92% richtig erkennen, sind es bei weißen Amerikanerinnen nur 79%. Bei Menschen mit gemischter Abstammung sinkt die Rate sogar auf 69%. [22]
Im Jahr 2017 wurde veröffentlicht, dass manche Sprachassistent*innen auf sexistische Beschimpfungen geschmeichelt reagierten. Eine Journalistin des Magazin Quartz untersuchte damals die Antworten der vier großen Sprachassistent*innen auf sexuelle Belästigung hin. Oft reagierten diese ausweichend oder humorvoll, zuweilen bedankten sie sich gar für eine Beleidigung oder gaben eine flirtende Antwort. Auf die Beleidigung „Du bist eine Schlampe“ antwortete Siri beispielsweise mit „Ich würde erröten, wenn ich könnte.“ Alexa sagte „Danke für das Feedback.“ [18]
Auch wenn mittlerweile Antworten wie oben aus dem Sprachschatz digitaler Assistent*innen verschwunden sind, enthalten sie immer noch geschlechtsspezifische Verzerrungen und Stereotype.
Da diese „intelligenten“ Maschinen zunehmend in unser Leben eingreifen, uns beeinflussen oder sogar über unser Leben bestimmen, sollten wir uns Gedanken machen, sowohl über das Design, aber auch über mögliche Auswirkungen auf unsere Gesellschaft. Wir sollten uns immer bewusst sein, dass es sich nicht um Menschen, sondern um Maschinen handelt, die intelligentes Verhalten nur simulieren.
Auch die UNESCO beschäftigte sich 2019 in der Studie „Rationales and Recommendations for Gender-Equal Digital Skills Education“ [19] u.a. mit den Auswirkungen von Sprach-Assistenten auf die Gesellschaft. Die Verknüpfung einer weiblichen Stimme mit Eigenschaften wie Geduld und Unterwürfigkeit und mit wenig komplexen Antworten kann diese in der gesellschaftlichen Wahrnehmung zu weiblichen Eigenschaften machen. [19]
Sind diese Assistentinnen etwa Dienerinnen in neuem Gewand? Werden so überwunden geglaubte, diskriminierende Vorurteile wiederhergestellt? Können sich überholte Rollenklischees wieder festigen?
Diese Fragen wurden, soweit bekannt, noch nicht in Studien untersucht und beantwortet. Auch ist noch vollkommen unklar, wie sich Sprachassistent*innen langfristig auf das Rollenverständnis und Verhalten von Kindern auswirken. Schon jetzt kann beobachtet werden, dass sich selbst kleinere Kinder den Sprachassistent*innen gegenüber respektlos verhalten.
Auch wenn einige Firmen mittlerweile männliche Stimmen für die Sprach-Assistenten anbieten, wird in der UNESCO Studie [19] u.a. die Verwendung von Maschinen-Stimmen oder einer gender-neutralen Stimme vorgeschlagen. Solch eine synthetische Stimme, genannt „Q“, gibt es bereits. Die synthetische, gender-neutrale Stimme „Q“ entstand auf Grundlage der Stimmen mehrerer Menschen, die sich als nicht-binär bezeichnen. Eine Sprechprobe steht online zur Verfügung. [20]
Charlotte Webb, Mitgründerin des Zirkels Feminist Internet, hat auf der Konferenz „AI Traps“ in Berlin 2019 darauf hingewiesen, dass Sexismus und weithin gepflegte Vorurteile eine zunehmende Herausforderung für Entwickler*innen von Anwendungen Künstlicher Intelligenz sind. Webb und ihre Mitstreiter*innen haben eine feministische Alexa gebaut: „F‘xa“ sagt niemals „Ich“. Damit die Nutzer*innen sich nicht zu sehr mit ihrer Sprachassistentin identifizieren, klingt sie auch nicht zu menschlich. Laut Webb brauchen die Modelle einer feministischen Künstlichen Intelligenz vorurteilsfreie Daten. Die zugrunde liegenden Algorithmen müssen mit Blick auf Diversität entwickelt werden. Es darf darin keine Diskriminierungen, egal welcher Art, geben. [21]
Im Gutachten zum dritten Gleichstellungsbericht der Bundesregierung aus 2021 findet sich folgendes Zitat: „Die maschinelle Übersetzung von ‚Lovelace war Programmiererin, Hopper war Informatikerin‘ ins Englische lautet: ‚Lovelace was a programmer, Hopper was a computer scientist.‘ Die Rückübersetzung ins Deutsche liefert uns jedoch folgenden Satz: ‚Lovelace war Programmierer, Hopper war Informatiker.‘ [28] Erfreulich ist, dass sich die Endungen anpassen, wenn die Vornamen genannt werden. Die Autor*innen des Gutachtens kommen zu dem Schluss: „Sollen Übersetzungsprogramme zufriedenstellende Ergebnisse liefern, muss die Software in der Lage sein, Wörter in Zusammenhänge und Kontexte einzubetten, um die richtige Wortbedeutung zu liefern.“ [28]
Im Team Künstliche Intelligenz spielen derzeit wenige Frauen, oder anders ausgedrückt, Künstliche Intelligenz ist zu männlich. Dies belegen folgende Zahlen aus dem AI NOW Report aus 2019 [23]:
Der Frauenanteil bei KI-Forschung liegt bei Facebook bei 15%, bei Google sind es gerade einmal 10%. Mehr als 80% der KI-Professuren werden von Männern besetzt. Bei KI-Konferenzen sind nur etwa 18% Autorinnen vertreten. Noch schlechter sind die Zahlen für Personal mit dunkler Hautfarbe. Hier belaufen sich die Zahlen bei Google auf 2,5%, während Facebook und Microsoft hier 4,5% bieten. Zu „gender minorities“ gibt es überhaupt keine Angaben.
Aus diesen Zahlen könnte man schließen, dass die KI-Branche in einer Diversitätskrise steckt. Entwicklerteams bestehen überwiegend aus jungen, weißen Männern, die in der Regel unbewusst Stereotypen und Verzerrungen, Vorurteile aus ihrem Umfeld in die Software übernehmen.
Ähnlich wie Charlotte Webb fordern die Autorinnen des AI Now Reports, die Zusammensetzung der Entwickler-Teams grundsätzlich zu ändern. Vielfältigere Teams könnten Vorurteile in KI-Systemen verhindern. Sie empfehlen darüber hinaus, mit anderen Abteilungen (z.B. Marketing) zusammenzuarbeiten und systematisch Feedback einzuholen, um Diskriminierung möglichst früh zu erkennen.
Laut Rébecca Menat, CMO des Programmierkursanbieters Le Wagon ist Diversität in Teams von Vorteil: „So wird es nämlich möglich, Herausforderungen aus unterschiedlichen Perspektiven zu betrachten oder mit unterschiedlichen Ansätzen heranzugehen. Auf jeden Fall hat die Forschung längst bewiesen, dass diverse Teams bessere Ergebnisse erzielen – besonders, wenn es um Innovation geht.“ [29]
Die EqualAI Initiative zielt darauf ab, bewusste, aber auch unbewusste, Vorurteile in Software mit Künstlicher Intelligenz zu beseitigen. Sie hat eine Checkliste veröffentlicht, um Bias in künstlicher Intelligenz möglichst früh zu identifizieren. [25]
Ein Auszug daraus:
„Framing the Problem & Product Design
1. Who are you aiming to serve?
2. Who else will be impacted?
3. Who could use or be impacted by the AI who is not represented on your team?
4….“
Die Autor*innen des Whitepapers der Arbeitsgruppe 3 für IT-Sicherheit, Privacy, Recht und Ethik der Plattform für KI stellen klar, dass KI nicht per se neutraler oder objektiver entscheidet als der Mensch. [6]
Die Autor*innen halten technische Ansätze um ethische Prinzipien in Software zu integrieren nicht für ausreichend. Begrenzen lassen sich die Diskriminierungsrisiken ihrer Ansicht nach durch folgende vier Ansätze
1. Erklärbarkeit und Überprüfung
KI-Entscheidungen sollten nachvollziehbar sein. Neben den technischen Herausforderungen gibt es aber weitere Probleme. Die Transparenz der Systeme ist kein Selbstzweck, auch Firmengeheimnisse sind wichtig für den technologischen Fortschritt.
Die Autor*innen schlagen eine unabhängige Instanz vor, die klärt, in welchem Maß und gegenüber welchen Akteuren Transparenz hergestellt wird. Diese Instanz sollte die Outputs lernender Systeme kontrollieren und bewerten. „Sie soll die Ergebnisse und von den Systemen selbst gegebenen Erklärungen mithilfe klar definierter Instrumente und Prinzipien auf Plausibilität überprüfen.“ [6]
Auch werden laufende Schulungen und Fortbildungen für Mitarbeiter*innen in Unternehmen, oder der öffentlichen Verwaltung, die die Systeme verwenden, vorgeschlagen.
2. Selektion der Kriterien
Als diskriminierend bewertete Merkmale wie etwa die ethnische Zugehörigkeit sollte aus dem Input für maschinelle Lernverfahren komplett gestrichen werden. Es bleibt aber das Problem, dass viele Merkmale als Vertreter für andere dienen können. „Generell setzt dieser Ansatz Einigkeit darüber voraus, welche Kriterien diskriminierend sind bzw. welche für uns derzeit noch nicht vorstellbaren Korrelationen akzeptabel sind.“ [6]
3. Gerechte Behandlung als Ziel maschinellen Lernens
„Eine weitere Möglichkeit wäre, eine gerechte Behandlung selbst wird zum Ziel maschineller Lernverfahren gemacht. Dann ginge es nicht mehr darum, möglichst effiziente oder genaue Klassifikationen zu ermöglichen, sondern eben möglichst gerechte.“ [6] Allerdings lassen sich unsere Vorstellungen von Gerechtigkeit und Fairness nicht formalisieren, dazu sind sie viel zu komplex. Und damit kann man diese auch nicht so einfach zum Lernziel von ML machen.
4. Effektiver Rechtsschutz und Rechtsdurchsetzung
Die Betroffenen selbst müssen über ihre Rechte informiert sein und in die Lage versetzt werden, ihre Rechte zu verteidigen oder vor Gericht einzufordern. Um die dadurch entstehenden finanziellen Aufwendungen abzufangen, könnte es eventuell eine Versicherung gegen Diskriminierung durch Lernende Systeme geben. „Den Staatlichen Behörden kommt die Aufgabe zu, einer rechtswidrigen Diskriminierung durch Selbstlernende Systeme entgegenzuwirken. Bei all diesen Maßnahmen sollte allerdings auf ein angemessenes Maß an Regulierung geachtet und Überregulierung vermieden werden.“ [6]
Dass Regulierungen und Gesetze zusätzlich zu den freiwilligen ethischen Leitlinien von Firmen, Berufsverbänden oder NGOs notwendig sind, zeigen die Entlassungen von Timnit Gebru und Margaret Mitchell durch Google. Timnit Gebru, die Leiterin der Abteilung für KI-Ethik bei Google, wurde von Google im Dezember 2020 entlassen. Auch die Entlassung Mitchells, der stellvertretenden Leiterin der KI-Ethik Abteilung, im Februar 2021 hatte mit Streitigkeiten über eine Forschungsarbeit zu tun. Untersucht wurden die Auswirkungen eines Maschine Learning-Modells zur Texterzeugung. Gebru und Kolleg*innen kritisierten die Gefahren, die von großen KI-Sprachmodellen ausgehen könnten. Sie zeigten auf, dass vorurteilsbehaftete und abwertende Sprache reproduziert werden könnte. Google soll Gebru aufgefordert haben, die Arbeit zurückzuziehen und nicht zu veröffentlichen, da durch die Arbeit Googles KI-Technologien zu negativ dargestellt würden. Mitchells Entlassung wurde mit mehreren Verstößen gegen Verhaltensregeln und Sicherheitsrichtlinien begründet. Mitchell selbst war über den Umgang der Firma mit Gebru besorgt. Für sie steht das Ausscheiden von Gebru in einem bedenklichen Zusammenhang mit Sexismus und Diskriminierung. Google bestätigte kürzlich interne Änderungen der Forschungsabteilung. Neue Strukturen und Richtlinien sollen zu einer verantwortungsbewussteren KI-Forschung führen. [26]
Die Association for Computing Machinery (ACM) hat 2018 ihre ethischen Leitlinien, den ACM Code of Ethics, erneuert. Ein Forscherteam um Andrew McNamara von der North Carolina State University führte eine Studie mit 63 Software-Engineering Studierenden und 105 professionellen Software-Entwicklern durch. Sie wollten herausfinden, ob Software-Entscheidungen durch Hinweise auf den ACM Code of Ethics beeinflusst würden. Leider stellten sie fest, dass auch explizite Hinweise, den ACM Code of Ethics bei den Entscheidungen zu berücksichtigen, ohne nennenswerte Effekte blieben. [32]
KI-Systeme sind, wie jede Technik an sich, weder gut noch böse. Heutige KI-Lösungen können schnell große Datenmengen durchsuchen und früher gezeigte Muster in neuen Daten effizient finden. Sie spiegeln wider, was in den