39,99 €
Mit der digitalen Transformation – im Gesundheitswesen wie auch in allen anderen Branchen – wird digitale Ethik zu einer neuen, aber wesentlichen Disziplin. Digitale Ethik zielt auf den vertrauensbildenden und angemessenen Umgang mit Daten und algorithmischen Systemen, um Menschen Orientierung bei der Entscheidungsfindung in der digitalen Welt zu geben. Am Beispiel des Healthcare-Sektors lassen sich die disruptiven Implikationen der digitalen Welt besonders deutlich aufzeigen. Die systematische Sammlung, Verknüpfung und Auswertung von Gesundheitsdaten werden die Medizin revolutionieren. Krankheiten werden besser verstanden und erkannt, Diagnostik und Therapie werden effizienter und vor allem zielgerichteter (Stichwort „personalisierte Medizin“). Zeitgleich werden damit jedoch über Jahrzehnte gewachsene Prämissen aufgeweicht. Treiber dieser Entwicklung sind neben der Wissenschaft auch Technologieunternehmen, die sich sektoren-agnostisch auf Big Data und Künstliche Intelligenz konzentrieren. Hier gilt es, die ethischen Fragen nach dem verantwortungsvollen Handeln in der digitalen Welt aus einer holistischen Perspektive zu betrachten. Dieses Buch beleuchtet – anhand praxisnaher Case Studies renommierter Unternehmen (aus den Bereichen Pharma, Versicherung, Retail und Finanzdienstleistung & Telekommunikation) – die neuen Fragen und Herausforderungen im Kontext digitaler Transformation und vermittelt die Ansätze und Methoden für die Entwicklung ethischer Leitplanken in allen Organisationen, die einen menschenzentrierten Umgang mit Daten und algorithmischen Systemen anstreben. Dabei bricht das Buch die Sektoren- und Branchengrenzen gezielt auf und ermöglicht einen interdisziplinären Blick auf die organisationale und strategische Operationalisierung digitaler Ethik in Organisationen.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 296
Veröffentlichungsjahr: 2023
André T. Nemat | Sarah J. Becker (Hrsg.)
Digitale Ethik in Healthcare
Praxisleitfaden für Unternehmen
unter Mitarbeit von
I. Gadea | R. Heinitz | M. Rebbert
Medizinisch Wissenschaftliche Verlagsgesellschaft
Das Herausgeber-Team
Dr. André T. Nemat
Institute for Digital Transformation in Healthcare GmbH
Witten
Dr. Sarah J. Becker
Institute for Digital Transformation in Healthcare GmbH
Witten
MWV Medizinisch Wissenschaftliche Verlagsgesellschaft mbH & Co. KG
Unterbaumstr. 4
10117 Berlin
www.mwv-berlin.de
ISBN 978-3-95466-711-6 (eBook: ePDF)
ISBN 978-3-95466-712-3 (eBook: ePub)
Bibliografische Information der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Informationen sind im Internet über http://dnb.d-nb.de abrufbar.
© MWV Medizinisch Wissenschaftliche Verlagsgesellschaft Berlin, 2023
Dieses Werk ist einschließlich aller seiner Teile urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Im vorliegenden Werk wird zur allgemeinen Bezeichnung von Personen nur die männliche Form verwendet, gemeint sind immer alle Geschlechter, sofern nicht gesondert angegeben. Sofern Beitragende in ihren Texten gendergerechte Formulierungen nutzen, übernehmen wir diese in den entsprechenden Beiträgen oder Werken.
Die Verfasser haben große Mühe darauf verwandt, die fachlichen Inhalte auf den Stand der Wissenschaft bei Drucklegung zu bringen. Dennoch sind Irrtümer oder Druckfehler nie auszuschließen. Daher kann der Verlag für Angaben zum diagnostischen oder therapeutischen Vorgehen (zum Beispiel Dosierungsanweisungen oder Applikationsformen) keine Gewähr übernehmen. Derartige Angaben müssen vom Leser im Einzelfall anhand der Produktinformation der jeweiligen Hersteller und anderer Literaturstellen auf ihre Richtigkeit überprüft werden. Eventuelle Errata zum Download finden Sie jederzeit aktuell auf der Verlags-Website
Produkt-/Projektmanagement: Viola Schmitt, Lisa Maria Pilhofer, Berlin
Copy-Editing: Monika Laut-Zimmermann, Berlin
Layout, Satz und Herstellung: zweiband.media, Agentur für Mediengestaltung und -produktion GmbH, Berlin
Zuschriften und Kritik an:
MWV Medizinisch Wissenschaftliche Verlagsgesellschaft mbH & Co. KG, Unterbaumstr. 4. 10117 Berlin, [email protected]
Die fortschreitende Digitalisierung des Gesundheitswesens hat in den letzten Jahren einen enormen Einfluss auf die Art und Weise genommen, wie wir Gesundheitsversorgung bereitstellen und erhalten. Neue Technologien wie Mikrosensorik, IoT und Cloud Computing haben uns ein unermessliches Potenzial für die Verbesserung der Gesundheitsversorgung eröffnet. Wir sind heute in der Lage, personalisiertere und präzisere Behandlungsmethoden immer schonender einzusetzen. Die digitale Medizin hat auch die Möglichkeit geschaffen, den Zugang zu Dienstleistungen zu verbessern, insbesondere für Menschen in abgelegenen Gebieten oder mit eingeschränktem Zugang zu Gesundheitsleistungen.
Im Hinblick auf zukünftige Entwicklungen kommen diese Errungenschaften jedoch nicht ohne Risiken und Nebenwirkungen. Die zunehmende Vernetzung des Menschen innerhalb seiner digitalen Welt hat besonders auch im Gesundheitswesen ethische Fragen und Herausforderungen aufgeworfen, die eine sorgfältige Handhabung erfordern. Einige dieser Fragen sind: Wie können wir sicherstellen, dass die Daten von Patientinnen und Patienten geschützt sind aber gleichzeitig zum Fortschritt in der medizinischen Wissenschaft bereit gestellt werden können? Wie stellen wir sicher, dass künstliche Intelligenz ethisch verantwortlich eingesetzt wird? Wie können digitale Technologien dazu beitragen, eine gerechtere und zugänglichere Gesundheitsversorgung zu schaffen?
In diesem Buch konzentrieren wir uns auf die digitale Ethik und bieten einen umfassenden Leitfaden nicht nur für Expertinnen und Experten aus dem Gesundheitswesen, sondern auch für Akteurinnen und Akteure anderer Industrien. Unser Ziel ist es, den Leserinnen und Lesern ein tiefes Verständnis für die ethischen Prinzipien und Herausforderungen digitaler Technologien zu vermitteln und sie in die Lage zu versetzen, diese Prinzipien in ihrer täglichen Arbeit anzuwenden. In den Kapiteln, in denen wir konkrete Beispiele aus dem Unternehmenskontext behandeln, können Impulse für Best Practice abgeleitet werden.
Spätestens seit Ausbruch der SARS-CoV-2-Pandemie Ende 2019 hat der Einsatz von Telemedizin zur Fernbehandlung in ganz Europa an Bedeutung dazu gewonnen. Allgemeine Verfügbarkeit von leistungsfähigen Endgeräten, latenzfreie 5G Telekommunikationstechnologien und Breitband-Netzwerke spielen seitdem eine zunehmend wichtige Rolle bei der Aufrechterhaltung der Gesundheitsversorgung in sämtlichen europäischen Regionen. Jedoch gibt es ethische Fragen in Bezug auf die Qualität der Fernbehandlung im Vergleich zur persönlichen Behandlung und die Notwendigkeit einer angemessenen Schulung von Ärztinnen und Ärzten sowie Patientinnen und Patienten im Umgang mit der Technologie.
In Deutschland stehen wir vor der breiten Einführung der elektronischen Patientenakte (ePA). Die ePA soll es den Patientinnen und Patienten ermöglichen, ihre medizinischen Daten sicher und zentral zu speichern und sie bei Bedarf mit ihren Ärztinnen und Ärzten zu teilen. Während die ePA viele Vorteile bietet, gibt es auch Bedenken hinsichtlich des Datenschutzes und der Datensicherheit. Auch stellen sich Herausforderungen hinsichtlich eines sektoralen Datenaustausches und der Interoperabilität auf technischer Ebene.
Die neuesten Fortschritte in der Bereitstellung von Anwendungen der künstlichen Intelligenz (KI) werfen nun auch ihre Schatten voraus. Nach der Ära des „googelns“ sind nun sog. Large Language Modelle in der Lage, aus einem nahezu unerschöpflichen Reservoir an Daten neue Inhalte zu generieren. Die sozial angepasste Kommunikation durch assoziative Spracheingabe simuliert einen Dialog mit der KI, die auch Einfluss auf die Interaktionen beispielsweise zwischen Ärztinnen und Ärzten sowie Patientinnen und Patienten haben wird. Ein weiteres Beispiel ist die Verwendung von KI in der medizinischen Diagnostik und Behandlung. KI-Systeme können bei der Analyse großer Datenmengen helfen, Muster zu erkennen und die Erstellung von Diagnosen zu unterstützen. Jedoch gibt es Bedenken hinsichtlich der Transparenz und Fairness von KI-Systemen, insbesondere wenn die Datenbasis intransparent und möglicherweise diskriminierend ist. Außerdem werden Entscheidungen zunehmend an die KI delegiert werden müssen, was die Frage der Zuverlässigkeit und der Verantwortung aufwirft.
Digitalisierung im Gesundheitswesen kann und wird nicht aufzuhalten sein. Der technologische Fortschritt eröffnet ein enormes Potenzial. Umso wichtiger ist es, dass Expertinnen und Experten sowie Entscheidungsträgerinnen und Entscheidungsträger im Gesundheitswesen die Herausforderungen annehmen, die der Umgang mit Daten mit sich bringt um eine qualitativ hochwertige, zugängliche und gerechte Gesundheitsversorgung zu gewährleisten. Dieses Buch soll dabei helfen, indem es einen umfassenden Leitfaden zur digitalen Ethik im Gesundheitswesen bietet. Viel Spaß beim Lesen!
André T. Nemat
Witten, April 2023
Dr. Sarah J. Becker
Institute for Digital Transformation in Healthcare GmbH
Witten
Isabel Gadea
Institute for Digital Transformation in Healthcare GmbH
Witten
René Heinitz
Institute for Digital Transformation in Healthcare GmbH
Witten
Dr. André T. Nemat
Institute for Digital Transformation in Healthcare GmbH
Witten
Marcel Rebbert
Institute for Digital Transformation in Healthcare GmbH
Witten
IHealthcare, digitale Transformation & Ethik – eine Bestandsaufnahme
1Von der Relevanz einer digital-ethischen Transformation des Healthcare-Sektors und anderer Branchen
2Grundpfeiler der digitalen Transformation: Exponentielle Steigerung der Rechenleistung, Daten und Algorithmen
3Healthcare im (digitalen) Wandel
4Begleiterscheinungen der digitalen Transformation: Ein Blick über den Tellerrand
5Regulierungsbestrebungen
6Digitale Ethik als Kompass für die digitale Transformation
7Von der Theorie zur Praxis
IIAusgewählte Praxisbeispiele zur Umsetzung digitaler Ethik
1BARMER KdöR
2Deutsche Telekom AG
3Grünenthal GmbH
4ING-DiBa AG
5Merck KGaA
6Otto Group
IIIPraktische Anleitung: Digitale Ethik umsetzen
1Auf dem Weg zur Operationalisierung digitaler Ethik
2Aus der Praxis lernen – Analyse
3Strukturiert vorgehen: Das Corporate Digital Responsibility Framework
4Ist digitale Ethik messbar?
Literatur
IVAnhang
Arbeitsblatt 1: Entwicklung von digital-ethischen Prinzipien
Arbeitsblatt 2: Erarbeitung eines Frameworks für CDR/digitale Ethik
Arbeitsblatt 3: Planung und Wirkung
Arbeitsblatt 4: Stakeholder-Evaluation
Arbeitsblatt 5: Digital Ethics Canvas
Arbeitsblatt 6: Ideenentwicklung
Arbeitsblatt 7: Wirkungsebenen
Arbeitsblatt 8: Stakeholder-Ansprache
Arbeitsblatt 9: Titel-Story
Die Medizin ist ein Bereich des Eingriffes in das private Leben: in die körperliche und mentale Dysfunktion. Die digitale Transformation vieler diagnostischer und therapeutischer Prozesse ist nur mehr eine algorithmische Ausweitung der Kunst, den Körper und Geist wiederherzustellen. Dabei fällt auf: die Digitalisierung ist auch im medizinischen Bereich datengetrieben. Aber anders als z.B. im e-commerce, der sich auf Kaufhandlungen, Informationen und Güter bezieht, haben wir es in der Medizin mit einer besonderen Beziehung zu tun: es geht um die Verknüpfung von Software wie Apparaten mit unseren Körpern. Hier wird die Digitalisierung „hautnah“ erlebt, vor allem dann, wenn Sensoren zunehmend miniaturisiert und in unvorstellbarer Menge auch unbemerkt an uns herangetragen werden.
Im Internet of Everything sind nicht nur Dinge und Personen jeweils miteinander vernetzt. Auch Körper befinden sich im permanenten Austausch mit technischen Geräten. Wearables und Insidables generieren Daten, die die Befindlichkeiten der Menschen zu jeder Tages- und Nachtzeit sammeln und in Echtzeit auswerten. Wir sind mit Sensoren gekoppelt, ob direkt auf der Haut, ob in den Körper implementiert, oder in der Kleidung (oder in allen drei Dimensionen), die über eine Software unsere Körperzustände wie deren Phasenübergänge messen und entweder automatisch korrigieren oder uns darüber informieren, dass wir handeln müssten. Zukünftig wird dieses Datensammeln nicht mehr vollständig freiwillig bleiben. Unser Verhalten wird ebenso gemessen. Im Krankheitsfall wird beispielsweise unsere Disziplin bei der Medikamenteneinnahme kontrolliert. Sporttreibende werden die feed-back-informational-systems noch stärker nutzen als bereits jetzt. Diese Rückmeldungssysteme haben für unsere Identität, unsere soziale performance und unser Selbstbewusstsein eine enorme Bedeutung gewonnen. Viele fühlen sich darin erst autonom; sie messen sich lieber selbst, unabhängig von fremden Geräten zur Diagnose und Überwachung. Sie wissen, in welchen Zuständen sie sich befinden, was sie sich abverlangen können, wo sie ruhen müssen, wo sie neue Energie tanken müssen, trinken, Proteine zu sich nehmen müssen etc. Sie wissen über ihren Körper in einem Maße Bescheid, wie es historisch erstmalig und singulär ist. Allmählich beginnen wir zu begreifen, dass die digitale Transformation aller Lebens- und Wirtschaftswelten unaufhaltsam voranschreitet. Insbesondere die ungefragte Verwendung von persönlichen Daten weist auf ein rechtlich intransparentes Feld. Und die Sorge um eine künstliche Intelligenz, die uns Menschen überflügeln könnte, beherrscht zumindest die Diskussionen.
Luciano Floridi, Professor für Philosophie und Ethik der Informationen an der Universität Oxford, prägt in seinem Buch „Die 4. Revolution“ für diese Vision den Begriff der „Infosphäre“ (Floridi 2014). Es lösen sich die Grenzen zwischen online und offline auf und der Mensch kreiert sich zunehmend eine neue Umwelt.
Wenn in diesen Systemen nun auch künstliche Intelligenz zum Wirken kommt, lernen diese Programme, auf der Basis der persönlichen Krankheits- oder Sportgeschichten, unsere Lebenspfade nicht nur informationstechnisch zu begleiten, sondern die Körperzustände auf einem bestimmten Level zu halten. Über soziale Medien werden nicht mehr nur Laufrouten geteilt, sondern körperliche Zustände. Wir nehmen an Herausforderungen teil, die über eine „30 Tage Plank Challenge“ und „Eine Woche gemeinsam fasten“ hinausgehen. Wir übernehmen Verhaltensmuster, sind zugleich Vorbild und Teilnehmende. Es geht sprichwörtlich um unser Innerstes und die Erhaltung dessen. Prävention ist das Schlagwort, das über allem schwebt. Das komplette, analoge Abbild des Menschen und sein Leben wird übersetzt in die digitale Umwelt und erschafft somit die Möglichkeit der Kreation eines digitalen Zwillings.
Aus der laufenden Rundum-Betrachtung werden ständig Ratschläge für ein längeres Leben erteilt. Das sind keine Bevormundungen, sondern Informationen, die aus den digital verbesserten Krankheits- und Therapieeinschätzungen kommen. Die bloßen Aufforderungen zur Verhaltensänderung verrinnen im Informationsüberfluss und Push-Nachrichten. Eine natürliche Einstellung zum eigenen Körper wird nicht mehr angestrebt; sie wird technisch (an-)gelernt. Krankenkassen werden diese digitalen Entwicklungen aufgreifen und es ist nicht ausgeschlossen, dass sie den Mitgliedern zur Pflicht machen, sich an die neuen Standards zu halten, um die Wirksamkeit von Maßnahmen zu erhöhen. Die nötige Motivation für konformes Verhalten wird durch individualisierte Belohnungssysteme sichergestellt. Die Kostenträger überschlagen sich mit Bonusprogrammen und entwickeln Anreizsysteme. Noch wird nicht mit Sanktionen gearbeitet, aber es ist denkbar, dass diejenigen, die in diesem Gesundheitsspiel nicht teilnehmen wollen, möglicherweise zukünftig dafür selbst die Kosten tragen müssen. Sicher ist allerdings, dass sich weder Krankenkassen noch Leistungserbringer wie z.B. die behandelnden Ärzte die Datenströme entgehen lassen können, um die Krankheitsverläufe besser einzuschätzen und spezifischer zu behandeln. Das Verhalten (Therapietreue) kann jetzt beobachtet und bemessen werden.
Wenn die permanente Statuserhebung der eigenen Gesundheitszustände zur alltagskulturellen Selbstverständlichkeit wird, dann arbeiten in den Algorithmen automatisch Präventionsindikatoren. Gerade die datengetriebenen Systeme können aus den Selbstvermessungen wie aus dem Vergleich mit den großen Datenmengen aller Krankheitsfelder (national wie international) Muster identifizieren, die früherkennend Diagnosen und Therapien verordnen lassen, bevor die Krankheit ausbricht. Die Vermeidung gesundheitsschädlichen Verhaltens verwandelt sich von einem freiwilligen Engagement zur gesellschaftlichen Verpflichtung.
Der Blick auf die einzelnen kleinen Geräte oder Applikationen erfasst jedoch nicht die weite Dimension des digitalen Umbruchs. Die massenhafte Verbreitung von Sensoren in unserer Umwelt führen zu einer unaufhörlich wachsenden Menge an Daten bei stetig sinkenden Beschaffungskosten. Anreicherungsprozesse steigern den Wert granularer Daten in einer Schöpfungskette bis hin zu individualisierten Informationen über den körpereigenen Zustand. Ab diesem Zeitpunkt ist es praktisch unmöglich sich den Verhaltensgeboten zu entziehen, die jedem Menschen den geeigneten Weg in eine statistische Normalverteilung weisen. Hier berühren wir den Nerv aktueller Diskussionen, vornehmlich der besorglichen. Das statistische Vermessen ermöglicht eine völlig neue Empirie für die Einschätzung und Beurteilung der je individuellen Diagnosen und Therapien. Die genauere Zuordenbarkeit von Krankheitsvarianten kann die pharmakologischen Therapiemöglichkeiten spezifizieren bis personalisieren. Es entstehen Behandlungsmodelle, die mit der bisherigen Form der einzelärztlichen Betrachtung nicht erreichbar waren.
Die Intensität der Selbst- und Fremdkontrolle entwickelt sich parallel zum gesellschaftlichen Wandel, der durch datengetriebene Geschäftsmodelle traditionelle Berufe entbehrlich macht und neue schafft. So ergeht es auch der Berufsgruppe der Ärzte. Anamnese-Bots, Medizin-Avatare und Roboter ersetzen die Weißkittel bereits in den meisten Indikationen und lassen die große Distanz zwischen Patienten und Arzt verschwinden. Basisuntersuchungen wie den Puls zu tasten und Langzeit-EKG übernehmen Alltagsgegenstände wie Armbanduhren und Autositze.
Operationen als bewusste Eingriffe zur Optimierung des Körpers nehmen zu. Neben Erweiterungen der attraktiven Attribute werden zukünftig ebenso medtech- und bio-tech-Operationen durchgeführt, die unsere Gelenke, unser Herz, unsere Muskeln etc. mit digital steuerbaren Apparaten unterstützen werden. An elektrische Impulsgeber beim Herzen haben wir uns bereits längst gewöhnt. Über Tattoos, Plugs und transdermale Implantate unter diversen Hautpartien sind wir bereits eingestiegen in neue Formen des kulturellen Umganges mit unseren Körpern: body modification (kurz: BodMod). Der Übergang in med- und bio-tech ist längst angelegt.
Immer seltener wird ein Spezialist zu Rate gezogen, da die Grundversorgung digital gesichert wird. Die Menschen verbinden sich mithilfe der technischen Geräte zu transhumanen Selbst-Diagnostikern. Der Arztbesuch wird damit zu einem seltenen Erlebnis und unerschwinglichem Luxus. Aber die ferndiagnostische Arzt-Patientenbeziehung ist nur die eine Seite. Auf der andere wird in der Medizin der zwischenmenschliche Kontakt immer analog bleiben, vor allem bei der Erörterung von Therapien; Vertrauen ist nicht digitalisierbar.
Wir unterschätzen, welche Neugier an der Erprobung körperstabilisierender und -verstärkender Mechanismen entstehen wird, wenn sie auf den Markt kommen. Und wir unterschätzen das Bedürfnis, nach innerer und äußerer Stabilität in Zeiten, in denen jeder Zustand fluid ist. Wenn der Körper das einzige Objekt, das einzige System bleibt, dass das Subjekt beeinflussen kann, wird diesem eine ungemein hohe Wichtigkeit zugesprochen.
Diese Entwicklungen, so prophetisch sie erscheinen mögen, sind die naheliegenden Konsequenzen einer sich weiterentwickelnden digitalen Transformation. Was sich hier im Healthcare-Sektor aufzeigen lässt, gilt auch in fast allen anderen Bereichen des menschlichen Lebens. Die exponentielle Steigerung der Rechenleistung, Daten und Algorithmen ermöglichen eine radikale Umwälzung, die nicht nur diejenigen betrifft, die entsprechende Produkte und Dienstleistungen nutzen, sondern auch die Schöpfer eben jener Produkte und Dienstleistungen. Unternehmen fast aller Sektoren sehen sich mit der Herausforderung konfrontiert, das Vertrauen von Kunden und Partnern zu gewinnen, um verborgene Datenschätze zu heben und digitale Innovationen voranzutreiben. Datenskandale und zweifelhafte Praktiken erschweren dies jedoch zunehmend. In diesen Zeiten wird der Ruf nach Übernahme unternehmerischer Verantwortung immer lauter. Damit verknüpft sind zahlreiche Fragen: Wie sollen Unternehmen handeln, um ihrer Verantwortung nachzukommen? Nach welchen Maßstäben können Entscheidungen getroffen werden? Was bedeutet es, digitale Innovation verantwortungsvoll zu gestalten? Antworten auf diese und weitere Fragen sind innerhalb der „digitalen Ethik“ zu finden. Sie bietet einen Handlungsrahmen, der Unternehmen Halt und Orientierung geben kann und der das leistet, was im Healthcare-Sektor schon immer zum Selbstverständnis gehörte: Den Menschen in den Mittelpunkt zu stellen.
Dieses Buch schlägt die Brücke zwischen Digital Health, digitaler Ethik und unternehmerischer Verantwortung. Es bricht Sektoren- und Branchengrenzen auf und ermöglicht einen interdisziplinären Blick auf die organisationale und strategische Operationalisierung digitaler Ethik in Organisationen. Dabei soll es zum Mitdenken und Mitgestalten anregen. Fragen zur Reflexion einzelner Kapitel sowie eine Reihe von Arbeitsblättern sollen als Angebot verstanden werden, den digitalen Wandel aus der Perspektive der digitalen Ethik zu verstehen. Aufgrund der thematischen Schwerpunktsetzung ist das Buch in drei Teile aufgeteilt.
Sektion I befasst sich zunächst mit den Grundlagen der digitalen Transformation im Allgemeinen: Exponentielle Steigerung der Rechenleistung, Daten und Algorithmen. Darauf aufbauend wird die Entwicklung der Digitalisierung im Healthcare-Sektor beschrieben, um im Anschluss die Perspektive auf die Begleiterscheinungen der digitalen Transformation in Form von digitalen Geschäftsmodellen zu erweitern. Diese geben Anlass für zahlreiche Regulierungsbestrebungen innerhalb und außerhalb der EU, die aktuell und in den kommenden Jahren den Handlungsrahmen von Unternehmen bestimmen werden und die Unternehmen mit digitalen Geschäftsmodellen kennen sollten. Da das Recht jedoch mit dem Tempo digitaler Innovationen nicht mithalten kann, hat sich mit digitaler Ethik eine Disziplin herausgebildet, die als Kompass für die digitale Transformation fungiert. Deren Merkmale, Treiber und Implikationen für Unternehmen sowohl des Healthcare-Sektors als auch anderer Branchen werden daher im Detail beleuchtet. Dabei geht es insbesondere darum, den Nutzen einer operationalisierten digitalen Ethik im Sinne einer „Corporate Digital Responsibility“ aufzuzeigen.
In Sektion II werden Beispiele aus der Praxis von sechs erfolgreichen Unternehmen aufgezeigt, die digitale Ethik bereits umgesetzt haben. Um einen möglichst breiten Einblick in die Thematik zu erhalten, entstammen diese Unternehmen unterschiedlichen Branchen. Trotz zahlreicher Unterschiede lassen sich ausreichend viele Gemeinsamkeiten entdecken, von denen Unternehmen bei der eigenen Umsetzung digitaler Ethik lernen können.
Sektion III widmet sich dann den Implementierungsmöglichkeiten digitaler Ethik, die sich in Unternehmen ergeben. Nach einer Analyse der Praxisbeispiele aus Teil II wird ein strukturiertes CDR-Framework vorgestellt, anhand dessen der Aufbau digital-ethischer Maßnahmen gelingen kann. In fünf Schritten wird ein systematisches Vorgehen dargelegt, das alle relevanten Aspekte erfolgreicher Implementierung berücksichtigt. Zahlreiche Beispiele veranschaulichen dabei den Nutzen und Anschlussfähigkeit des Themas und stellen Blaupausen für die eigene Umsetzung digitaler Ethik bereit. Den Abschluss bildet ein Ausblick auf die Entwicklung digitaler Ethik im Unternehmenskontext, der vor allem deren Messbarkeit fokussiert.
„It is clear that we are all drowning in a sea of information. The challenge is to learn to swim in that sea rather than drown in it“. Als im Jahr 2000 die Wissenschaftler Lyman und Varian der School of Information Management & Systems (SIMS) an der Berkeley University of California errechneten, dass weltweit pro Jahr ca. 1,5 Exabyte an Daten erzeugt werden, war der gesamte Datenbestand der Welt gerade auf ca. 12 Exabyte angestiegen. Ein Exabyte entspricht einer Milliarde Gigabytes. Wie berechtigt diese sorgenvolle Erkenntnis war, zeigen weitere Studien über das Wachstum der weltweiten Datenmengen aus den letzten Jahren, die immer wieder mit neuen Extremwerten aufwarten. So prognostizierten 2018 etwa der Festplattenhersteller Seagate und das IT-Marktforschungs- und Beratungsunternehmens IDC, dass das jährliche weltweite Datenvolumen im Jahr 2025 auf 175 Zettabytes anwachsen werde. Dabei handelt es sich um eine Zahl mit 21 Nullen, die wie folgt verbildlicht werden kann: Wenn jemand 175 Zettabytes auf Blu-ray Discs übertragen und diese stapeln würde, könnte mit diesem Stapel die Entfernung zwischen Erde und Mond 23-mal zurückgelegt werden. Im Vergleich entsprechen die eingangs genannten 1,5 Exabytes aus dem Jahr 2000 im Übrigen gerade einmal 0,0015 Zettabytes. Aus dem Meer an Informationen ist längst ein Tsunami geworden.
Die Analysten von IDC, die 2018 an ihrer Studie gearbeitet haben, konnten allerdings nicht ahnen, dass 2020 ein Jahr sein wird, welches große Teile der Menschheit dazu zwingen würde, ihr Leben fast vollständig von zu Hause aus zu organisieren. Die COVID-19-Pandemie sorgte dafür, dass Angebote wie Videokonferenztools, Streamingdienste, die medizinische Fernbetreuung oder der digitale Einzelhandel einen enormen Schub erhielten, den kein Forscher in seiner Szenarioanalyse zwei Jahre zuvor hätte einberechnen können. Da beim Nutzen dieser Dienste eine große Anzahl an Daten produziert wird, kann angenommen werden, dass ein Datenvolumen von 175 Zettabyte pro Jahr weit früher erreicht wird und 2025 die Gesellschaft eine noch größere Menge an Daten erzeugen wird als bisher angenommen.
Doch nicht erst seit der Pandemie wird die Welt immer mehr zu einer digitalen Welt. Die Digitalisierung betrifft dabei alle, das Individuum wie auch Organisationen. In sozialen Netzwerken werden dem Einzelnen Jobangebote gezeigt und das darauffolgende Bewerbungsgespräch wird von einem Algorithmus begleitet. Per App wird die alte Kommode verkauft, der Zugang zu neuen Mobilitätskonzepten (Carsharing, E-Scooter, Uber) ermöglicht sowie der Partner fürs Leben gefunden. Für Organisationen stellen 3D-Drucker Maschinenteile her und Roboter bauen diese zusammen. Insbesondere im Gesundheitssektor kann gerade beobachtet werden, wie die Digitalisierung weitreichende Veränderungen mit sich bringt. Ärzte behandeln ihre Patienten aus der Ferne per Telemedizin, das Internet der Dinge und Sensoren erfassen eine Unmenge an Daten und künstliche Intelligenz unterstützt die Auswertung dieser, um Diagnosen zu verbessern. All diesen Beispielen ist gemein, dass sie auf den drei Grundpfeilern der digitalen Welt aufbauen: die exponentielle Steigerung der Rechenleistung, Daten und deren Nutzbarmachung durch Algorithmen.
Als Gordon Moore, einer der späteren Mitgründer des Chipherstellers Intel, 1965 vorhersagte, dass sich die Komplexität eines Mikrochips, gemessen z.B. an der Anzahl der Transistoren, alle 18 Monate verdoppelt, beschrieb er das exponentielle Wachstum, welches die technologische Entwicklung der letzten Jahrzehnte bestimmen sollte. Mit der Anzahl der Schaltkreise stieg die Rechenleistung, sodass Computer immer komplexere Berechnungen durchführen konnten. Damit stellt die exponentielle Steigerung der Rechenleistung einen Grundpfeiler der vernetzten digitalen Welt dar (s. Abb. 1). Auch wenn dieses sogenannte „Moore’sche Gesetz“ heute an seine physikalischen Grenzen stößt und die Abstände zwischen der Verdoppelung der Transistorenanzahl größer werden, so bestimmt es noch lange Zeit den Leitgedanken der Halbleiterindustrie. Mittlerweile wird die Rechenleistung anhand weiterer Faktoren wie der Anzahl der Rechenkerne bestimmt, zudem ist vor allem die Maximierung der Effizienz von Interesse. Neue Chipdesigns mit dreidimensional-integrierten Schaltkreisen sowie die zukünftig verfügbaren Quantencomputer sorgen zudem dafür, dass der Fortschritt in der Leistungsfähigkeit von Computerchips auch ohne die Fortschreibung des ursprünglichen Moore’schen Gesetzes enorm ist: Ein modernes Smartphone hat eine millionenfach größere Rechenleistung als des Apollo Guidance Computer (AGC), mit dem vor über 50 Jahren die erste Mondlandung gelang. Diese sprunghafte Steigerung der Rechenleistung führte zu der Entwicklung einer Reihe sogenannter „exponentieller Technologien“, die in bestimmten Sektoren entwickelt wurden und im Laufe der Jahre neue Branchen besetzt, neue Märkte geschaffen und alte Paradigmen aufgrund ihrer hohen Effizienz und ihres Kostenverhältnisses durchbrochen haben. Der Treibstoff dieser auf der exponentiellen Steigerung der Rechenleistung basierenden Technologien sind Daten und Algorithmen.
Abb. 1 Die Grundpfeiler der vernetzten digitalen Welt
Daten im Allgemeinen als einen Grundpfeiler der Digitalisierung zu bezeichnen ist in etwa so, als wenn Zellen als eine der Grundlagen des menschlichen Körpers bezeichnet würden: Es ist nicht falsch, aber unpräzise. Denn es gibt mehr als 200 verschiedene Zelltypen im Körper, die eine spezielle Funktion erfüllen – Zelle ist nicht gleich Zelle. Ähnlich verhält es sich mit Daten, die ebenfalls eine immense Diversität von Erscheinungsformen besitzen. Daten lassen sich etwa nach ihrem Datentyp (z.B. binär, nominal, ordinal), den datengenerierenden Prozessen (z.B. Umfragedaten, Sensordaten), dem Erhebungsbereich (z.B. Finanzdaten, Wetterdaten) oder ihrer Funktion in einem digitalen System (z.B. Log-in-Daten, Trainingsdaten, Metadaten) unterteilen. Damit bilden Daten einen Ausschnitt der Realität ab, schaffen aber selbst auch Realität. So können Daten heute digitale Vermögensgüter repräsentieren, wie etwa die Kryptowährung „Bitcoin“ oder virtuelle Kunstwerke in Form von Non-Fungible Tokens (NFTs).
Wenn Bezug darauf genommen wird, dass Daten als Entscheidungsgrundlage für strategische Entscheidungen in Organisationen verwendet oder „datengetriebene“ Geschäftsmodelle entwickelt werden, dann impliziert dies bereits eine Verkettung von Daten, Information und Wissen.
Im allgemeinen Sprachgebrauch werden die Begriffe „Daten“ und „Informationen“ entsprechend häufig gleichgesetzt, d.h., wenn über Daten und ihren Nutzen gesprochen wird, sind bereits die durch die Daten repräsentierten Informationen gemeint. Bei beiden Begriffen handelt es sich jedoch nicht um Synonyme. Für die Nutzbarkeit von Daten, d.h. ihren Informationsgehalt, macht es einen Unterschied, in welcher Form sie vorliegen. Denn Daten, die keinerlei Verarbeitung erfahren haben – sog. „Rohdaten“ – haben zunächst wenig Aussagekraft. Es bedarf sowohl des Kontextes der Datenerfassung als auch der entsprechenden Semantik, um Rohdaten zu Informationen werden zu lassen.
So sagt etwa die Zahlenfolge 00492302926874 für sich genommen noch nichts aus. Erst mit dem entsprechenden Kontext, dass die Zahlenfolge einem Impressum entnommen wurde und es sich somit um eine Telefonnummer handelt, wird daraus eine Information. Aufgrund des Kontextes ist auch die Semantik der Zahlenfolge bekannt und so lassen sich noch weitere Informationen extrahieren: Wegen der Ländervorwahl „0049“ handelt es sich um eine Telefonnummer aus Deutschland, durch die Ortsnetzkennzahl „(0)2302“ ist bekannt, dass der Anschluss in der Stadt Witten geschaltet sein muss. Die Kombination der Informationen mit den Informationen des Impressums erzeugen wiederrum das Wissen, dass unter dieser Telefonnummer das Institute for Digital Transformation in Healthcare erreichbar ist.
Weitere einfache Beispiele
Die folgenden Rohdaten dürften für die wenigsten Leser verständlich sein:
A, C, A, B, D
150000
1014010622
Erst durch den Kontext werden die Daten zu Informationen und ermöglichen eine Interpretation:
Bei A, C, A, B, D handelt sich um die Antworten einer Multiple-Choice-Meinungsumfrage.
Mit 150.000 wird der Umsatz des letzten Quartalsberichts einer Organisation angegeben.
Hinter 1014010622 steckt die Uhrzeit (10:14) und das Datum (01.06.22) des letzten Logins auf einer Website.
Eine Telefonnummer ist dabei ein simples Beispiel für das Verhältnis von Daten, Information und Wissen, der Erkenntnisgewinn ist allerdings überschaubar. Um im Kontext von Organisationen auf Basis von Daten Erkenntnisse zu gewinnen und Entscheidungen zu treffen, sind in der Regel große Datenmengen involviert, die durch die Analyse in einen Zusammenhang gebracht werden. Dazu müssen Rohdaten in der Regel verschiedene Verarbeitungsschritte durchlaufen. So sollen bspw. in einer klinischen Studie Daten erhoben werden, um die Wirksamkeit eines neu entwickelten Impfstoffes zu untersuchen. Dabei werden etwa das Alter, das Geschlecht sowie die Blutwerte von Probanden erfasst. Diese einzelnen Datenpunkte sagen für sich genommen noch nichts aus. Sie müssen in einem nächsten Schritt zunächst bereinigt und strukturiert werden, um die Vergleichbarkeit zu gewährleisten und eventuelle Messfehler auszusortieren. Für die Aussagekraft der Datenanalyse sollen möglichst nur qualitativ hochwertige Daten verwendet werden. Fehler bei der Erhebung der Daten wirken sich schließlich auch auf die gewonnenen Erkenntnisse aus. Im Anschluss werden die aufbereiteten Daten für die Interpretation verarbeitet und in ein verständliches, für Menschen lesbares Format gebracht. Anhand von z.B. Graphen können dann etwa Korrelationen zwischen unterschiedlichen Datenpunkten entdeckt und interpretiert werden. So entstehen aus Daten Informationen und letztendlich Wissen, auf dessen Basis Entscheidungen getroffen werden können – etwa ob der untersuchte Wirkstoff in jedem Alter wirksam und gut verträglich ist und daher eine Zulassung erhalten sollte.
Daten werden in der digitalen Welt also von unterschiedlichsten Menschen in verschiedensten Kontexten produziert und ihr Bedeutungsinhalt wird je nach Fragestellung bearbeitet bzw. interpretiert. Gerade für Organisationen gilt, wer Daten präzise analysieren kann, erhält essenzielle Erkenntnisse und Vorhersagen für Entscheidungsprozesse. Dabei sind die Verarbeitung und Aufbereitung von großen Datenmengen in den seltensten Fällen eine Aufgabe, die von Menschen übernommen wird. Hier kommt der dritte Grundpfeiler der digitalen Welt ins Spiel: die Algorithmen (Thalheimer 2018).
Zahlreiche Produkte und Anwendungen – von der Sprachassistenz über die automatisierte Kreditvergabe bis hin zum „autonomen“ Fahrzeug – basieren heute auf „pseudo“ „intelligenten“ Algorithmen.
Ein Algorithmus ist eine fest definierte und endliche Vorgehensweise, mit der ein Problem gelöst werden kann. Schritt für Schritt werden innerhalb eines Algorithmus Anweisungen befolgt, um ein bestimmtes Ziel zu erreichen. In der Regel besteht ein heutiges Computerprogramm nicht aus einem einzelnen Algorithmus, es besteht aus einer Reihe von Algorithmen, die zusammen ein Algorithmisches System bilden. In diesem Zusammenhang wird häufig von einer Microservice-Architektur gesprochen. Diese ist eine Arbeitsweise von Entwicklern, bei denen digitale Angebote nicht auf der Basis eines großen Quellcodes entwickelt werden, sondern es wird für jede Funktion eines Onlineangebotes (etwa das Suchfeld einer App – Siehe Beispielbox Spotify) ein eigener Quellcode geschrieben und separat für sich programmiert. Dies hat den Vorteil, dass bei der Verwendung von Algorithmen für eine spezielle Funktion viel weniger Parameter berücksichtigt werden müssen. Zusätzlich können Entwickler einen einzelnen „Microservice“ schneller aktualisieren oder reparieren, ohne dafür die anderen Microservices des Angebotes besonders beachten zu müssen.
Spotify
Der Streamingdienst Spotify muss sich tagtäglich gegenüber seiner Konkurrenten Amazon, Apple oder Google auf dem Audiostreaming-Markt beweisen. Zusätzlich müssen die Entwickler aufgrund steigender Nutzerzahlen den ständig wachsenden Bedarf an Musik abdecken. Um schnell auf neue Entwicklungen der Konkurrenz und Kundenwünsche reagieren zu können, setzt Spotify auf Microservices. Die Anwendung Spotify besteht aus über 800 solcher Microservices. So ist etwa die Funktion, dass Nutzer beim Eintippen eines Suchbegriffs Vorschläge erhalten ein eigener Microservice, um den sich ein eigenes Team kümmert. (IONOS 2020a)
In technischer Hinsicht weisen algorithmische Systeme unterschiedliche Eigenschaften auf. Das Spektrum reicht von Systemen, die vollständig deterministisch operieren, bis zu Systemen, die durch maschinelles Lernen Handlungspläne eigenständig entwickeln, um ein bestimmtes Ziel zu erreichen. Dort, wo Algorithmen in menschliche Entscheidungsprozesse eingebunden sind, unterscheidet man drei Arten des Einbezugs von algorithmischen Systemen.
Algorithmenbasierte Entscheidungen sind Entscheidungen, bei denen sich der Mensch auf algorithmische berechnete (Teil-)Informationen stützt. Ein Beispiel hierzu sind etwa Entscheidungsunterstützungssysteme, die anhand von Patientendaten aus der elektronischen Patientenakte und auf der Grundlage medizinische Literatur dem Arzt Behandlungsempfehlungen geben.
Algorithmengetriebene Entscheidungen sind solche, die durch algorithmische Systeme in einer Weise geprägt sind, dass der tatsächliche Entscheidungsspielraum und damit die Selbstbestimmung des Menschen eingeschränkt sind. Müsste der Arzt den Behandlungsempfehlungen des Beratungssystems in jedem Fall folgen, wäre seine eigene Selbstbestimmung stark eingeschränkt.
Algorithmendeterminierte und damit vollständig automatisierte Entscheidungen erfolgen völlig unabhängig von Menschen. In diesem Fall würde das algorithmische System auf Basis seiner Berechnung selbstständige Handlungen durchführen. Schon heute können sich etwa Krankenkassen vorstellen, dass zukünftig ein bestimmter Teil der Verwaltungstätigkeit von algorithmischen Systemen gesteuert werden.
Eine besondere Art algorithmischer Systeme erhält unter dem Schlagwort „künstliche Intelligenz“ (kurz: KI) seit geraumer Zeit immer wieder mediale Aufmerksamkeit (Lernende Systeme 2019). Für besonderes Aufsehen sorgen in der Regel PR-tauglich inszenierte Duelle zwischen Mensch und Maschine. So schlug bereits 1997 das IBM Programm „Deep Blue“ den damaligen Schachweltmeister Garri Kasparow. Keine 20 Jahre später konnte sich das von Google entwickelte Programm AlphaGo im ungleich komplizierten Brettspiel „Go“ gegen einen der weltbesten Profispieler durchsetzen. Doch vor allem abseits dieser spielerischen, wenn auch beeindruckenden Leistungen spielt KI eine immer größer werdende Rolle im Industrie- und Dienstleistungssektor. Moderne KI-Systeme, die auf einer Vielzahl von komplexen Algorithmen basieren, befähigen bereits heute einige Maschinen, Roboter und Softwaresysteme dazu, abstrakte Aufgaben und Probleme unter flexiblen Bedingungen zu bearbeiten und zu lösen. Viele Experten gehen davon aus, dass künstliche Intelligenz in Zukunft in vielen Anwendungen zum Einsatz kommen kann und Dienstleistungen verbessern werden. Dies gilt vor allem für die Übernahme einer spezifischen Aufgabe (sog. schwache KI). Eine universelle KI, die alle möglichen Aufgaben übernehmen könnte und unter Um ständen ein eigenes Bewusstsein entwickeln würde (sog. starke KI), ist nach Einschätzung zahlreicher Experten nicht realisierbar und bleibt daher weiterhin Stoff für Science-Fiction-Filme wie „2001: Odyssee im Weltraum“, „Her“ oder „Ex Machina“. Aus technischer Perspektive ist KI vor allem ein Sammelbegriff für verschiedene Methoden, mit denen Programme befähigt werden, komplexe Aufgaben zu übernehmen. Die zwei wichtigsten Bereiche der künstlichen Intelligenz sind das Maschinelle Lernen und das Deep Learning (s. Abb. 2).
Abb. 2 Das Verhältnis von Künstlicher Intelligenz, Machine Learning und Deep Learning (eigene Darstellung nach IONOS 2020b)
Maschinelles Lernen ist eine Schlüsseltechnologie der KI. Mit einer großen Anzahl von Beispieldaten und durch eine auf Basis des maschinellen Lernens entwickelten Mustererkennung können Maschinen komplexe Modelle entwickeln, die sie dann auf neue, unbekannte Situationen anwenden können. Beim Maschinellen Lernen wird zwischen dem überwachten und unüberwachten Lernen unterschieden.
Beim überwachten Lernen enthält der Algorithmus neben den Rohdaten auch das zu erwartende Ergebnis. Damit wird das Ziel verfolgt, der Anwendung durch unterschiedliche Ein- und Ausgaben die Fähigkeit anzutrainieren, selbst zwischen diesen Verbindungen herzustellen. Der Anwendung werden so z.B. Bilder von unauffälligen und von auffälligen Muttermalen gegeben. Wurde die Anwendung mit einer ausreichenden Zahl an Bilder versorgt, kann sie auffällige Muttermale selbstständig erkennen (s. Infokasten).
Beim unüberwachten Lernen werden die Rohdaten ohne vorgegebenes Prognoseziel übergeben. Damit wird das Ziel verfolgt, in großen, unstrukturierten Datensätzen interessante und relevante Muster zu finden. Der Algorithmus muss dafür selbstständig Klassifikationen einteilen können. Ein Beispiel ist die Segmentierung von Patientendaten nach Behandlungsgruppen, um herauszufinden, ob diese auf eine ähnliche Weise behandelt werden können.
Automatisierte Bildanalyse in der Radiologie
Bei der Analyse von medizinischen Bildaufnahmen wird eine KI mit einer hohen Anzahl von Bildern (> 10.000) trainiert, um bestimmte Muster wiederzuerkennen. Eine trainierte KI schneidet dann oft bei Einschätzungen von einzelnen Bildaufnahmen besser ab als ihre menschlichen Kollegen. Dies wurde u.a. bei der Erkennung von Lungenkrebs mithilfe der Computertomografie oder bei der Klassifizierung von Hautläsionen in vielen Studien gezeigt. (u.a. Jutzi u. Brinker 2020)
Deep Learning bezeichnet hingegen einen Teil des maschinellen Lernens, in dem große künstliche neuronale Netze erschaffen und genutzt werden. Angelehnt an die Funktionsweise des menschlichen Gehirns bestehen diese Netze aus Knotenschichten (sog. Neuronen), die durch eine Software realisiert und numerisch gewichtet miteinander verbunden sind. Je komplexer das Netz, desto komplexere Sachverhalte können verarbeitet werden. Daten, die als Input in das neuronale Netz eingeben werden, werden in den sogenannten „Hidden Layers“, also den Knotenschichten zwischen Input und Output, miteinander verknüpft. Jeder Hidden Layer besteht aus mehreren Knotenpunkten, die unterschiedliche Berechnungen vornehmen, einen Output erzeugen und diesen an weitere Knotenpunkte weitergeben. Am Ende wird ein Output generiert, der das Gesamtergebnis darstellt (s. Abb. 3). Ein solches System kann bspw. Bilder von Bananen und Pflaumen entsprechend klassifizieren. Dazu wird das System zunächst mit Bildern von Bananen und Pflaumen trainiert. In den Hidden Layers werden die Regeln für entsprechende Merkmale von Bilden der beiden Obstsorten erzeugt, was am Ende dazu führt, dass der Input eines Bildes mit einer Banane als Output die Klassifizierung „Banane“ erzeugt.
Abb. 3 Funktionsweise künstlicher neuronaler Netze
Deep Learning auf Basis neuronaler Netze hat in vielen Bereichen bereits bemerkenswerte Durchbrüche erzielt und wird etwa in der Qualitätskontrolle von Objekten oder bei der Verarbeitung natürlicher Sprache eingesetzt. So werden Deep-Learning-Methoden z.B. bei der Qualitätskontrolle von kardialen Ballonkathetern angewendet. Hier übernimmt ein voll automatisiertes System die Prüfung der Katheter auf Produktionsmängel wie Kratzer, Materialeinschlüsse oder Blasen – ein Vorgang, der manuell ausgeführt sehr aufwendig ist. (Stadelmann u. Schilling 2019)
Eine besondere Herausforderung bei dem Einsatz von künstlicher Intelligenz ist die Lösung des Blackbox-Problems. Bei vielen Algorithmen wissen Forscher und Entwickler genau, wie sie funktionieren und auf welcher Rechenbasis die künstliche Intelligenz eine Entscheidung trifft. Je komplexer die künstliche Intelligenz und ihre Algorithmen in neuronalen Netzwerken allerdings werden, desto undurchsichtiger werden auch die Entscheidungswege. Die Funktionsweise der Hidden Layer, in denen das jeweilige System die Regeln für die Gewichtung und Klassifizierung von Merkmalen vornimmt, ist von außen nicht zu beurteilen. Dies steigert sich so weit, dass die Forscher ab einem bestimmten Punkt nicht mehr nachvollziehen können, wie die künstliche Intelligenz zu einem Ergebnis gekommen ist. Im Falle eines Versagens des entsprechenden Algorithmus sind die Gründe für dieses Versagen nicht nachvollziehbar und dementsprechend auch nicht korrigierbar. Die Konsequenzen können dabei harmlos und zum Teil amüsant sein, etwa wenn eine KI-gestützte Kamera, die bei einem Fußballspiel dem Ball folgen soll, lieber die Glatze des Linienrichters fokussiert (Bastian 2020). Anders liegt der Fall, wenn bspw. Menschen mit dunkler Hautfarbe als Primaten („Gorillas“) markiert werden, wie dies im Jahre 2015 bei manchen Bildern von schwarzen Nutzern von Google Photos geschehen ist. Im medizinischen Kontext stellt das Blackbox-Problem eine noch größere Herausforderung dar, etwa wenn in Zukunft KI bei der Beurteilung von Röntgenaufnahmen eingesetzt wird und es zu fehlerhaften Diagnosen kommen sollte. Hier geht es dann um den Behandlungserfolg für den Patienten oder um Haftungsfragen für das Krankenhaus.
Die exponentielle Steigerung der Rechenleistung, Daten und Algorithmen sind also die Grundpfeiler des digitalen Wandels und der digitalen Welt. Ihr allgegenwärtiger Einfluss auf das menschliche Zusammenleben führt zu den großen gesellschaftlichen Umbrüchen, die zurzeit zu beobachten sind. Insbesondere im Healthcare-Sektor ergeben sich immense Potenziale, etwa bei der computergestützten Diagnostik, Unterstützung der ärztlichen Entscheidungsfindung am Point-of-Care oder der Entwicklung neuer Medikamente. Gleichzeitig werden die beteiligten Akteure vor neue Herausforderungen gestellt, denen es zu begegnen gilt.
Fragen zur Selbstreflexion
In welchem Jahresabstand kaufen Sie sich einen neuen Computer/Smartphone?
Wissen Sie, wie viele Daten Ihr Unternehmen im letzten Jahr produziert hat?
