Digitaler Wandel und Ethik -  - E-Book

Digitaler Wandel und Ethik E-Book

0,0
22,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.

Mehr erfahren.
  • Herausgeber: Ecowin
  • Sprache: Deutsch
Beschreibung

Ob im privaten Umfeld, in der Arbeit oder im öffentlichen Leben – alles wird digital. Der technologische Fortschritt birgt enorme Chancen, aber auch große Risiken. Welche gesellschaftlichen Herausforderungen bringt dieser Fortschritt mit sich? Welche Rolle spielen ethische Überlegungen? Was ist zu beachten, damit die digitale Revolution dem Wohl der Menschen dient? Experteninnen und Experten aus unterschiedlichsten Bereichen, darunter Informatik, Wirtschaft, Soziologie und Philosophie, stellen sich diesen Fragen und tragen zu einem längst notwendigen kritischen Diskurs bei.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 444

Veröffentlichungsjahr: 2020

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Digitaler Wandelund Ethik

Herausgegeben vonMarkus Hengstschläger und dem Rat fürForschung und Technologieentwicklung

Inhalt

Vorwort

Teil I:Wissenschaft, Technik und Gesellschaft

Stefan Strauß / Alexander Bogner

Demokratische Herausforderungenim Zeitalter des Digitalen Wandels

Peter Reichl / Harald Welzer

Achilles und die digitale Schildkröte:Thesen zu einer Digitalen Ökologie

Sabine Theresia Köszegi

Der autonome Mensch im Zeitalterdes Digitalen Wandels

Teil II: Künstliche Intelligenz

Sarah Spiekermann

Zum Unterschied zwischen künstlicherund menschlicher Intelligenz und denethischen Implikationen der Verwechselung

Anne Siegetsleitner

Wer trägt bei autonomer KünstlicherIntelligenz die moralische Verantwortung?

Anna Jobin

Ethische Künstliche Intelligenz –von Prinzipien zu Prozessen

Niina Zuber / Severin Kacianka /Alexander Pretschner / Julian Nida-Rümelin

Ethische Deliberation für agile Software-Prozesse:Das EDAP-Schema

Anita Klingel / Tobias D. Krafft / Katharina A. Zweig

Mögliche Best-Practice-Ansätze beim Einsatz einesalgorithmischen Entscheidungsunterstützungssystemsam Beispiel des AMS-Algorithmus

Michael Mayrhofer / Gerold Rachbauer

Aspekte der Regulierung von Künstlicher Intelligenz

Teil III:Digitaler Wandel im Gesundheitsbereich

Barbara Prainsack / Mirjam Pot

Von Präzision zu automatisierter Medizin?Digitalisierung im Gesundheitswesen

Charlotte Stix

Zur Zulässigkeit der Optimierungmenschlicher Leistungsfähigkeit

Markus Frischhut

EU-Werte und ethische Prinzipien für KIund Robotik unter besonderer Berücksichtigungdes Gesundheitssektors

Teil IV:Gestaltung der Zukunft

Christopher Frauenberger

Die Verhandlung technologischer Zukünfte

Markus Scholz / Maria Riegler

Responsible Innovation: UnternehmerischeVerantwortung und Collective Action

Elisabeth Stampfl-Blaha

Balance zwischen gesellschaftlichen,wirtschaftlichen und technologischen Interessendurch partizipative Prozesse

Hannes Werthner

Das Wiener Manifest für Digitalen Humanismus

Sepp Hochreiter

»Der Algorithmus kann alles lernen –gute Sachen ebenso wie schlechte.«

Vorwort

Markus Hengstschläger

Unsere Welt ist im digitalen Wandel begriffen. Dieser Wandel erfasst und verändert immer mehr Lebens- und Arbeitsbereiche – von unserem Einkaufs-, Freizeit- und Kommunikationsverhalten über die Gestaltung unserer Städte (Stichwort Smart Cities) bis hin zur Neuorganisation von Arbeitsprozessen unter den Vorzeichen von Robotik und Industrie 4.0. Nahezu jeder Aspekt unseres Lebens besitzt inzwischen eine digitale Komponente. Wir erwarten uns davon, dass lästige, monotone oder riskante Arbeiten an Maschinen ausgelagert werden können, dass Entscheidungsprozesse schneller und effizienter ablaufen und auch zu »objektiveren« Resultaten führen und dass insgesamt unser Leben smarter wird.

Manchmal nutzen wir selbst die von uns und über uns generierten Daten, um unser Wissen zu verbessern und in der Folge auch unser Verhalten zu steuern, zumeist aber sind es Unternehmen, öffentliche Institutionen und zunehmend auch Regierungen, die an Daten über uns interessiert sind. Auch die Festlegung einer geeigneten Strategie gegen die Covid-19-Pandemie, welche die Welt im Frühjahr 2020 fest im Griff hielt, geschah anhand von Daten und Berechnungen hinsichtlich Ausbreitungsgeschwindigkeit des Virus, Ansteckungsrisiken u. ä.

Damit kann die digitale Revolution schon heute neben der neolithischen Revolution, also der Sesshaftwerdung der Menschheit, und der industriellen Revolution als eine der drei großen disruptiven Innovationen der Menschheit betrachtet werden. Und tatsächlich leben wir inzwischen weniger in einer Wissens- als vielmehr in einer Datengesellschaft.

Doch was bedeutet eine digital gesteuerte Welt? Wie bei den meisten neuen Technologien schwanken die diesbezüglichen Diskussionen aktuell bestenfalls zwischen Hoffnung und Skepsis, schlimmstenfalls zwischen unkritischem Fortschrittsglauben und alarmistischen Untergangsszenarien. Was es daher braucht, ist eine Versachlichung der Diskussion anhand konkreter Fragen: Welche Herausforderungen stellen sich schon heute, welche können noch auf uns zukommen und woran können wir uns orientieren bei ihrer Bewältigung? Wie kann sichergestellt werden, dass die digitale Transformation zum Wohl der Menschen eingesetzt wird, ohne dass dabei die Rechte und die Würde des Einzelnen verletzt werden? Welcher moralischen Regeln bedarf es hierfür im Umgang mit den zur Verfügung stehenden Technologien?

Gerade als Genetiker sehe ich enorme Chancen in der digitalen Revolution, sofern grundsätzliche Aspekte berücksichtigt werden. Wir brauchen deshalb eine ethische Diskussion unter Einbeziehung einer breiten Öffentlichkeit mit dem Ziel, die neuesten Innovationen zum Wohle der Menschen nutzen zu können. Denn Technik wird nahezu immer als Mittel zur Erreichung von Zielen oder Zwecken eingesetzt, weshalb sich in letzter Konsequenz auch stets die Frage der Werte stellt, die hinter diesen Zielen stehen.

Es ist noch deutlich mehr Forschung und Entwicklung notwendig, um die großen Chancen des digitalen Wandels nutzbar zu machen. Es muss das Ziel verfolgt werden, entsprechende rechtliche Rahmenbedingungen permanent zu optimieren, damit Fragen wie beispielsweise jene, wer bei algorithmenbasierten Entscheidungen schlussendlich haftet, geklärt sind. Es braucht außerdem klare und transparente Regeln, wer in Zukunft welche Daten verwenden darf und zu welchem Zweck. Das gilt für Daten, die im öffentlich geförderten akademischen Bereich generiert werden, sollte aber auch für solche angedacht werden, die sich im Besitz von Firmen beziehungsweise großer Plattformen befinden. Diese Daten sind für die Wissenschaft und Forschung von grundlegender Bedeutung und sollten daher – entsprechend anonymisiert – verwendet werden können, sofern Datenschutz und Privatsphäre auf höchstem Niveau sichergestellt werden. Im Mittelpunkt muss dabei immer der Mensch stehen – als Individuum und im Kollektiv. Mittels Privacy by Design sollen Systeme grundsätzlich einmal so angelegt werden, dass mit den Daten schlussendlich auch nicht mehr gemacht werden kann als im Vorhinein vereinbart. Außerdem ist eine Vielfalt digitaler Kommunikationsinfrastrukturen sicherzustellen. Hier müssen private, staatliche und öffentlich-rechtliche Anbieter nebeneinander bestehen. Private Monopole, etwa bei Suchmaschinen oder Social-Media-Plattformen, sind moralisch-ethisch ebenso zu hinterfragen wie staatliche digitale Überwachungskonzepte, wie sie (nicht nur) in China entwickelt werden. Eine weitere wichtige Komponente ist die digitale Bildung, also die Fähigkeit, die neuen digitalen Möglichkeiten kritisch-reflexiv zu nutzen. Hierzu gehören gewisse Grundkenntnisse, wie etwa der achtsame Umgang mit Informationen oder Kenntnisse des Recherchierens, um nicht der Gefahr von Fake News oder Filterblasen aufzusitzen. Erst das Wissen über Risiken einerseits und den richtigen Umgang mit den digitalen Kommunikationsmitteln andererseits fördert die Bewertungsfähigkeit, die Entscheidungskompetenz und letztendlich die Autonomie der Menschen. Digitale Bildung brauchen wir aber auch, damit im Transformationsprozess niemand zurückbleibt. Natürlich wird eine entsprechende Ausbildung, wie etwa Grundkenntnisse im Programmieren, immer wichtiger, doch für die Entwicklung innovativer Anwendungen benötigt man eine möglichst große Breite an unterschiedlichen Fähigkeiten, Kompetenzen, Zugängen und Wissenshintergründen. Um beispielsweise versteckte Diskriminierung in Algorithmen zu erkennen und zu verhindern, ist Bias Awareness, also das Bewusstsein für Verzerrungseffekte, ebenso wichtig wie Diversitätstraining. Und es braucht die Förderung und Unterstützung unterschiedlichster Formen von Kreativität, um verschiedenste beziehungsweise vielfältige Innovationen mittels dieser neuen digitalen Ansätze generieren zu können. Dazu ist die enge Zusammenarbeit der Informations- und Kommunikationstechnologien nicht nur mit den Naturwissenschaften, sondern vor allem auch mit den Geistes-, Sozial- und Kulturwissenschaften notwendig.

Die vorliegende Publikation, die hauptsächlich während der sogenannten »Corona-Krise«, also der Covid-19-Pandemie im Frühjahr 2020, und damit ganz unter dem Eindruck und unter den Schwierigkeiten der zu ihrer Bekämpfung getroffenen Maßnahmen – Stichwort Ausgangsbeschränkungen – entstand, versteht sich als Beitrag des Rates für Forschung und Technologieentwicklung zur notwendigen Diskussion der gesellschaftlichen und ethischen Herausforderungen, die die digitale Transformation aufwirft. Die Beiträge der 27 namhaften Autorinnen und Autoren umfassen ein breites Spektrum an Themen, können jedoch aufgrund der Vielzahl an Fragen, die der digitale Wandel aufwirft, nur einen kleinen Teil abdecken und verstehen sich daher auch nur als eine erste Annäherung beziehungsweise Anregung für weitere Diskussionen.

Teil I nähert sich in drei Beiträgen einigen grundsätzlichen gesellschaftlichen Herausforderungen und ethischen Fragen, die aufgrund der wissenschaftlich-technologischen Entwicklungen und speziell der digitalen Transformation auf uns zukommen.

Einleitend gehen Stefan Strauß und Alexander Bogner auf die politischen Implikationen der digitalen Transformation und hierbei speziell auf jene Herausforderungen ein, die sich für die Demokratie beziehungsweise die demokratische Politik auftun. Ihre zentrale These lautet, dass im Zuge der Digitalisierung vor allem zwei fundamentale Prinzipien der liberalen Demokratie unter Druck geraten: das institutionelle Prinzip der Vermittlung sowie das ideelle Prinzip eines reflektierten Relativismus. Dazu beleuchten sie insbesondere die Bedeutung der sozialen Medien und illustrieren, inwiefern die Digitalisierung des Politischen antidemokratische und/oder populistische Tendenzen unterstützt.

In der Kluft zwischen den vielfältigen Versprechungen der Digitalisierung einerseits und deren immer häufiger zu beobachtenden negativen Auswirkungen andererseits verorten dann Peter Reichl und Harald Welzer ihren Beitrag. Aus der kombinierten Perspektive zweier Disziplinen – der Informatik und der Sozialpsychologie – gehen die Autoren den Fragen nach, warum ein ethischer Diskurs über die Folgen des digitalen Wandels nicht ausreicht und wie ein umfassenderer Ansatz im Sinne einer Digitalen Ökologie aussehen könnte. Erst eine Perspektive, die die bisher übliche segmentäre Betrachtungsweise der Digitalisierung überwindet, kann nach Ansicht von Reichl und Welzer den Blick dafür öffnen, dass der digitale Wandel nicht nur eine soziale Tatsache ist, sondern alle Beziehungen des Menschen – auch jene zu sich selbst und zu seiner Umwelt – durchdringt.

Anschließend setzt sich Sabine Köszegi vor dem Hintergrund, dass KI-Technologien kein Selbstzweck sind beziehungsweise sein dürfen, kritisch mit den Auswirkungen automatisierter Entscheidungssysteme auf die Autonomie der Menschen auseinander. Darauf aufbauend definiert sie die wesentlichen Anforderungen, die an Systeme Künstlicher Intelligenz (KI) zu stellen sind, um die Menschen und die Gesellschaft insgesamt in ihrem Recht auf Selbstbestimmung zu schützen. Sie betont, dass wir uns gegenwärtig in einer bedeutenden Phase befinden, da die Technologie in vielen Bereichen noch nicht allzu weit entwickelt ist und wir ihre Gestaltung folglich noch beeinflussen können. Allerdings könnte sich dieses Zeitfenster bald schließen, weshalb es umso dringlicher ist, die Technologie jetzt »menschenzentriert« zu gestalten.

Teil II widmet sich eingehender der sogenannten »Künstlichen Intelligenz«, den auf ihren rasant wachsenden Fähigkeiten zur Verarbeitung riesiger Datenmengen aufbauenden Möglichkeiten und Hoffnungen, vor allem aber der Kritik, die vor den möglicherweise irreversiblen Folgen für die Gesellschaft warnt.

Sarah Spiekermann beleuchtet dazu die aktuellen Tendenzen, KI-Systeme als »menschenähnlich« zu beschreiben und sogar über Rechte für diese nachzudenken. Ihrer Ansicht nach bedeutet dies einen massiven Eingriff in die Freiheit und Würde des Menschen, mit noch unabsehbaren gesellschaftlichen Folgen. Spiekermann tritt für einen nüchternen Vergleich zwischen den unbestrittenen Fähigkeiten von KI-Systemen und den Merkmalen menschlicher Intelligenz ein und nähert sich dieser Aufgabe mit der Frage, ob KI-Systeme über menschenähnliche Information verfügen, menschähnlich denken und reagieren können und ob sie über Motivation und Autonomie verfügen.

Ausführlicher dem nicht nur in unserem Rechtssystem, sondern auch in unserer Alltagspraxis zentralen Begriff der Autonomie widmet sich Anne Siegetsleitner mit der Frage, wer letztlich bei sogenannter autonomer Künstlicher Intelligenz die moralische Verantwortung trägt. Sie verweist dazu auf die Tatsache, dass die in der Technik verwendete Redeweise von »autonomen Systemen«, etwa bei Fahrzeugen, Pflege- oder Kampfrobotern, lediglich die »Unabhängigkeit von Menschen« bei der Ausführung der Tätigkeiten meint, nicht aber gleichbedeutend ist mit dem in der Ethik beziehungsweise Moralphilosophie verwendeten Autonomiebegriff. Tatsächlich handeln KI-Systeme nicht, sondern verhalten sich lediglich so, wie es ihnen mittels Programmierung eingegeben wurde, selbst wenn diese Systeme danach auf Basis zusätzlicher Daten »lernen«. Autonome Handlungen im moralischen Sinn hingegen liegen nur dort vor, wo diesen Handlungen auch begründbare Intentionen, also Absichten, zugrunde liegen.

Anna Jobin geht dann der Frage nach, warum der Ruf nach »ethischer« Künstlicher Intelligenz in den letzten Jahren immer lauter wurde und welche Prinzipien in den bisher dazu formulierten Vorschlägen beziehungsweise Richtlinien enthalten sind. Dabei kommt sie zu dem Ergebnis, dass entgegen der bei oberflächlicher Betrachtung festgestellten Ähnlichkeiten durchaus gravierende Divergenzen bestehen, weshalb sie auf die Grenzen einer prinzipienbasierten Ethik für Künstliche Intelligenz verweist. Diese sollte daher auch nur als Diskussionsbasis verstanden werden, die dann anwendungsspezifisch übersetzt und gewichtet werden muss, was jedoch – so Jobin – eine gesamtgesellschaftliche Aufgabe sei.

Welche Vorgehensweise es braucht, um »ethische« Maschinen beziehungsweise Softwaresysteme entwickeln zu können, die unseren juristischen, kulturellen und moralischen Standards gerecht werden, ist Inhalt des Beitrags der Autor*innen Niina Zuber, Severin Kacianka, Alexander Pretschner und Julian Nida-Rümelin. Denn wie schon im Beitrag von Anne Siegetsleitner dargestellt, können sogenannte »autonome Systeme« tatsächlich niemals in einem moralischen Sinn autonom handeln; der Wunsch etwa nach einem Softwaresystem, das selbstständig ein ethisch abgesichertes Resultat liefert, indem es die menschliche Deliberationsfähigkeit nachzuahmen versucht, übersteigt die heutigen wissenschaftlichen Möglichkeiten bei Weitem. Mit dem EDAP-Schema (»Ethical Deliberation for Agile Processes«) wollen die Autor*innen allerdings einen praxistauglichen Ansatz liefern, um Systeme unter ethischen Gesichtspunkten entwickeln zu können.

Anschließend untersuchen die Autor*innen Anita Klingel, Tobias Krafft und Katharina Zweig mit dem Algorithmus des Arbeitsmarktservice (AMS), welcher künftig zur Feststellung der Förderwürdigkeit von Arbeitslosen eingesetzt wird, ein ganz konkretes Beispiel eines KI-Systems. Sie zeigen, welche Anforderungen staatlich verwendete Systeme auf Basis Künstlicher Intelligenz erfüllen sollten – von der transparenten Konzeptualisierung und Operationalisierung des Algorithmus bis hin zur Festlegung, wie mit den Ergebnissen dieses digitalisierten Prozesses umgegangen werden soll. Und sie beleuchten, was im konkreten Prozess der Entwicklung und des Einsatzes des AMS-Algorithmus richtig gemacht wurde, wo noch Potenzial zur Verbesserung liegt und was andere staatliche Akteur*innen aus diesem Beispiel lernen können.

Der diesen Abschnitt der Publikation abschließende Beitrag beleuchtet schließlich die Herausforderungen, vor die der Gesetzgeber und die Rechtswissenschaften durch die rasante technische Entwicklung im Bereich der Künstlichen Intelligenz gestellt werden. Die Autoren Michael Mayrhofer und Gerold Rachbauer setzen sich anhand ausgewählter Beispiele mit dem bestehenden Rechtsrahmen für die Entwicklung und den Einsatz von Künstlicher Intelligenz auseinander und stellen mögliche zukünftige Regulierungsmöglichkeiten, aber auch deren Grenzen zur Diskussion.

Die Beiträge in Teil III beschäftigen sich dann mit einigen Fragen, die die Digitalisierung im Gesundheitsbereich aufwirft, wobei es sowohl um individuelle als auch um gesellschaftliche und politische Themen geht. Aktuelle Diskussionen kreisen hier vor allem um Begriffe wie Präzisionsmedizin, Predictive Analytics und ähnlichem. So soll es künftig möglich sein, die Kombination vieler Befunde, etwa aus der Genetik, der Radiologie oder der Labormedizin, gemeinsam mit anderen klinischen Befunden durch Künstliche Intelligenz zu einer Interpretation zusammenzuführen. Das wird die Medizin fundamental verändern.

Barbara Prainsack und Mirjam Pot gehen daher in ihrem Artikel der Frage nach, ob unserer Gesellschaft aufgrund der zunehmenden Digitalisierung des Gesundheitswesens und der dadurch ermöglichten Präzisionsmedizin die Gefahr einer weiteren sozialen Polarisierung droht, wenn jenen, die es sich leisten können, für die Interpretation ihrer Gesundheitsdaten und für personalisierte Therapien zu bezahlen, auch immer bessere Hightech- und Hightouch-Medizin zur Verfügung steht, während die anderen aus Kostengründen auf »automatisierte Medizin« angewiesen sind. Zudem entwickeln die Autorinnen einen Ansatz für ein erweitertes Verständnis von Personalisierung in der Medizin, um ebendiese Entwicklung abwenden zu können.

Gegenüber den sozialen Auswirkungen der Digitalisierung in der Medizin beschäftigt sich Charlotte Stix mit der durch den digitalen Wandel möglichen Perspektive neuer Formen des Human Enhancement, also einer technologischen Verbesserung, Steigerung oder Optimierung des Menschen beziehungsweise seiner Leistungsfähigkeit, und den daraus sich ergebenden ethischen Fragestellungen. Sie verweist auf die Schwierigkeit klarer Grenzziehungen und stellt die Argumentationslinie der »Entmenschlichung«, wie sie von den Gegner*innen beziehungsweise Kritiker*innen einer solchen »technischen Verbesserung« vorgebracht wird, den Argumenten der Befürworter*innen eines Transhumanismus und der sogenannten »Extended Mind Hypothese« gegenüber.

Zum Abschluss dieses Teiles der Publikation zum Thema Gesundheit bietet Markus Frischhut eine Übersicht über jene Werte und ethischen Prinzipien für Künstliche Intelligenz und Robotik, die immer öfter in den rechtlichen Dokumenten der Europäischen Union festgestellt werden können. Ausgehend von den Entwicklungen im Bereich der Biotechnologie finden seit den 1990er-Jahren vermehrt Verweise auf Ethik statt, wobei diese jedoch inhaltlich nicht ausschließlich einer einzelnen normativen Theorie, wie etwa der Deontologie, dem Konsequentialismus oder der Tugendethik, zugeschrieben werden können. Zudem bestehen vielfach Lücken, die unter Heranziehung gemeinsamer Werte, vor allem der Menschenrechte, gefüllt werden. Diese sollten, so Frischhut, durch konkrete Prinzipien ergänzt werden, die sich am Begriff des »Vertrauens« als übergeordnetem Ziel orientieren.

Ausgehend von der Tatsache, dass wissenschaftlich-technologische Entwicklungen grundsätzlich als politische begriffen werden müssen, geht es im vierten und letzten Abschnitt schließlich um konkrete Ansätze zur Gestaltung unserer Zukunft unter den Vorzeichen der digitalen Transformation.

Den Beginn macht Christopher Frauenberger, für den die zentrale ethische Frage lautet, wer wir in Zukunft als Menschen sein wollen und ob uns die Digitalisierung in ihrer derzeitigen Form tatsächlich zu diesen Menschen macht. Er plädiert für neue öffentliche und demokratische Verhandlungsräume, in denen diese Fragen und mögliche technologische Zukünfte verhandelt werden können, und diskutiert, wie eine Re-Politisierung der Gestaltung und Entwicklung digitaler Technologien aussehen könnte. Als Perspektive hierfür bietet Frauenberger zwei Ansätze: Den der partizipativen Gestaltung von Innovationsprozessen und das an Chantal Mouffes Begrifflichkeit orientierte Konzept des Agonismus.

Für den Bereich der Wirtschaft beschreiben dann Markus Scholz und Maria Riegler die bestehenden Regulierungslücken, die die digitale Transformation kennzeichnen und aus denen sich für Unternehmen zahlreiche Möglichkeiten kurzfristiger betriebswirtschaftlicher Optimierung ergeben – mit mitunter fatalen Folgen für Gesellschaft und Umwelt. Die Autoren plädieren daher nicht nur für eine unternehmensethische Perspektive, welche Unternehmen als Corporate Citizens und demnach als mit Rechten und Pflichten ausgestattet betrachtet, sondern darüber hinaus vor allem für »Collective Action«, verstanden als Form der Zusammenarbeit zwischen Unternehmen, mit dem Ziel, Probleme von gesellschaftlicher Relevanz gemeinsam zu lösen.

Der von verschiedenen Seiten immer wieder geforderten »Partizipation« bei der Entwicklung ethischer Ansätze widmet sich auch Elisabeth Stampfl-Blaha. Sie sieht in der »Standardisierung« das wesentliche Instrument zur Schaffung beziehungsweise Erhaltung einer Balance zwischen legitimen gesellschaftlichen, wirtschaftlichen und technologischen Interessen und entwickelt dazu nach einem Überblick, wie Standardisierungen erfolgen, in ihrem Beitrag Überlegungen, wie dieser Prozess im Hinblick auf die ethischen Herausforderungen durch die Digitalisierung weiterentwickelt werden könnte.

Hannes Werthner bietet in seinem Beitrag einen Überblick über die methodischen Wurzeln der Informatik und über deren Rolle als Leitwissenschaft der Informationsgesellschaft. Dazu geht er dem »Wesen«, vor allem aber dem »Unwesen« der Informatik nach und thematisiert die Monopolisierungstendenzen, die inzwischen zur Vorherrschaft und Kontrolle einiger Weniger auf technischer, ökonomischer und politischer Ebene geführt haben. Besonders die Rolle der Plattformen in diesem Prozess wird dabei kritisch beleuchtet. Als Gegenmaßnahme fordert Werthner die Orientierung der Informatik an einem »Digitalen Humanismus« und stellt das von ihm und Kolleg*innen formulierte »Wiener Manifest für Digitalen Humanismus« vor, welches als Grundlagenpapier und Ausgangspunkt für die Entwicklung und Formulierung von Grundprinzipien für die künftige Entwicklung der Informatik dienen soll.

Den Abschluss bildet ein Interview mit Sepp Hochreiter, der auf ethische Herausforderungen Künstlicher Intelligenz aus Sicht des Informatikers ebenso eingeht wie auf die Möglichkeiten – und Gefahren –, einen Algorithmus mit entsprechenden Daten zu trainieren. Zudem beschreibt er die Herausforderungen der »explainability«, den Versuch also, zu verstehen, was ein KI-System tatsächlich macht, wenn es »Entscheidungen« trifft, und der damit verbundenen Frage der Verantwortung. Hochreiters Resümee verbindet die großen Hoffnungen, die in die künftigen Möglichkeiten auf Basis von Künstlicher Intelligenz gesetzt werden können, mit der Warnung, dass diese Technologie von großen Konzernen, kriminellen Organisationen, aber auch Regierungen eingesetzt wird, um die Bevölkerung zu täuschen und zu manipulieren.

Angesichts der schwierigen Entstehungsbedingungen aufgrund der erwähnten Covid-19-Pandemie, die auch für die Autorinnen und Autoren eine Herausforderung bedeuteten, bedanke ich mich abschließend bei ihnen allen für ihre Bereitschaft zur Zusammenarbeit und für ihre Beiträge, die als wertvolle Diskussionsgrundlagen für den gesellschaftlichen Diskurs dienen werden.

Wissenschaft,TechnikundGesellschaft

DemokratischeHerausforderungenim Zeitalter desdigitalen Wandels

Stefan Strauß & Alexander Bogner

1. Einleitung

Es ist noch nicht lange her, da galt die Digitalisierung praktisch ausschließlich als großer Segen für die Demokratie. Der Arabische Frühling wurde als »Smartphone-Revolution« gefeiert, wobei das Internet so etwas wie eine digitale Echokammer des demokratischen Aufbruches zu sein schien. Im Wahlkampf 2012 hatte der technikaffine damalige US-Präsident Barack Obama seinen republikanischen Herausforderer im Rennen ums Weiße Haus souverän auf Distanz gehalten. »Big Data Will Save Politics«, titelte die MIT Technology Review Anfang 2013. Nur fünf Jahre später, im Herbst 2018, unter dem Eindruck des Cambridge-Analytica-Skandals, angesichts von Fake News und hemmungsloser Hasskommunikation im Netz, fragte dann dieselbe Zeitschrift auf ihrem Cover etwas ratlos: »Technology is threatening our democracy. How do we save it?«

Dass sich im Zuge des digitalen Wandels massive »ethische Herausforderungen« ergeben, wie der Titel dieser Publikation suggeriert, ist heute nicht weiter umstritten. Ebenso deutlich sind die Herausforderungen, die sich im digitalen Zeitalter für Wirtschaft und Gesellschaft ergeben. In den Blick gerückt wird etwa die Entwicklung neuer Monopolstrukturen durch die immense Marktmacht der »Big Five« der US-Technologieunternehmen (Staab, 2019). Man verweist auf die bedrohliche Macht der Algorithmen, die auf intransparente Weise unsere Wahrnehmung der Welt und unsere politischen Sichtweisen steuern und beeinflussen (Pasquale, 2015). Thematisiert wird außerdem die Bedrohung bürgerlicher Freiheitsrechte durch einen perfektionierten »Überwachungskapitalismus« (Zuboff, 2018) beziehungsweise die Gefährdung personaler Autonomie durch digitale Identifikationstechnologien (Strauß, 2019). Letzterer Aspekt verweist auf das Spannungsverhältnis, das sich mittlerweile zwischen Digitalisierung und Demokratie entwickelt hat: Wenn Privatsphäre zu den demokratischen Grundpfeilern gehört, gerät mit deren Gefährdung auch die Demokratie in Gefahr.

In diesem Beitrag gehen wir auf jene Herausforderungen näher ein, die sich im Zuge der digitalen Transformation für die demokratische Politik ergeben. Dabei beleuchten wir insbesondere die Bedeutung von Plattformöffentlichkeiten und sozialen Medien für die Vermittlung, Darstellung und Inszenierung von Politik. Anhand einiger prominenter Beispiele illustrieren wir, inwiefern die Digitalisierung des Politischen antidemokratische oder populistische Tendenzen unterstützt. Unsere zentrale These lautet, dass im Zuge der Digitalisierung heute vor allem zwei fundamentale Prinzipien der liberalen Demokratie unter Druck geraten: das institutionelle Prinzip der Vermittlung sowie das ideelle Prinzip eines reflektierten Relativismus. Was sich hinter diesen beiden Prinzipien verbirgt, zeigen wir im nächsten Abschnitt.

2. Eckpfeiler demokratischer Politik

Um Gefährdungspotenziale der Digitalisierung für demokratische Politik zu identifizieren, ist zunächst einmal eine genauere Bestimmung der zentralen Eckpfeiler liberaler Demokratien notwendig. Naheliegende Antworten lauten: Gewaltenteilung, allgemeines Wahlrecht, bürgerliche Freiheitsrechte. Das ist grundsätzlich richtig, aber für unseren Zusammenhang ist es entscheidend, auf die zentralen Technologien der Willensbildung in der Demokratie hinzuweisen. Notwendig ist dies, weil die Willensbildung nicht unmittelbar durch das Volk erfolgt, sondern über bestimmte Instanzen vermittelt wird, in erster Linie durch die Parteien und das Parlament, aber natürlich auch durch die Medien. Das heißt, die moderne Demokratie lässt sich technisch nicht als direkte Demokratie, sondern nur repräsentativ, das heißt in Form eines Parlamentarismus realisieren (auch wenn die parlamentarische Demokratie natürlich durch direktdemokratische Elemente ergänzt werden kann). Aber nicht nur technische Gründe sprechen für eine parlamentarische beziehungsweise Parteiendemokratie. Schon die US-amerikanischen Gründerväter fürchteten die unmittelbare Willensbildung auf Grundlage ungefilterter Emotionen und votierten daher für unabhängige Parlamentarier und nicht vom Volk wählbare Richter.

Der Sinn der vermittelnden Institutionen in der Demokratie (Parteien, Parteienvielfalt, Parlament, Medien) liegt somit darin, eine Distanz zwischen unmittelbarem Wollen, zwischen eruptiver Bewegung und politischer Entscheidung herzustellen. Das Mittel dafür besteht in der Öffnung von Räumen, in denen über den freien Austausch von Meinungen und Standpunkten so etwas wie eine Entschleunigung politischer Entscheidungsfindung bei gleichzeitiger Rationalisierung der Debatte ermöglicht werden soll. Schon John Stuart Mill hat in seiner berühmten Abhandlung über die Freiheit argumentiert, dass nur die offene Rezeption der frei geäußerten Widerrede den Anspruch auf besseres Wissen legitim macht (Mill, 1974, 29). Wer alternative Meinungen leichtfertig aus dem Feld schlägt, begibt sich der Möglichkeit, die eigene Position in offener, vorurteilsfreier Auseinandersetzung mit der Gegenseite besser zu begründen. Gleichzeitig aber wusste Mill natürlich, dass nicht jede Art von Dissens immer auch produktiv ist. Institutionelle Vorkehrungen, eine tendenziell ausufernde Meinungsvielfalt auch wirklich produktiv zu machen, bestehen in der liberalen Demokratie daher im Zwang, die eigene Meinung über den Umweg der Parteiorganisationen relevant machen zu müssen, beziehungsweise in der Festlegung von Sperrklauseln für die Wahl des nationalen Parlamentes. Auf diese Weise wird jede politische Initiative durch einen mehrstufigen Vermittlungsprozess geschickt.

Die für die liberale Demokratie wesentlichen Vermittlungsorgane versinnbildlichen letztlich den fundamentalen »Erziehungsanspruch« jeder funktionierenden Demokratie: Im Rahmen der öffentlichen Meinungs- und politischen Entscheidungsbildung geht es darum, für die eigenen Überzeugungen einzustehen, ohne den politischen Gegner als Feind zu betrachten; es geht darum, die eigene Position durchaus als überlegen zu verstehen, ohne jedoch die prinzipielle Legitimität der Gegenposition anzuzweifeln. Mit anderen Worten: Die eigentlichen Werte der liberalen Demokratie sind die nirgendwo explizit festgeschriebenen Diskursnormen, nicht jedoch bestimmte politische Zielsetzungen (wie z. B. »Gerechtigkeit« im sozialistischen Modell). Ein schwieriges Problem entsteht aus der Erosion solcher Normen, wie man seit einiger Zeit am Beispiel der USA beobachten kann. Dort vereitelt die extreme politische Polarisierung mittlerweile fast jede vernünftige Kompromissfindung. Dementsprechend gilt »Partyism« (Sunstein, 2015) – ein voraussetzungsloser Hass auf Personen einzig aufgrund ihrer Parteizugehörigkeit – fast schon als eine ebenso destruktive Ideologie wie der Rassismus oder Sexismus.

Mit anderen Worten: Eine funktionierende Demokratie setzt die Fähigkeit zur Relativierung der eigenen Position voraus. Wer davon ausgeht, dass er (oder sie) eine privilegierte Sicht der Dinge hat, ohne einer offenen Debatte darüber zu bedürfen, der privilegiert in Wirklichkeit Dogmatismus, Autoritarismus und Intoleranz. Der Wille zum Dialog ergibt sich dabei ausschließlich auf Basis der Fähigkeit zur Selbstreflexion, zur Selbstinfragestellung und damit zur Selbstrelativierung. Nur unter der Voraussetzung dieser grundsätzlichen Offenheit lassen sich wesentliche Elemente der Demokratie – wechselnde Mehrheiten und geschützte Minderheiten – begründen. Diesen engen Zusammenhang zwischen liberaler Demokratie und weltanschaulichem Relativismus hat der österreichische Verfassungsrechtler und Soziologe Hans Kelsen schon in den 1920er-Jahren thematisiert: »Wer absolute Wahrheit und absolute Werte menschlicher Erkenntnis für verschlossen hält, muss nicht nur die eigene, muss auch die fremde, gegenteilige Meinung zumindest für möglich halten. Darum ist der Relativismus die Weltanschauung, die der demokratische Gedanke voraussetzt.« (Kelsen, 2018, 132) Gäbe es so etwas wie die absolut überlegene Meinung (»Wahrheit«) oder anders gesagt: existierte ein allgemein geteilter Glaube an die konkurrenzlose Überlegenheit einer bestimmten politischen Maßnahme, dann wäre jede politische Debatte obsolet. Die für die liberale Demokratie wesentlichen Vermittlungsinstitutionen wären dann nur noch überflüssiger Zierrat, bestenfalls dazu geeignet, die Exekutive in ihrer Arbeit zu behindern.

Das Prinzip der Vermittlung und die Ideologie des Relativismus sind also zentrale Voraussetzungen liberaler Demokratie. Beide dienen letztlich dem Ziel, über die Öffnung des Diskurses eine »vernünftige« Politik zu ermöglichen. Im nun folgenden Abschnitt geht es darum, auf welche Weise diese Grundlagen heute, im Zuge der Digitalisierung, unter Druck geraten.

3. Politische Implikationen digitaler Transformation

Schon in den 1990er-Jahren, den Anfängen von Internet und WWW, herrschte euphorische Grundstimmung ob einer Demokratisierungswelle durch die neuen Medien. McLuhans Metapher vom »Globalen Dorf« schien endlich real geworden zu sein. Tatsächlich veränderte sich die Gesellschaft politisch wie sozial durch neue Interaktionsformen und unvermittelte Kommunikation via digitale Medien seither massiv. In der Anfangsphase passierte dies noch hauptsächlich bottom-up durch sogenannte Grassroots-Organisationen und einzelne Interessensgemeinschaften in spezifischen Nischen. Ab den 2000er-Jahren begann sich das sogenannte »Web 2.0« zu etablieren und soziale Medien (allen voran Facebook und später Twitter) wurden zum globalen Massenphänomen, dem sich auch der politische Mainstream nicht mehr entziehen konnte. Damit kam es zu einem neuerlichen Strukturwandel der Öffentlichkeit, bei dem die neuen Medien eine zentrale Rolle spielten (Lüter/Karin, 2010; Schrape, 2015; Barberi/Swertz, 2017). Diese Rolle ist allerdings sehr ambivalent: Zum einen gibt es eine Fülle an größeren Teilöffentlichkeiten, zu deren Entstehung und Verbreitung soziale Medien erheblich beigetragen haben, wie zum Beispiel aktuell die Fridays-for-future-Bewegung, #Metoo und viele andere mehr. Bis zu einem gewissen Grad stärken soziale Medien die Zivilgesellschaft, die nunmehr ein niedrigschwelliges Instrumentarium zur Verfügung hat, um vom politischen Mainstream vernachlässigte Themen durch Generieren von Masse in den politischen Diskurs einzubringen.

Diesem Eindruck umfassender Demokratisierung steht jedoch gegenüber, dass gerade auch Akteure des parteipolitischen Systems soziale Medien mittlerweile sehr gezielt einsetzen. Einerseits, um ebenso niedrigschwellig wie kostengünstig politische Botschaften sehr breit zu streuen. Andererseits auch, um Aktivitäten und Themen der Zivilgesellschaft laufend zu beobachten. Diese starke Ambivalenz wird am Beispiel des kurzen Arabischen Frühlings gut sichtbar: Regierungskritische Aktivist*innen nutzten Facebook und andere Kanäle zur Mobilisierung. Das trug zur Euphorie einiger Kommentatoren bezüglich des demokratischen Potenzials sozialer Medien bei. Nicht bedacht wurde aber, dass die kritische Zivilgesellschaft sich nicht spontan über Facebook, sondern bereits Monate und Jahre zuvor primär »auf der Straße« entwickelt und organisiert hatte. Soziale Medien waren letztlich nur ein Kommunikationswerkzeug unter vielen, wenngleich mit enormer Breitenwirksamkeit. Viel wesentlicher ist aber: Die Protestbewegung wurde – gerade, weil Aktivist*innen auch online aktiv waren – gezielt von den Machthabern überwacht, um sie wirksam bekämpfen zu können (Benkirane, 2012; Aichholzer/Strauß, 2016, 92 f.). Heute ist von dieser kurzen Demokratisierungswelle nur mehr wenig übrig. Aus diesem Beispiel lässt sich auch ableiten, dass ungleiche Machtverteilung – in der »digitalen« ebenso wie in der »analogen« Welt – zentralen Einfluss auf die Struktur des politischen Diskurses und die politische Kommunikation hat. Art und Beschaffenheit der Medien haben hierbei enorme Bedeutung.

Für Habermas (1990) waren die (klassischen) Massenmedien vor allem aufgrund ihrer asymmetrischen Kommunikationsstruktur ein Hindernis für den politischen Diskurs, weil dadurch Deliberation und ein Aushandeln politischer Inhalte zwischen Bürger*innen und politischen Akteuren nicht auf Augenhöhe möglich ist. Auf den ersten Blick scheinen soziale Medien diese Asymmetrie durch die Many-to-many-Kommunikation und multimodale Interaktionsformen stark relativiert zu haben. Schließlich kann heute jede und jeder von uns beliebige Inhalte beliebig weit verbreiten und eine Vielfalt an Teilöffentlichkeiten erreichen. Das gilt zwar immer noch, allerdings von Anfang an unter den Bedingungen kommerzieller Plattformbetreiber. Inhalte werden je nach Geschäftsmodell auch gezielt ausgewertet und kommerzialisiert. Wohin das führen kann, zeigte der Skandal um Cambridge Analytica und Facebook sehr eindrücklich (vgl. Ienca, 2018; HOC, 2019). Die Hoffnung auf eine breite Demokratisierung wurde deshalb inzwischen abgelöst durch eine zunehmende Besorgnis über Beeinflussungsversuche etablierter politischer Akteure, die ihre Macht einsetzen, um die Deutungshoheit über digital verbreitete politische Inhalte zu erlangen.

Insofern lässt sich eher ein struktureller Wandel der Politik beziehungsweise in der politischen Massenkommunikation beobachten. Soziale Medien ermöglichen ein höheres Maß an Breitenwirksamkeit bei der Verbreitung von Inhalten, aber auch eine stärkere Personalisierung. Daher lassen sich soziale Medien und ihre digitalen Plattformen als quasi-personalisierte Massenkommunikationsmittel begreifen (Strauß, 2019, 99). Von der Politik werden sie heute primär genutzt, um günstig und effektiv politische Botschaften (oder Werbung) zu verbreiten. Wie das relativ sachorientiert geht, zeigte der ehemalige US-Präsident Barack Obama. Sein Nachfolger Donald Trump jedoch demonstriert nach wie vor nahezu täglich, welche Schattenseiten eine ungefilterte politische Kommunikation hat.

Trumps offensive, emotionsgeladene Art der Twitter-Politik bringt nicht weniger als ein grundsätzliches Misstrauen in die Vermittlungsorgane der liberalen Demokratie zum Ausdruck. Inszeniert wird eine authentische, unverstellte Beziehung zwischen Machthaber und Volk. Die Qualitätsmedien, das Parlament – diesen Institutionen begegnet der Populist mit gründlichem Misstrauen, sind sie doch seiner Ansicht nach von den »Eliten« gekapert. Mithilfe der sozialen Medien will er die »Volksseele« zum Sprechen bringen. Das scheint ganz gut zu funktionieren, in den USA genauso wie in Italien oder Indien, wo sich Premier Modi seiner 40 Millionen Follower auf Facebook rühmt.

Die politischen Inhalte werden an den klassischen Medien vorbei lanciert, das heißt, sie unterliegen keiner journalistischen Kontrolle, aber auch nicht dem Rationalisierungszwang, der von einem qualitätsvollen medialen Diskurs ausgeht. Damit wird die Kontrollfunktion der sogenannten »vierten Säule der Demokratie« untergraben. Dem politischen Diskurs tut dieser Trend zur Unmittelbarkeit, zur weitgehend unmoderierten Partizipation nicht gut. Der Brexit hat gezeigt, was passiert, wenn Demokratie in unvermittelter Form gelebt wird, ohne vernünftige Begleitung durch ausgewogene Berichterstattung und mäßigende Diskussionsforen. Auch hier haben gezielte Beeinflussungsversuche über soziale Medien (teilweise mit Bezug zu Cambridge Analytica) stattgefunden, deren Auswirkungen jedoch noch nicht gänzlich untersucht sind (HOC, 2019). Aber auch ohne gezielte Manipulationsversuche gilt: Durch ein Umgehen der kritischen Medien sowie der Öffentlichkeit und deren Funktion als Objektivierungsfilter wird die liberale Demokratie schnell zur Spielwiese von Demagogen. Schließlich lebt die Demokratie von der mäßigenden Wirkung ihrer Vermittlungsinstanzen. Parlamente, Parteien und die etablierten Medien sorgen dafür, dass sich der Gemeinschaftswille in Richtung der »Mitte«, also auf eine kompromissfähige Linie hin entwickelt. Klassische Medien und Journalismus haben die Aufgabe, mit kritischer Sorgfalt Inhalte so weit zu objektivieren, dass eine sachorientierte Politik zwischen politischen Akteuren und der Bevölkerung auf einem Grundgerüst von Vernunft und Rationalität (Logos) möglich ist. In den letzten Jahren scheint die Digitalisierung dazu beigetragen zu haben, dass dieses Grundgerüst instabiler wurde. Das spielt dem Populismus in die Hände.

Schon früh wurden seitens der Soziologie die Gefahren gesehen, die mit einer Politik der Unmittelbarkeit, der Authentizität verbunden sind. So hat Sennett (1983) argumentiert, dass politisches Handeln in unserer Gesellschaft immer stärker daraufhin bewertet wird, ob es authentisch ist und einen emotionalen Mehrwert für den Einzelnen bietet, nicht aber im Hinblick auf sein Ergebnis für die Gesamtheit. Anstelle politischer Programme interessiert dann nur noch die Person des Politikers beziehungsweise der Politikerin und wie er (oder sie) »performt«. So entsteht eine »Politik der großen Gefühle«: Anstelle rationaler Erwägungen und überprüfbarer Argumente dominiert das individuelle Bekenntnis, der emotionale Appell, das expressive Handeln. Wir erinnern uns: Im Jahr 2003, als die ersten Fälle von Rinderwahn in den USA bekannt geworden waren, verspeiste Präsident George W. Bush demonstrativ eine Portion heimischen Rindfleisches. Andere Politiker haben vor laufenden Kameras gentechnisch veränderte Lebensmittel gegessen oder Wasser aus verseuchten Gewässern getrunken. Pathos statt Logos.

Dies zeigt, dass politische Kommunikation nach der Logik des Pathos also nicht wirklich neu ist. Jedoch scheint sich im digitalen Zeitalter das Zur-Schau-Stellen von vermeintlich authentischen Gefühlen und emotionalen Inhalten im politischen Bereich verstärkt zu haben. Soziale Medien haben eben auch hier eine verstärkende Funktion. Das liegt auch an den Plattform-Architekturen und den Logiken digitaler Geschäftsmodelle, die von Aufmerksamkeits- und Verhaltensökonomie dominiert werden. Der Vernetzungsgrad von Inhalten, ermittelt durch die Anzahl an Followern, Clicks, Shares, Likes und so weiter, ist zu einer Art Währung geworden und bestimmt, was als relevant gilt. Daraus ergibt sich wiederum der Marktwert von Content. So werden soziale und politische Inhalte entkontextualisiert und kommerzialisiert. Der Inhalt tritt stark in den Hintergrund. Masse sticht sozusagen Inhalt, und diese Logik wirkt zusehends auch auf realpolitische Diskurse ein: Parteien haben sich teilweise zu politischen Bewegungen (zurück- oder weiter-)entwickelt, weil sie über ihre digitalen Marketingstrategien hohe Follower-Zahlen lukrieren und auf diese Weise Masse erzeugen. Ob diese Massen real existieren, wird dabei selten hinterfragt.

Doch auch die klassischen Medien berichten öfter über die Social Media-Aktivitäten von Politikern und replizieren so – teils ungewollt – die politischen spins hinter diesen Aktivitäten. In der Folge verschwimmen die Grenzen zwischen digitaler Polit-PR und politischen Inhalten. Ein wesentlicher Grund ist, dass digitale Plattformen zwar nie als Medien für politische Kommunikation geschaffen wurden, heute aber sehr stark diese Funktion innehaben. Es wäre unzulässig, die neuen Medien für die gegenwärtigen Probleme der Demokratie allein verantwortlich zu machen. Noch kurzsichtiger wäre es allerdings, würden wir uns von digitalen Technologien eine Erneuerung der Demokratie erwarten – bloß, weil sie interaktiver sind als ihre technischen Vorgänger. Technologieeinsatz ist letztlich immer mit Machtinteressen verknüpft. Wichtiger, als nur gegen digitale Plattformen zu polemisieren, erscheint daher, jene strategischen Akteur*innen genauer in den Blick zu nehmen, die verstärkt versuchen, die digitalen Medien für machtpolitische Interessen zu instrumentalisieren.

4. Fazit: Für eine Regulierung digitaler Polit-PR

Wie aus unserer Analyse hervorgeht, ist der digitale Wandel eng mit einem Strukturwandel der Politik und ihrer strategischen Kommunikationsformen verbunden. Wesentliche Bestandteile dieses Strukturwandels sind Unvermitteltheit, (Quasi-)Authentizität sowie eine starke Emotionalisierung von politischen Botschaften, die der Verständigungsbereitschaft mit dem politischen Gegner nicht förderlich ist und die politische Polarisierung vorantreibt. Zwar sind soziale Medien und verwandte Phänomene der Digitalisierung keineswegs die verantwortlichen Urheber dieser Entwicklung, doch die ihr zugrunde liegenden Logiken und Dynamiken verstärken diese Trends ganz wesentlich.

Dieser verstärkende Effekt resultiert vor allem aus einer Logik der Verknappung: Auf digitalen Plattformen vordefinierte, rein quantitative Relevanzkriterien dienen dazu, die Inhalte von den Nutzer*innen bewerten zu lassen (z. B. per Likes), die automatisiert (z. B. durch Facebooks Edgerank Algorithmus1) festlegen, was in der Plattform als relevant gilt. Je höher die Bewertungen, desto eher werden die betreffenden Inhalte (ebenfalls automatisiert) weiterempfohlen. Anders formuliert: Inhalte verbreiten sich nicht unbedingt deshalb »viral« (sprich: erreichen schnell viele Personen), weil sie gehaltvoll, sachlich oder politisch relevant sind, sondern weil sie den größten Vernetzungsgrad aufweisen und damit Masse suggerieren. Damit einher geht eine Verknappung von Botschaften. Die simple Formel lautet hier oft: Je kürzer und je polarisierender, desto leichter verbreiten sich die Botschaften.

Natürlich profitieren auch zivilgesellschaftliche Akteur*innen von der Möglichkeit, niedrigschwellig Inhalte zu verbreiten. Jedoch: Zur Zivilgesellschaft gehören auch die Pegida-Bewegung, die Identitären oder der Ku-Klux-Klan. Und die Parolenhaftigkeit der extrem zugespitzten Inhalte dieser und ähnlicher Bewegungen ist selten geeignet, eine differenzierte Debatte auf den Weg zu bringen. So steuert bis zu einem gewissen Grad das Medium hier den Gehalt der Botschaft. Dies spielt insoweit eher populistischen oder antidemokratischen Kräften in die Hände, als demokratische Politik – wie beschrieben – vom besonnenen Räsonnement, von moralischer Abrüstung und beharrlicher Selbstinfragestellung, vom gemeinsamen Willen zur Differenzierung sowie von Entschleunigung und Rationalisierung lebt.

Wie gesagt: Die sozialen Medien sind nicht die Quelle der beschriebenen Probleme vernünftiger Politik. Man könnte vielmehr vermuten, dass erst die Durchsetzung eines bestimmten Politikstils (Pathos, Unmittelbarkeit, Emotionen) uns überhaupt jene Medien als Träger politischer Kommunikation plausibel erscheinen lässt. Sicher jedoch verstärken diese Medien das beschriebene Problem. Es ist daher in jedem Fall lohnenswert, dem Zusammenhang zwischen einem Strukturwandel des Politischen und der digitalen Transformation genauer nachzugehen. Dass dies nicht in diskreditierender Absicht mit Blick auf Digitalisierung und soziale Medien geschehen darf, versteht sich von selbst. Denn unbestritten tragen soziale Medien auch immer wieder zur Mobilisierung von Bürgersinn und zivilgesellschaftlichem Engagement bei.

Dies zeigte sich recht deutlich bei der Corona-Krise im Frühjahr 2020. Die politischen Notfallmaßnahmen in diesem Frühjahr, zu denen in vielen europäischen Ländern auch rigide Grenzkontrollen und Ausgangssperren gehörten, formulierten einen paradoxen Anspruch: Gerade durch die Vermeidung sozialer Kontakte sollte und konnte man seine Solidarität zeigen. In dieser Situation weitgehender sozialer Isolation wurden – ausgehend von einer Initiative in Wien – die sozialen Medien zum Brennpunkt der Organisation von Nachbarschaftshilfen. Es entstanden Initiativen zur Vernetzung von zwangsarbeitslosen Selbstständigen, Informationsbörsen für den Homeoffice-Betrieb und Ratschläge für Quarantäne-Betroffene, in Summe: ein länderübergreifender Austausch mittels sozialer Netzwerke. Aus Twitter, bekannt für Hass und Häme, wurde eine »Börse des Zusammenhalts« (Weiß, 2020).

Problematisch allerdings sind soziale Medien für Demokratie und politischen Diskurs vor allem dort, wo ohne jede Einschränkung digitales Marketing und Polit-PR über digitale Plattformen betrieben werden können. Digitale Plattformen und vor allem soziale Medien bergen die Gefahr, dass Macht monopolisiert wird, wenn sie letztlich dazu dienen, die Kontrollfunktion des Qualitätsjournalismus und die durch klassische Medien gepflegte Erwägungskultur zu untergraben. Möglich wird dies nicht zuletzt durch regulatorische Lücken: Gerade bei politischer Werbung durch Parteien und über Macht verfügende politische Akteur*innen mit strategischen Absichten besteht ein Regulierungsvakuum. Die Politik kann derzeit weitgehend unreguliert über digitale Kanäle Werbung betreiben, gezielt individuelle Botschaften streuen, Follower lukrieren und so weiter, also Masse und politisches Gewicht erzeugen. Um eine weitere Zunahme an ungefilterter politischer PR über digitale Medien zu vermeiden, ist eine stärkere Regulierung von politischer Onlinewerbung anzudenken. Nicht ohne Grund ist politische Werbung in Radio, TV und Printmedien strikt reguliert. Hier sind Politik und Medien gefordert, sich gemeinsam auf das Einhalten ethischer und journalistischer Grundsätze zu besinnen, damit die Eckpfeiler der Demokratie stabil bleiben.

Literatur

Aichholzer, G. / Strauß, S. (2016): Electronic Participation in Europe. In: R. Lindner, G. Aichholzer und L. Hennen (Hrsg.): Electronic Democracy in Europe. Prospects and Challenges of E-Publics, E-Participation and E-Voting; Cham et al.: Springer, S. 55–132.

Barberi, A. / Swertz, S. (2017): Strukturwandel der Öffentlichkeit 3.0 mit allen Updates? In: U. Binder und J. Oelkers (Hrsg.): Der neue Strukturwandel von Öffentlichkeit. Reflexionen in pädagogischer Perspektive. Weinheim: Beltz Juventa, S. 151–179.

Benkirane, R. (2012): The Alchemy of Revolution: The role of social networks and new media in the Arab Spring. GCSP Policy Paper, No. 2012/7, Geneva Center for Security Policy.

Habermas, J. (1990): Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft. Frankfurt am Main: Suhrkamp (Orig. 1962).

HOC – House of Commons (2019): Disinformation and ›fake news‹: Final Report. Eighth Report of Session 2017–19, HC 1791, 18 February, https://publications.parliament.uk/pa/cm201719/cmselect/cmcumeds/1791/1791.pdf.

Ienca, M. (2018): Cambridge Analytica and Online Manipulation. Scientific American, March 30, https://blogs.scientificamerican.com/observations/cambridge-analytica-and-onlinemanipulation/.

Kelsen, H. (2018): Vom Wesen und Wert der Demokratie. Stuttgart: Reclam (Orig. 1929).

Lüter, A. / Urich, K. (2010): Editorial. Strukturwandel der Öffentlichkeit 2.0. Forschungsjournal Soziale Bewegungen (23)3, S. 3–7.

Mill, J. S. (1974): Über die Freiheit. Stuttgart: Reclam (engl. Orig. 1859).

Pasquale, F. (2015): The Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge, MA: Harvard University Press.

Schrape, J.-F. (2015): Social Media, Massenmedien und Öffentlichkeit – eine soziologische Einordnung. In: K. Imhof, R. Blum, H. Bonfadelli, O. Jarren und V. Wyss (Hrsg.): Demokratisierung durch Social Media? Mediensymposium 2012. Wiesbaden: Springer VS, S. 199–212.

Sennett, R. (1983): Verfall und Ende des öffentlichen Lebens. Die Tyrannei der Intimität. Frankfurt am Main: Fischer (amerik. Orig. 1977).

Staab, P. (2019): Digitaler Kapitalismus: Markt und Herrschaft in der Ökonomie der Unknappheit. Berlin: Suhrkamp.

Strauß, S. (2019): Privacy and Identity in a Networked Society. Refining Privacy Impact Assessment. Abingdon, Oxon: Routledge.

Sunstein, C. R. (2015): Partyism. In: University of Chicago Legal Forum, Vol. 2015, Article 2. https://chicagounbound.uchicago.edu/uclf/vol2015/iss1/2.

Weiß, A. (2020): Hilfe statt Hass und Hetze. In: Frankfurter Allgemeine Zeitung, 16. März 2020, S. 7.

Zuboff, S. (2018): Das Zeitalter des Überwachungskapitalismus. Frankfurt/New York: Campus.

1https://en.wikipedia.org/wiki/EdgeRank.

Achilles und diedigitale Schildkröte:Thesen zu einerDigitalen Ökologie

Peter Reichl, Harald Welzer

»Hört zu, ich will euch von einem guten Lande sagen, dahin würde mancher auswandern, wüsste er, wo es liegt. Da sind die Häuser gedeckt mit Eierfladen und die Fische schwimmen obendrauf auf dem Wasser, sind auch schon gebacken oder gesotten. Wenn aber einer gar zu faul ist, der darf nur rufen: Alexa! – so kommen die Fische heraus aufs Land spaziert und hüpfen einem in die Hand. Das könnt ihr glauben, dass die Vögel dort gebraten in der Luft herumfliegen, und wem es zu viel Mühe macht, die Hand danach auszustrecken, dem fliegt Lieferando sie schnurstracks ins Maul hinein. Und das Geld kann man von den Bäumen schütteln wie Bitcoins. Jeder mag sich das Beste herunterschütteln und das minder Werte liegenlassen. In dem Lande gibt es auch große Wälder, da wachsen auf den Bäumen die schönsten Kleider, von allen Farben, schwarz, grün, gelb, blau oder rot. Wer ein neues Gewand braucht, der geht in den Wald und wirft es mit Ebay herunter oder schießt mit Amazon hinauf. Wer eine Frau hat, die ihm nicht mehr jung genug und hübsch ist, der kann sie auf Tinder gegen eine junge und schöne vertauschen; die alten und garstigen kommen in den Photoshop. Wer die Leute auf Youtube am besten necken und aufziehen kann, bekommt jeweils ein Like, und wer die größte Lüge macht, der hat allemal Follower dafür. Hierzulande lügt so mancher drauf und drein und hat nichts für diese Mühe; auf Twitter und Facebook aber hält man Lügen für die beste Kunst. Auch viel und mancherlei Kurzweil gibt es; wer hierzulande gar kein Glück hat, der hat es dort auf win2day. Mancher schießt hier all sein Lebtag weit vom Ziel, dort aber trifft er in Doom und Counter-Strike. Wer nichts kann als schlafen, essen, trinken, tanzen und spielen, der wird zum Influencer ernannt. Dem aber, welchen das allgemeine Stimmrecht als den Faulsten und zu allem Guten Untauglichsten erkannt, der wird König über das ganze Land und hat ein großes Einkommen. Nun wisst ihr des Schlaraffenlandes Art und Eigenschaft. Wer sich also auftun und dorthin eine Reise machen will, aber den Weg nicht weiß, der frage Google Maps …«2

Wir schreiben das Jahr 1845, gerade einmal zehn Jahre nach Eröffnung der ersten Eisenbahnstrecke Deutschlands zwischen Nürnberg und Fürth, als Ludwig Bechstein in seinem »Deutschen Märchenbuch« eine so bildkräftige Blaupause der technologischen Zukunft beschrieb, dass es – wie eben geschehen – genügt, lediglich ein paar Wörter durch heutiges Vokabular zu ersetzen, um sich mitten ins Jahr 2020 versetzt zu sehen. Und dabei ist das sogar nur ein Bruchteil dessen, was uns der digitale Wandel tagein, tagaus verspricht: Die Gesellschaft wird demokratischer werden, Zugang zu Wissen und Bildung wird umfassend und niederschwellig möglich, soziale Netze stellen endlich Plattformen für transparente und offene Diskurse zur Verfügung, Inklusion und Mobilität werden gefördert, knappe Ressourcen können endlich effizient genutzt werden, und obendrein realisieren sich Freiheit und immerwährendes Wirtschaftswachstum – und das sind nur einige der Segnungen und Versprechungen, die mit der Etablierung des Internets als neuer grundlegender ökonomischer und sozialer Infrastruktur des 21. Jahrhunderts einhergehen. Kurz zusammengefasst: Wir haben es wohl geschafft – der Urtraum des Menschen ist erfüllt, willkommen im digitalen Schlaraffenland.

Irgendwie ganz anders aber erscheint das Bild, das uns bei fast jedem Blick in die Zeitung entgegenschlägt. Dort nämlich ist eine heftige Diskussion entbrannt über das, was wir in diesem vermeintlichen Schlaraffenland vorfinden: Autoritäre Regime und Twitter-Demokratien, Fake News und hate speech, ein Hackerangriff nach dem anderen, wachsende digitale Klüfte und eine zunehmend zerrissene Gesellschaft, von NSA-Affäre3 und Überwachungskapitalismus ganz zu schweigen. Und hinter all diesen Phänomenen verbergen sich die noch viel grundlegenderen Fragen: Ist es tatsächlich so, dass der digitale Wandel einfach kommt, oder wird er nicht vielmehr von uns gemacht? Gibt es Werte hinter all diesen Entwicklungen, und wenn ja, welche? Haben wir die Technologien, die wir brauchen, und brauchen wir die Technologien, die wir haben? Hat uns überhaupt einmal jemand danach gefragt? Und wer übernimmt letztlich die Verantwortung für das, was schon da ist und in weiterer Folge noch auf uns zukommen wird?

Hierzu werden in diesem Beitrag einige thesenartige Überlegungen angestellt, und zwar aus der kombinierten Perspektive zweier Disziplinen, die einen zentralen Platz einnehmen sollten, wenn es darum geht, die politischen und gesellschaftlichen Auswirkungen des Digitalen Wandels zu umreißen. Da ist einerseits die Informatik, die ja am Anfang alles Digitalen steht und dieses fundamental gestaltet, aber im öffentlichen Diskurs auffallend wenig zu Wort kommt. Denn natürlich ist der digitale Wandel nicht einfach da: Er ist von uns gemacht, und es sind insbesondere die Informatiker*innen, die ihn gestalten. Deswegen müssen sich diese auch stärker in die gesellschaftliche Diskussion einbringen, stehen sie doch auch viel mehr in der Verantwortung, als sie das vielleicht wahrhaben wollen.

Zum anderen ist da auch noch die sozialpsychologische Perspektive – und damit eine disziplinäre Sicht darauf, wie Menschen Sinn aus dem zu machen versuchen, was in ihrer Welt geschieht, daraus Schlüsse ziehen und Entscheidungen treffen. Bei allen technologischen Entwicklungen, die eine wirtschaftliche Bedeutung entfalten und großflächig installiert werden, verändern sich ihre Wahrnehmungsweisen, ihre Selbstbilder und häufig auch ihre Auffassungen darüber, wer die anderen sind und wie man mit ihnen zusammenlebt. Zwar ist bislang die Digitalisierung als »invasive Technologie« (Zuboff, 2018) noch nicht ins Zentrum der sozialwissenschaftlichen Aufmerksamkeit gerückt, doch wird das – wie üblich mit Verspätung – noch passieren; zu tief greifend sind nämlich die Auswirkungen auf Arbeit und Arbeitsmärkte, Geschäftsmodelle, Infrastrukturen und das gesellschaftliche Gefüge insgesamt, als dass man sie auf Dauer ignorieren könnte. Erste Beiträge zur Theoriebildung (Nassehi, 2019; Baecker, 2018 u. a.) sind folgerichtig inzwischen auch schon erschienen.

Beides zusammen soll uns einen frischen, unverstellten Blick darauf erlauben, wie ein ehrlicher Dialog zwischen Informatik und Gesellschaft möglich werden kann, wenn die Informatik ihre Rolle als zunehmend politische Disziplin wahrnimmt und sich ihrer daraus wachsenden Verantwortung stellt. Wir werden sehen, dass der ethische Diskurs, so vielversprechend er hie und da bereits begonnen hat, nicht ausreicht. Tatsächlich müssen wir den ganzen Menschen in den Mittelpunkt stellen, ja mehr noch: Es braucht einen umfassenden Ansatz – im Sinne einer digitalen Ökologie.

Das Internet ist nicht kaputt: Plädoyer für mehr »Diskurshygiene«

Blicken wir zunächst zurück auf das Vierteljahrhundert, das seit der Etablierung von Internet und World Wide Web vergangen ist. Lange Zeit haftete der schönen neuen Welt »Digitaliens« ja immer etwas Leichtes, Spielerisches, Amorphes an. Man war glücklich über das, was da so scheinbar makellos-glatt in unser Leben trat, und gab sich zufrieden damit, dass nicht immer gleich alles funktionierte – in so schönen Himmelsgebilden wie »Clouds« verzeiht man manches. Das Internet hatte so viel Nützliches zu bieten, dass man völlig übersah, dass es sich vielleicht nur um einen zwischenzeitlichen »Kollateralnutzen« handeln könnte, bevor sich die Maschinen »ihre« Netze wieder zurückerobern (Hofstetter, 2014). Erst als Cambridge Analytica4 damit anfing, bis dato einigermaßen demokratisch organisierte Wahlen ins digitale Visier zu nehmen, China seine Social-Scoring5-Pläne zu realisieren begann, dem Westen die Auswirkungen eines ubiquitären »Internets der Dinge« (Internet of Things, IoT) auf die zukünftige Arbeitswelt dämmerte und sich die Entwicklung »Künstlicher Intelligenz« (KI) in Richtung einer Singularität mit möglicherweise apokalyptischen Konsequenzen als zumindest grundsätzlich denkbar herausstellte, da wurde klar, dass es mit dem »Welpenschutz«, den die Informations- und Kommunikationstechnologie (IKT) bislang immer noch genoss, bald vorbei sein würde.

So stehen wir heute also an einem Wendepunkt: Es ist ernst geworden mit der digitalen Transformation von Wirtschaft, Politik und Gesellschaft. Hinzu kommt zudem etwas, was zum ersten Mal in einem scheinbar ganz anderen Zusammenhang, nämlich der aktuellen Klimadiskussion, deutlich wurde: Der »Schock, wenn alles plötzlich ganz einfach erscheint«, wie es Maximilian Probst formulierte, als er feststellte, dass der Klimawandel für den modernen Menschen eigentlich eine intellektuelle Beleidigung darstelle (Probst, 2019). Es ist ja eigentlich ein einfacher Sachverhalt, dass der moderne wachstumswirtschaftliche Metabolismus in Gestalt von Emissionen Schäden am Klimasystem verursacht, die ihn selbst mittelfristig unmöglich machen werden. Aber seit Kant und Hegel sind wir in der Kunst abwägender Dialektik geschult, und das Finden von Kompromissen zwischen dem Einerseits und dem Andererseits ist der Kern demokratischer Praxis, weshalb es uns schwerfällt zu akzeptieren, dass es in der Welt immer noch so ganz einfache Wahrheiten geben könnte. Natürlich ist es mit der Einfachheit exakt in dem Moment vorbei, in dem man die Arena des Messens und Rechnens, der Szenarien und Modelle verlässt und in die von Politik und Gesellschaft wechselt, aber das befremdet die Vertreter*innen der exakten Wissenschaften. Und mit dem digitalen Wandel verhält es sich ebenso wie mit dem Klimawandel: Die Sache ist klar; unklar ist nur, was es bedeutet, dass sie klar ist.

Ein Beispiel: Im etablierten Technikmagazin Wired formulierte David Baker Ende 2017 seine These, das Internet sei kaputt und müsse dringend repariert werden (Baker, 2018). Unter denen, die sich engagiert an der anschließend einsetzenden Diskussion beteiligten, finden sich unter anderem Tim Berners-Lee, Jaron Lanier und Vint Cerf – klingende Namen aus der Gründerzeit des Internets, und es war wohl das erste Mal, dass innerhalb der Technikercommunity so deutlich formuliert wurde, wie viele Hoffnungen und Versprechungen aus der Anfangszeit des WWW schlichtweg nicht eingelöst wurden.

Das liegt aber nach unserem Dafürhalten nicht daran, dass das Internet kaputt ist. Vielmehr ist es so, wie es ist: Nicht für sichere Kommunikation gemacht, schon gar nicht als grundlegende ökonomische Infrastruktur konzipiert und trotzdem mit wundervollen Seiten, die wir selbstverständlich nutzen und genießen sollten. Wir beklagen uns ja auch nicht darüber, dass Luft kein »sicheres« Medium sei, wenn wir uns im Zug mit unserem Nachbarn unterhalten und feststellen müssen, dass ein dritter Fahrgast interessiert zuhört. Stattdessen wissen wir in diesem Kontext um die Grenzen abhörsicherer Kommunikation und verhalten uns entsprechend. Nur beim Netz glauben wir an grenzenlose Beherrschbarkeit, anstatt zu akzeptieren, dass es auch durch entsprechende Maßnahmen höchstens etwas sicherer, aber niemals wirklich sicher sein kann – und zwischen Sicherheit und »Sichererheit« liegen bei manchen Anwendungen leider Welten. Es gilt also, sich die Grenzen digitaler Technologie bewusst zu machen. Denn bei aller Komplexität der Verflechtungszusammenhänge in der heutigen Gesellschaft: Manchmal sind sie eben doch ganz einfach, und insbesondere die Digitalisierung liefert hierfür eine Fülle weiterer Beispiele, wenn man nur etwa ihre Abhängigkeit von beständiger Stromzufuhr bedenkt (Welzer, 2017). Beim Blackout kann man sich wenig Unnützeres vorstellen als ein iPad oder Alexa.

Dabei geht es uns nicht um Technikfeindlichkeit oder gar Maschinenstürmerei. Es gilt lediglich, nicht länger abwechselnd gutmeinend (oder fremdschämend) die Augen zu verschließen, wenn wieder einmal ein riesiges Datenleck bekannt wird, wieder einmal ein Videokonferenzsystem zusammenbricht, wieder einmal der Einsatz eines Beamers in der Vorlesung nicht funktionieren will. Es bedarf vielmehr einer neuen Nüchternheit, wenn es um den Einsatz und die Grenzen digitaler Technologien geht, um uns auf diese Weise vom derzeit vorherrschenden Narrativ des Überwältigtseins (Pörksen, 2019) zu emanzipieren.

Daher plädieren wir, einem von Maja Göpel geprägten Begriff folgend, dringend für mehr »Diskurshygiene«, um unsere Imaginations-, Legitimations- und Kommunikationsräume neu ausrichten zu können (vgl. Göpel, 2020). Uns interessieren weder der Alarmismus noch die Adoration digitaler Technologie, uns interessiert ihr gesellschaftlicher Gebrauch. Der sollte nach Kriterien definiert sein, die denen des liberalen demokratischen Rechtsstaats entsprechen, mithin Privatheit als unhintergehbare Bedingung von Demokratie sichern, Schaden von den Bürger*innen abwenden, zur Daseinsvorsorge beitragen und einen egalitären Zugang gewährleisten. Schon diese wenigen Kriterien bestimmen eine Aufgabe, die bislang noch kaum systematisch debattiert wird. Stattdessen scheint Digitalisierung nicht interessegeleitet implementiert zu werden, sondern zu »geschehen« – eine Wahrnehmung, die den eminent politischen Charakter ihrer Implementierung schlicht ausblendet.

Data is Power: Informatik als politische Disziplin

Betrachten wir etwa die fast alltäglich gewordene Rede von den »Daten als dem neuen Öl«, diesem Inbegriff von Geschmeidigkeit, Reibungslosigkeit und zugleich konzentrierter Energie, welcher scheinbar unermüdlich aus dem Boden sprudelt (auch wenn wir es natürlich eigentlich besser wissen) und auf nie da gewesene Weise unser Wirtschaftsleben gleichzeitig antreibt und schmiert.

Die Analogie zwischen Daten und Öl ist allerdings falsch. Shoshana Zuboff hat eindrucksvoll nachgewiesen, dass Daten keine natürliche Ressource des Überwachungskapitalismus sind, sondern von den großen Internetkonzernen auf Kosten der Endnutzer*innen gewonnen werden – mit massiven Konsequenzen wie Verlust der Privatsphäre und der persönlichen Entscheidungsfreiheit (Zuboff, 2018). Nicht weniger dramatisch ist zu werten, was der Einsatz von Big Data in der Wissenschaft ausgelöst hat und von Chris Anderson treffend als das »Ende der Theorie« tituliert wurde (Anderson, 2008). Denn während sich so gut wie überall im Aufschwung der Künstlichen Intelligenz lediglich das immer effizientere Auffinden von schwer zu entdeckenden Mustern in riesigen Datenmengen verbirgt, muss einem stets vor Augen sein, dass ein Algorithmus grundsätzlich immer ein Ergebnis ausspucken wird. Das Abgehen vom Grundsatz theoriegeleiteter Forschung schafft deswegen nicht mehr »Wissen« oder ein tieferes Verständnis unserer Lebenswelt, sondern dient allzu leicht reinem Solutionismus. Doch mit der Fetischisierung des »Problemlösens« tritt der schlichte Sachverhalt in den Hintergrund, dass menschliches Zusammenleben keineswegs binär codiert ist. In ihm verbinden sich materielle, soziale, kulturelle, historische, emotionale und regionale Bedingungen genauso wie Macht, Herrschaft, Geschlechterverhältnisse und einiges mehr. Deswegen hat man es bei den grundsätzlichen Fragen der menschlichen Lebensform nie mit trivialen, sondern immer mit nicht-trivialen Problemen im Sinne von Heinz von Foerster zu tun (Foerster, 1985). Wir bewundern die schier unendliche digitale Problemlösungskapazität, sofern die Probleme trivial sind; gerade deshalb müssen wir den Beitrag digitaler Technologien zur Bewältigung (und das ist etwas anderes als »Lösung«!) nicht trivialer Probleme jeweils zu bestimmen versuchen.

Deshalb: Daten sind nicht das neue Öl, Daten sind die neue Macht – »Data is Power«. Und daher ist die Informatik auch keine reine Technik- oder Ingenieursdisziplin mehr, sondern zu einer politischen Disziplin geworden. Darin ist sie nicht unähnlich der Physik, welche spätestens mit Hiroshima ihre Unschuld verlor, als sich die einigermaßen unschuldig anmutenden Kernspaltungsexperimente von Otto Hahn, Lisa Meitner und anderen binnen Kurzem in einen apokalyptischen Albtraum verwandelten, für den selbst dem sprachmächtigen Günther Anders nur mehr die Bezeichnung »das Monströse« einfiel, um anzudeuten, dass damit die letzte Epoche menschlicher Entwicklung angebrochen sei, von der es weder ein Zurück noch ein Danach gebe (Anders, 1981).