Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
In dieser Arbeit wird die folgende These vertreten: Die Digitalisierung kann als die zunehmende Verwendung von Entscheidungsmaschinen verstanden werden. In der Öffentlichkeit wird das Wort Digitalisierung häufig benutzt, die Frage nach dessen Bedeutung, nach dem Begriff dahinter, in der Regel nicht gestellt; sie wird als bekannt vorausgesetzt. Das Bekannte ist aber darum, so kann mit Hegel formuliert werden, weil es bekannt ist, noch nicht erkannt. Die Digitalisierung ist ein bekanntes, aber nicht ein erkanntes Phänomen.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 491
Veröffentlichungsjahr: 2025
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
1. Einleitung
1.1 Einleitung
1.2 Entscheidungsmaschinen
2. Hauptteil
2.1 Digitale Massenmedien
2.2 Wirtschaft
2.3 Recht
2.4 Erziehung
2.5 Politik
2.6 Liebe
2.7 Moral
2.8 Militär
2.9 Sport
2.10 Migration
2.11 Kunst
2.12 Wissenschaft
2.13 Medizin
3. Fazit: Vertrauen in Entscheidungsmaschinen?
4. Anhang: Vom Militär der Gesellschaft
Kann Technik Grün sein? Vier Anwendungen
1. Einleitung
2. Was heißt eigentlich „Grün“?
3. Technik als Entlastung
4. Mögliche Rückschläge
5. Künstliches Fleisch
6. Grünbrücken
7. CO2-Abscheidung
8. Das „Ocean Cleanup“ Projekt
9. Fazit
Was ist eine Expedition?
Quellenverzeichnis nach Kapiteln
1.1 Einleitung
In dieser Arbeit wird die folgende These vertreten: Die Digitalisierung kann als die zunehmende Verwendung von Entscheidungsmaschinen verstanden werden. – In der Öffentlichkeit wird das Wort „Digitalisierung“ häufig benutzt, die Frage nach dessen Bedeutung, nach dem Begriff dahinter, in der Regel nicht gestellt; sie wird als bekannt vorausgesetzt. Das Bekannte ist aber darum, so kann mit Hegel formuliert werden, weil es bekannt ist, noch nicht erkannt. Die Digitalisierung ist ein bekanntes, aber nicht ein erkanntes Phänomen.
Unter dem Begriff der Digitalisierung wird gemeinhin, wenn genauer nachgefragt wird, die konkrete Technik der Umwandlung analoger in digitale Formate verstanden. Der Verweis auf die Technik selbst befriedigt jedoch noch nicht; eine Theorie der Digitalisierung kann nicht nur eine Theorie der Technik sein. Man kann dem Phänomen, anders gesagt, nicht im Stile Gilbert Simondons durch das Aufschrauben von Computern näherkommen (vgl. Simondon 1958; Schmidgen 2012; Heßler 2016), weil dies die gesellschaftliche Dimension unbeachtet ließe. Die Technik digitalisiert sich nicht selbst, sondern wird von der Gesellschaft digitalisiert, wobei dies auf die Gesellschaft zurückwirkt.
Aufgrund des Ausmaßes dieser Rückwirkung wird auch von der „Digitalen Revolution“ gesprochen, offensichtlich mit dem Gedanken, dass es sich um eine Umwälzung handelt, welche in ihrer Größenordnung mit der industriellen Revolution gleichgesetzt werden kann. Ebenfalls im Umlauf ist das Leitwort der „Digitalen Transformation“, welches vor allem Wirtschaftsunternehmen in den Blick nimmt und mit beliebig austauschbaren Vokabeln wie „Industrie 4.0“ oder „Datenökonomie“ kombiniert werden kann. Beide Perspektiven lassen eine Verkürzung auf das Wirtschaftssystem erahnen und begeben sich somit in die Nähe eines Fehlers pars pro toto. Die Wirtschaft der Gesellschaft ist, das hat die Soziologie des 20. Jahrhunderts herausgearbeitet, nicht die Gesellschaft. Auch hier fehlt also der Blick auf die Gesellschaft insgesamt.
Ein anderer theoretischer Weg zur Digitalisierung führt über die Massenmedien. Nach den Revolutionen durch Sprache, Schrift und Buchdruck befänden wir uns nun inmitten einer „vierten Medienrevolution“ mit ungewissen Folgen. Dieser Hinweis ist jedoch noch keine Erklärung des Phänomens. Auch ein elektronisches Buch ist ein Buch, in schriftlicher Sprache, auch eine elektronische Textnachricht ist ein Brief, in schriftlicher Sprache. Die Anzahl der Adressaten mag sich erhöhen, die Reichweite der Sender und Empfänger durch „Globalisierung“ zunehmen, aber an den grundlegenden Schemen der Kommunikationstheorie ändert dies nichts.
Im Zuge der Digitalisierung außerdem oft verwendet wird die Metapher der Vernetzung; das Internet spannt sich über den Globus und überzieht ihn wie die vorherigen infrastrukturellen Produkte der Zivilisation; das Straßennetz, das Stromnetz, das Gasnetz, usw. Auch die Digitalisierung ist auf diese infrastrukturellen Netzwerke angewiesen, auch sie braucht „Networks of Power“. (Thomas Hughes 1983) Die Digitalisierung setzt die Elektrifizierung voraus, so wie sie die Industrialisierung und die Verbreitung von Sprache, Schrift und Bild voraussetzt. Vieles von dem, was von Wirtschaftsunternehmen als Digitalisierung bezeichnet wird, ist mit dem Begriff der Elektrifizierung vollkommen ausreichend bezeichnet. (vgl. Luhmann 2000, S.369f)
Allgegenwärtig ist auch das Wort der „künstlichen Intelligenz“. Die Industrialisierung war im Wesentlichen der Ersatz körperlicher Arbeit durch Maschinen, nun werden die Gehirne ersetzt. Wer mit diesem Wort arbeitet, sieht sich dem Problem ausgesetzt, sagen zu müssen, was unter dem Begriff der Intelligenz verstanden werden soll. Ähnlich gelagert ist der Ausdruck des „maschinellen Lernens“, welcher Intelligenz impliziert und mit den Erkenntnissen der Intelligenzforschung zusammenhängen dürfte. Die Beschreibung von Maschinen als intelligente Wesen läuft schnell Gefahr, in Science-Fiction abzugleiten, etwa maschinelle „Superintelligenz“ zu befürchten. Auch die Aussage, der Computer sei eine „programmierbare Universalmaschine“, hat noch keinen ausreichenden Erklärungswert für eine Digitalisierungstheorie.
Von dem Gedanken, Maschinen könnten Entscheidungen treffen, habe ich zum ersten Mal in einem Radiogespräch mit Thomas Ramge gehört (vgl. Ramge 2018), seitdem unabhängig voneinander in mehreren Äußerungen anderer Personen. Es gibt auch mehrere Autoren, deren Ideen, so denke ich, in die gleiche Richtung weisen wie die in diesem Buch zu entwickelnde Idee. Beispielsweise hat die Mathematikerin Hannah Fry ein Buch mit ähnlicher Gliederung geschrieben, welches im Grunde den hier vertretenen Ansatz verfolgt, aber aufgrund des nicht sozialwissenschaftlichen Hintergrunds der Autorin keine theoretische Systematisierung aufweist. Die Beobachtungen kommen daher mal mehr und mal weniger mit meinen Beobachtungen überein, können aber nicht die sich digitalisierende Gesellschaft insgesamt abbilden. (Fry 2018)
Es gibt nur eine Theorie, welche den Anspruch erhebt, die Gesellschaft insgesamt zu beschreiben: die Systemtheorie Niklas Luhmanns. Sie ist die einzige Theorie mit totalitärem soziologischen Anspruch und wird hier schlichtweg als Prämisse übernommen. Ich schließe nicht aus, wie sollte ich auch, dass es andere Beschreibungen der Digitalisierung mit anderen theoretischen Grundlagen gibt; aber mich interessiert hier nur die techniksoziologische bzw. technikphilosophische Beschreibung unter Zuhilfenahme dieser theoretischen Grundlage.
Luhmann hat sich von Talcott Parsons rein analytischem Systembegriff abgewendet und den Begriff des Systems auf empirische, d. h. wirkliche, echte Systeme angewendet, welche ihre Grenze zur Umwelt selbst ziehen. Er verbrachte seine wissenschaftliche Karriere dann im Grunde damit, zu zeigen, dass es neben der Wirtschaft noch andere Funktionssysteme gibt, welche mit der Bezeichnung „Überbau“ (Marx) in ihrer Eigenlogik nicht annähernd erfasst sind. Seit seine Beschreibung der primär funktional differenzierten Gesellschaft in Gänze vorliegt, hat es keinen Versuch der Integration in eine andere Theorie gegeben, geschweige denn den Versuch einer Falsifikation. Luhmann hat eine ganze Reihe von Begriffen entwickelt, um die Eigenlogik der Funktionssysteme jeweils aufzuzeigen, von der funktionalen Analyse über die Unterscheidung von Medium und Form bis hin zur Unterscheidung von Code und Programm. Der Medienbegriff wird, meiner Ansicht nach, von dem Begriff der Codierung abgelöst, welcher das Medium um seine Negation erweitert und somit zu einer Entscheidungslage führt, worauf Programme reagieren. Dieser Sachverhalt wird in den kommenden Kapiteln so oft durchgespielt werden, dass er auf jeden Fall verständlich werden wird.
Luhmann gibt damit auch die Gliederung dieser Arbeit vor, die These wird im Durchgang durch die Funktionssysteme geprüft. Die Arbeit ist ähnlich wie Luhmanns „Ökologische Kommunikation“ aufgebaut, auch dort wurde ein Querschnittsthema im Hinblick auf ausgewählte Funktionssysteme behandelt. (Luhmann 1986) Natürlich reagieren die Systeme auch auf die Digitalisierung anderer Systeme, beispielsweise ist oft die Fragestellung zu lesen, wie das Rechtssystem auf die neue digitale Technik im Bereich x reagieren sollte, jedoch werden Intersystembeziehungen hier ausgeklammert, weil dies inhaltliche Fragen beträfe, welche in den jeweiligen Systemen bearbeitet werden. Der Durchgang durch die Funktionssysteme folgt keiner spezifischen Reihenfolge und weist eine Ausnahme auf, die Religion ist nicht enthalten. Die oben genannte These ist im Bezug auf die Religion sinnlos, auf das Religionssystem trifft sie nicht zu.
Dafür enthält die Arbeit einen Teil, welcher in Luhmanns Theorie ausgespart wurde: die Betrachtung des Militärsystems. Ich weiß nicht, warum Luhmann das Funktionssystem des Militärs ausgelassen hat, vielleicht waren es persönliche Gründe; jedenfalls wird eine Theorie des Militärs benötigt, um eine Theorie der Digitalisierung zu schreiben. Die Ausgangsthese dieser Arbeit erzwingt eine bestimmte Codierung des militärischen Funktionssystems, welche in dem entsprechenden Kapitel nicht begründet werden kann. Die Begründung dieser Codierung ist daher im Anhang der Arbeit zu finden.
Was die Methodologie angeht, wird man von Luhmann größtenteils alleinegelassen, dazu nur einige Anmerkungen. Luhmanns Methode ist im Grunde der Literaturvergleich, für ihn die Bewältigung immenser Literaturmengen gewesen. Diese Methode wird hier übernommen. Der noch ausstehende (internationale) Erfolg Luhmanns lässt sich aber nur unter der Annahme erklären, dass heutige Studenten keine 50 Bücher von ihm lesen (werden). Es liegt dann nahe, die Sytemtheorie auf ihre robusten Bestandteile zu reduzieren und z. B. seitenlange Beschreibungen über (vermeintliche) Paradoxien wegzulassen oder zu begrenzen, was natürlich nicht ausschließt, dass sich Interessierte damit beschäftigen.
Ein Ausgangspunkt der systemtheoretischen Theoriebildung ist der Funktionalismus gewesen. Der Funktionalismus kann Fragen stellen wie: Wozu die Digitalisierung? Wozu das Internet? Und wozu diese ganzen Daten? Diese Art der Frage erlaubt es auch dem technischen und technologischen Laien, mitzureden und trotz des fehlenden technischen Wissens über die Vorgänge in den Maschinen und Apparaten Technikforschung zu betreiben. Es ist allerdings nie gänzlich klar geworden, was Luhmann unter dem Begriff der Funktion versteht.
Wenn man eine wissenschaftstheoretische Arbeit von Wolfgang Stegmüller zugrundelegt, dann unterscheidet sich die Frage nach der Funktion nicht wesentlich von der Frage nach dem Zweck. (Stegmüller 1969) Nach der Funktion von Zwecksetzungen zu fragen, hieße dann nur, nach dem Zweck von Zwecken zu fragen, nach funktionalen Äquivalenten zu fragen, hieße dann nur, nach anderen Mitteln für einen Zweck oder anderen Zwecken für ein Mittel zu fragen. Ein mathematischer Funktionsbegriff im Sinne eines Vergleichs (einer Gleichung) wurde von Luhmann nicht ausgearbeitet und auch nicht angewendet.
Des Weiteren wird von Luhmann gegenüber der alteuropäischen Substanzontologie der neue differenztheoretische Ansatz hervorgehoben. Jede Theorie ist eine Differenztheorie, jede Theorie trifft Unterscheidungen, jedoch werde die Frage nach der Differenz nun radikaler gestellt, um eine höhere, schärfere Auflösung zu erreichen. Ich gehe in dieser Arbeit von dem Unterschied zwischen analoger und digitaler Technik bzw. von dem Unterschied zwischen analoger und digitaler Gesellschaft aus. Es ergibt sich demnach die Methode des Vergleichens. Die entscheidenden Fragen müssen also lauten: Was ist neu? Was gibt es jetzt, was es vorher nicht gab? Wo liegen diese Differenzen?
Der Ausdruck der „künstlichen Intelligenz“ verweist bereits auf eine neue, psychische Dimension der Technik, welche sie etwa während der industriellen Revolution nicht gehabt hat. Theorien der künstlichen Intelligenz wurden aber bisher nicht differenztheoretisch ausgearbeitet, sodass deutlich werden würde, wozu diese eingesetzt werden soll. Stattdessen wird oft jegliche Differenz ausgeblendet und die künstliche Intelligenz dann als „Superintelligenz“ in die Science-Fiction-Literatur entlassen. Die Gesellschaft muss Funktionen erfüllen und Probleme lösen, die mitunter sehr verschieden sind und es ist nicht ohne Weiteres klar, ob Lösungen in einem Bereich, in einem System, auf andere Bereiche (Systeme) übertragen werden können. Es ist daher geboten, nur empirisch beobachtbare Entwicklungen in den Vergleich mitaufzunehmen.
Auch Differenztheorien kommen aber nicht umhin, Einheiten, Identitäten und Ähnlichkeiten festzustellen. Das Aufgeben aller Einheiten wäre sinnlos und der Vergleich setzt Einheiten bereits voraus. Insbesondere wenn es um Formen und Benutzeroberflächen der Digitalisierung geht, könnte man sich in Differenzen verlieren. Wer sich hier allzu sehr von Formen ablenken lässt, verliert die strukturelle Ebene aus dem Blick. Man hört Musik nun im Internet, aber Musik hören konnte man vorher auch. Man liest einen Artikel im Internet, aber das konnte man vorher, in der Zeitung, auch. Man kauft etwas bei einem Internethändler, auch das war vorher analog möglich. Die Beobachtung von Differenzen darf nicht die Beobachtung von Kontinuitä-ten und Gemeinsamkeiten versperren.
Wann beginnt die Digitalisierung? Was ist der Vergleichshorizont? Der Beginn der Digitalisierung wird beispielsweise mit dem Zugang Aller zum Internet im Jahre 1989 oder mit der erstmals höheren digitalen Speicherfähigkeit gegenüber der analogen Speicherfähigkeit im Jahre 2002 angesetzt. Abstrakter denkende Autoren könnten auch viel weiter ansetzen, etwa als Beginn die Einführung der zweiwertigen Logik im alten Griechenland nennen. In meiner Theorie kann ich mich grob mit der Jahrtausendwende begnügen, aber dass dies ein sinnvoller Periodisierungsvorschlag ist, soll durch die Theorie erst gezeigt werden.
1.2 Entscheidungsmaschinen
Neben Luhmann haben auch andere Soziologen des 20. Jahrhunderts den Begriff der Entscheidung in den Mittelpunkt ihrer Theorien gestellt und dies mit Formeln wie der „Risikogesellschaft“ (Beck 1986)1, der „Multioptionsgesellschaft“ (Gross 1994) oder der „Entscheidungsgesellschaft“ (Schimank 2005) ausgedrückt. Luhmann hat demgegenüber den Begriff der Entscheidung nie sehr stark betont, dessen Wichtigkeit eher ein Resultat der Theorie ist. Es kann hier nicht darum gehen, Luhmanns Überlegungen zum Entscheidungsbegriff im Detail nachzuzeichnen, zumal es bei Luhmann ohnehin schwierig zu erkennen ist, welcher Gedanke welchen anderen Gedanken abgelöst hat; es sollen lediglich zwei Stationen genannt werden. Zu Beginn hatte er noch einen lebensweltlichen Zugang gesucht und war dabei vom Handlungsbegriff ausgegangen. (Luhmann 2019 [1973], S.161ff; Luhmann 2009) Dann ist er dazu übergegangen, Organisationen als solche sozialen Systeme anzusehen, die sich über die Operation der Entscheidung reproduzieren, Entscheidungen als Letztelement an die vorangegangenen Entscheidungen anschließen. (Luhmann 2000)
Luhmann zitiert dabei, nachdem er sich in Paradoxien der Entscheidung vertieft hat, Heinz von Foerster: „Only those questions that are in principle undecidable, we can decide.“ (Foerster 2003, S.293) Heinz von Foerster hatte dies in einer Rede als Abgrenzungskriterium für Metaphysik vorgeschlagen. Es gibt zum Einen entscheidbare Sätze, als Beispiel nennt er mathematische Sätze, welche entweder schon entschieden wurden (wahr/falsch), oder in Zukunft noch entschieden werden könnten. Metaphysische Sätze seien nun solche Sätze, welche nicht entschieden sind und auch niemals entschieden werden könnten; als Beispiel nennt er hier die Frage nach dem Ursprung des Universums. „I say that we become a metaphysician any time we decide upon in principle undecidable questions.“ (Foerster 2003, S.291) Luhmann stellt hingegen die Frage, ob jede Entscheidung ein Moment der Willkür enthalten müsse, wenn sie sich gegenüber der Berechnung auszeichnen soll. (vgl. Luhmann 2019, S.405ff; Luhmann 2000, S.132, S.136, S.186)
In dieser Arbeit möchte ich keine Metaphysik und auch keine konstruktivistische Mystik unterbringen, die These der Entscheidungsmaschinen ist gewagt genug. Auch eine berechnete Entscheidung wird hier als Entscheidung verstanden, Willkür ist keine notwendige Entscheidungskomponente. Ich begnüge mich stattdessen mit der Minimaldefinition der Entscheidung als Wahl aus Alternativen. Jedoch rechne ich die Entscheidung nicht einem menschlichen Subjekt (personalem System) zu, sondern zumindest teilweise einem technischen System, einer Entscheidungsmaschine. Der Entscheidungsbegriff setzt die Alternativen, die Unterscheidung bereits voraus (Präsupposition); die Ent-scheidung erfordert zunächst die Unter-scheidung, was in der deutschen Sprache zur Geltung kommt. Das englische Wort „decide“ und das deutsche Wort „Dezision“ stammen vom lateinischen Wort de-cidere ab, welches das Abschneiden einer Alternative zugunsten einer anderen bezeichnet. Die Entscheidung überführt die Kontingenz mehrerer möglicher Optionen in die Determiniertheit der gewählten Option.
Wie kommt es zu den Unterscheidungen? Sie sind durch die binären Codierungen, also den Leitunterscheidungen der Funktionssysteme, welche eine Entscheidungslage erzeugen, empirisch gegeben und lebensweltlich vertraut. „Damit stehen wir vor der Frage nach den gesellschaflichen Rahmenbedingungen, von denen die Verfügbarkeit abstrakterer Entscheidungskriterien abhängt. Diese Rahmenbedingungen dürften hauptsächlich in der Institutionalisierung ausdifferenzierter symbolischer Codes für Kommunikationsmedien liegen.“ (Luhmann 2019 [1973], S.175)
Es bleibt die Frage, was hier unter einer Maschine verstanden wird bzw. die Frage, warum hier der Begriff der Maschine gewählt wird. In der Systemtheorie ist dabei allgemein die Frage zu stellen, wie die Kausalität zwischen Systemen jeweils beschaffen ist, insbesondere dann, wenn es Systeme verschiedener Art betrifft. Dabei ist implizit auch die Frage berücksichtigt, wie sich systemtheoretische Bereichsforschungen, beispielsweise Luhmanns Theorie sozialer Systeme, zu anderen Bereichsforschungen, beispielsweise der Erforschung technischer Systeme, verhält.
Schon der Fall der „ökologischen Kommunikation“ hatte das Problem der Kausalität sehr deutlich aufgeworfen. (Luhmann 1986) Die Gesellschaft besteht als soziales System aus Kommunikation, die an Kommunikation anschließt, sie ist operativ geschlossen; aber die Kommunikation alleine kann nicht erklären, wie es überhaupt zu kausalen Eingriffen in die Umwelt der Gesellschaft kommt. Kommunikation mag Luft in wellenartige Bewegung versetzen, Farbe in Papier drucken oder elektronische Signale versenden, sie hat aber keine materiellen Wirkungen, welche ökologische Probleme erklären könnte. (Luhmann 1997, S.131f) Diese „Erklärungslücke“ (ebd.) kann nur geschlossen werden, indem der Handlungsbegriff beibehalten wird, von dem Luhmann zunächst ausgegangen war. Erst die Handlung, und nicht nur die Kommunikation (über Handlungen) überschreitet die Grenze von dem Gesellschaftssystem zu dessen Umwelt. Soziologisch ist der Handlungsbegriff also allgemeiner anzusiedeln als der Kommunikationsbegriff, kommunikative Handlungen sind eine Teilmenge aller Handlungen. Jede Kommunikation beinhaltet eine Handlung, aber nicht jede Handlung ist kommunikativ. „Es gibt, anders gesagt, sehr wohl nichtkommunikatives Handeln, über das die Kommunikation sich nur informiert.“ (Luhmann 1984, S.227)
Auch für die Frage nach der Kausalität zwischen sozialen Systemen und technischen Systemen ist der Handlungsbegriff unverzichtbar. Im ökologischen Fall kann die Technik das Ausmaß des Eingriffs in die natürliche Umwelt erklären, welcher man nicht mehr nackt gegenübertritt. Die Technik wird zwischen Mensch und Natur geschaltet, die Handlungswirkungen werden durch Technik erweitert. Ökologisch relevante Handlungen wären z. B. das Fällen von Bäumen, das Schlachten von Tieren oder das Bohren nach fossilen Ressourcen, welche ohne Technik nicht oder kaum möglich wären. Die Handlung bedient sich dabei der Technik als eines Werkzeugs oder einer Maschine. Im digitalen Fall, im Falle des Computers, geschieht dies durch das Tippen auf eine Tastatur oder auf einen Bildschirm, das Bewegen der Maus und Klicken des Mauszeigers auf Symbole, oder das Drücken von Knöpfen und Drehen von Reglern.
Warum nicht Entscheidungstechniken? Warum nicht Entscheidungswerkzeuge? Der Begriff der Technik ist für die Technikwissenschaften der allgemeine Begriff; er ist der Oberbegriff, unter dem ihr Gegenstandsbereich abgesteckt wird, wobei der Begriff mitunter sehr weit, z. B. zur Bezeichnung einer eingeübten Handlung, verwendet wird. Der Ausdruck „Technologie“ sollte, dem sprachlogischen Wortsinn nach, für die Technikwissenschaften freigehalten werden. Der Begriff der Maschine wird traditionell vom Begriff des Werkzeugs her definiert. Ein Werkzeug ist ein „entsprechend zugerichtetes Ding“ (Guardini 1966, S.15ff), welches mit Ernst Kapp als Erweiterung der Hand, als Erweiterung der Hand-lung verstanden werden kann. (Kapp 1877, S.71) Eine „Werkzeugmaschine“ weist bereits einen höheren Automatisierungsgrad auf, sie hat sich in gewissem Maße verselbstständigt. Eine Maschine ist nun, mit Hegel gesagt, ein „selbständiges Werkzeug“. (Günther 2021, S.161; Heidegger 1962, S.16f)
„Die technische Entwicklung geht also vom nicht-automatischen Werkzeug oder Elementarmechanismus (Töpferscheibe, Spinnrad usw.) zur halbautomatischen Maschine und von da zum vollautomatischen maschinellen Arbeitsaggregat.“ (Günther 2021, S.161f) Auch der erste deutsche Vertreter der Kybernetik, Hermann Schmidt, hatte eine zunehmende Automatisierung der Technik beobachtet. (Gehlen 1957, S.19) Eine Maschine unterscheidet vom Werkzeug, dass sie nicht mehr der Kraft eines Menschen bedarf, sondern dass sie die Kräfte der Natur in ihren Dienst stellt. (Heisenberg 2018) Die Grenze zwischen Werkzeug und Maschine kann jedoch nur schwierig trennscharf gezogen werden und ermöglicht daher eine eher beliebige Festlegung. (vgl. Ortega y Gasset 1941, S.148)
Für die Systemtheorie bietet es sich an, Maschinen als Systeme zu beschreiben. Bei Werkzeugen denkt man an einen Hammer o. ä., Maschinen sind hinreichend komplex, um selbst in der Alltagssprache als technische Systeme bezeichnet zu werden. Der Maschinenbegriff gibt damit immer eine eindeutige Systemreferenz an, er bezeichnet neben physikalischen, biologischen, psychischen und sozialen Systemen den fünften Systemtypus eines technischen Systems. Die Minimaldefinition einer Maschine als technischem System erlaubt es dem Systemtheoretiker, sich auf sicherem Boden zu bewegen. Auch die europäische Philosophie war immer von einer anthropologischen Differenz ausgegangen, welche jetzt erneut, durch die Maschine statt durch das Tier, herausgefordert wird. Die Systemtheorie unterscheidet sich damit von anderen theoretischen Ansätzen, beispielsweise von der Akteur-Netzwerk-Theorie Bruno Latours, welche a priori nicht zwischen Mensch und Maschine unterscheidet. Ein Aktant könnte dort ein Mensch sein, aber auch eine Maschine sein.
Andere Theoretiker haben den Begriff des Systems bereits auf technische Phänomene angewendet, in Deutschland ist vor allem an Günter Ropohl zu denken. Ropohl hat für die „technologische Aufklärung“ in Deutschland Vieles geleistet, aber der Begriff des soziotechnischen Systems ist mit Luhmanns Systemtheorie nicht vereinbar.2 (Ropohl 2009; Luhmann 2000, S.364f) Luhmanns theoretische Grundfigur besteht darin, in einem ersten Schritt, zunächst die operative Schließung von Systemen zu beobachten, um daraufhin, im zweiten Schritt, mögliche Kausalitäten und Kopplungen zwischen den operativ geschlossenen Systemen zu beobachten und zu beschreiben.
Maschinen reproduzieren sich weder über die Operation des Stoffwechsels (Metabolismus) im Sinne eines lebenden, biologischen Organismus, noch reproduzieren sie sich über die Operation des Denkens, was Vertreter der KI-Forschung vielleicht bestreiten würden. Sie reproduzieren sich außerdem nicht über die Operation der Kommunikation, weshalb soziale und technische Systeme, welche im Begriff des soziotechnischen Systems zusammenfallen, auseinandergehalten werden müssen. Es ist eine offene Frage, ob Maschinen an Kommunikation teilnehmen können (Harth & Lorenz 2017); aber innerhalb der Maschine, als maschineninterne Operation, findet keine Kommunikation statt. Die Systemtheorie muss zuerst differenztheoretisch die operative Geschlossenheit gegenüber der Umwelt feststellen und kann später immer noch wechselseitige Beziehungen, Analogien, Kausalitäten und Kopplungen beobachten. Für maschinelle Operationen gibt es, soweit ich sehe, noch kein Wort; technische Operationen schließen hier an technische Operationen an.
Wird das Wort Entscheidung und das Wort Maschine zusammengefügt, ergibt sich das Wort der Entscheidungsmaschine, welches nicht schön klingen mag; jedoch muss die Sprache dem Denken folgen. Im Englischen wird auch vom „automated decision making“ oder vom „algorithmic decision making“ (ADM) gesprochen. Was wird mit dem Begriff der Entscheidungsmaschine bezeichnet und wovon wird er unterschieden? Entscheidungsmaschinen zeichnet aus, dass sie nicht mehr adäquat als Entlastung körperlicher Arbeit verstanden werden können. „Diese Maschinen können nicht mehr als Supplemente körperlicher Aktivität aufgefasst werden und erzwingen deshalb eine Neubeschreibung des Verhältnisses von Mensch und Maschine.“ (Luhmann 1997, S.122) Ihre Funktion, ihr Zweck, ihr um-zu ist die Entscheidung; das zu entlastende, zu überbietende, zu ersetzende Organ ist das Gehirn, das psychische System. Bei aller Unzulänglichkeit des Begriffes der künstlichen Intelligenz wird doch diese Funktion angezeigt. (vgl. Günther 2021, S.165)
Dieser Idealtyp schließt nicht aus, dass eine Entscheidungsmaschine zugleich körperliche Funktionen übernehmen könnte, was noch zu zeigen sein wird, jedoch geht es nun primär um Entscheidungen. Die These, dass die Digitalisierung der Gesellschaft als zunehmende Verwendung von Entscheidungsmaschinen verstanden werden kann, mag zu gewagt klingen; im Grunde ist sie jedoch theoretisch eher konservativ. Sie geht weiterhin von einem Primat der funktionalen Differenzierung der modernen Gesellschaft aus und behauptet, dass die Digitalisierung als Folge ihrer Probleme, als Reaktion auf ihren gewachsenen Entscheidungsbedarf, verstanden werden kann.
1 Die Risikogesellschaft lässt sich hier unterbringen, wenn man wie Luhmann zwischen Risiko (durch Entscheidung des Systems) und Gefahr (durch Bedrohung der Umwelt) unterscheidet. (Luhmann 1991)
2 Luhmann nennt im Bezug auf soziotechnische Systeme weitere Publikationen. (Luhmann 2000, S.361f)
2.1 Digitale Massenmedien
Ich beginne mit dem massenmedialen Funktionssystem, weil die Digitalisierung hier vermutlich am weitesten fortgeschritten ist und Bekanntheit vorausgesetzt werden kann. In der Medientheorie wird des Öfteren die Unterscheidung von alten Medien/neuen Medien herangezogen, um einen Vergleich zu ermöglichen, wobei es natürlich vom Zeitpunkt der Unterscheidung abhängt, was jeweils darunter verstanden wird. Die Unterscheidung von alten und neuen Medien enthält bereits eine zeitliche Differenz, da ein Zustand B einem Zustand A gegenüber-, oder besser hintangestellt wird. In diesem Kapitel wird, wie in fast allen anderen Kapiteln auch, eine bereits vorliegende Beschreibung für den Zustand A zugrundegelegt; in diesem Fall ist die Beschreibung durch Luhmanns „Die Realität der Massenmedien“ gegeben. (Luhmann 1995) Ich gehe also davon aus, dass die Massenmedien des 20. Jahrhunderts (Zustand A) im Wesentlichen so funktionieren, wie Luhmann es dort beschrieben hat.
Massenmediale Kommunikation ist Kommunikation, fällt also in den Zuständigkeitsbereich der Soziologie und der Medienwissenschaft. Sie ist allerdings auch massenmedial, d. h. technisch vermittelt, fällt also ebenfalls in den Zuständigkeitsbereich der Technikwissenschaften. Luhmann hatte bei seiner Beschreibung klassische Redaktionen im Sinn, welche über Medien wie die Zeitung, das Fernsehen, den Film, das Radio, das Buch usw. Informationen an die Empfänger senden. Die Massenmedien erfüllen dabei laut Luhmann die Funktion des Gedächtnisses der Gesellschaft, dirigieren die gesellschaftliche Selbstbeobachtung, indem sie laufend entscheiden, was vergessen werden kann und was ausnahmsweise erinnert wird, was Information ist und was keine Information (Nichtinformation) ist. Die Massenmedien können die Welt nicht Punkt-für-Punkt abbilden, sondern müssen ständig entscheiden, welche Programme Information versprechen und welche nicht. Luhmann unterteilt idealtypisch die drei Programmbereiche der Nachrichten und Berichte, der Werbung und der Unterhaltung und nennt Beispiele wie „Sport oder Astrophysik, Politik oder moderne Kunst, Unfälle oder Katastrophen“. (Luhmann 1995, S.29, S.37) Bei der Programmauswahl werden Selektoren relevant, welche die Annahmewahrscheinlichkeit des Empfängers erhöhen sollen.
Der neue Zustand B ist mit dem Aufkommen des Internets und darin insbesondere mit dem Aufkommen von Suchmaschinen, Video- und Nachrichtenportalen gegeben. In der ersten Phase des Internets mögen Journalisten noch Angst vor dem Wegbrechen ihrer Profession gehabt haben, inzwischen ist diese Sorge jedoch abgeflacht, weil deutlich geworden ist, dass jene intermediären Webseiten und Portale selbst keine Inhalte produzieren. (vgl. Weischenberg 2018; Pöttker 2018) Zunächst wurde vor allem der Bruch thematisiert, alte und neue Medien gegenübergestellt, mittlerweile pflegt jede größere Redaktion eine Webseite und tritt als Kanal auf Portalen auf. Es ist im Laufe der Zeit eher die Kontinuität erkennbar geworden; Journalisten, welche vorher über Sport geschrieben haben, werden nun im Internet über Sport schreiben; Empfänger, welche sich vorher für Astrophysik interessiert haben, werden sich nun astrophysikalische Inhalte im Internet ansehen.
Wer bezweifelt, dass es sich bei Internetportalen um Massenmedien handelt, kann im Selbstversuch einmal eine Zeitung neben die Startseite eines bekannten Portals halten. Es ist unweigerlich festzustellen, wie hier auf bereits bekannte Erfindungen zurückgegriffen wird: auf die Schlagzeile, auf das Vorschaubild, auf die Einsortierung in Rubriken usw. Es mag für geschulte Beobachter unzählige Unterschiede geben, die Fragen der Gestaltung, Verschiebung von schriftlichen zu visuell-auditiven Formaten, Unterschiede von Kommentarspalten und Interaktionsmöglichkeiten betreffen, aber die Zuordnung zum massenmedialen Funktionssystem bereitet keine Probleme. Man kann sich ausgiebig mit den Formen beschäftigen und als Sender muss man es auch, aber als Wissenschaftler läuft man hier immer Gefahr, von der Realität überholt zu werden, weshalb der Blick auf die Struktur beständiger und erfolgsversprechender ist.
Auf der strukturellen Ebene gibt es nur einen Unterschied, wenn man die klassischen Medien des 20. Jahrhunderts mit den neuen Medien des 21. Jahrhunderts vergleicht: Die Entscheidung darüber, was als Information oder Nichtinformation gilt, wird nicht mehr ausschließlich von Menschen getroffen. Stattdessen entscheiden (zusätzlich) Algorithmen, was als Werbung, potentielles nächstes Video oder Nachricht erscheint und übernehmen damit faktisch redaktionelle Arbeit. (vgl. Thurman et al. 2019a, S.981) Als Beleg sei hier nur exemplarisch die Selbstauskunft der Suchmaschine „Google“ zitiert:
„Bei der Menge an Informationen im Web wäre es ohne Vorsortierung nahezu unmöglich, das Gesuchte zu finden. Deshalb gibt es die Rankingsysteme von Google: Sie durchsuchen Milliarden von Webseiten im Suchindex und präsentieren dir die relevantesten und nützlichsten Ergebnisse in Sekundenschnelle. Diesen Rankingsystemen liegt eine ganze Reihe von Algorithmen zugrunde. Damit du die nützlichsten Informationen erhältst, wird eine Vielzahl von Faktoren herangezogen. Dazu gehören unter anderem die in deiner Suchanfrage verwendeten Wörter, die Relevanz und Nützlichkeit von Seiten, die Sachkenntnis von Quellen sowie dein Standort und deine Einstellungen. Die Gewichtung der einzelnen Faktoren hängt von der Art deiner Suchanfrage ab. Zum Beispiel spielt die Aktualität der Inhalte bei der Beantwortung von Fragen zu aktuellen Themen eine größere Rolle als bei Wörterbuchdefinitionen.“ (Google 2024)
Wie entscheiden Algorithmen, was als potentielle Information, also als Nachricht, Werbung oder Video auf dem Bildschirm des Empfängers erscheint und was als Nichtinformation zurückgestuft wird? Dem oben genannten Zitat können bereits Hinweise über „Faktoren“ entnommen werden, welche bei der Entscheidung eine Rolle spielen und auch als Selektoren bezeichnet werden können. Im Speziellen unterliegen diese Selektoren und Algorithmen dem Geschäftsgeheimnis, was eine Schwierigkeit für die empirische Forschung darstellt, jedoch kann auf allgemeiner theoretischer Ebene etwas über deren Funktionsweise ausgesagt werden. Es muss sich in Anbetracht der Geschwindigkeit der Entscheidungen um Konditionalprogramme handeln, d. h. um Programme der Struktur: Wenn der Empfänger in der Vergangenheit Programm x bevorzugte, dann senden wir jetzt Programm y (oder noch einmal Programm x).
Die Forschung des 20. Jahrhunderts zu Fragen der analogen redaktionellen Entscheidungen und Selektoren wurde unter dem Begriff des „Nachrichtenwertes“ betrieben, welcher seine Relevanz beibehält oder sogar an Relevanz gewinnen wird. Nachrichtenwerte sind Selektoren, anhand derer die Berichtenswertigkeit („newsworthiness“) festgestellt wird und anhand derer bewusst oder unbewusst entschieden wird, was Information und was keine Information verspricht. Die im 20. Jahrhundert soweit wie möglich ermittelten Nachrichtenwerte müssen mit den Selektoren der Algorithmen abgeglichen werden, um sinnvoll und valide eine Differenz feststellen zu können, wobei auf die sich ständig ändernden Algorithmen geachtet werden muss. Dies ist eine Frage für die empirische Forschung und kann hier nur exemplarisch geschehen. Für den Zustand A ziehe ich die von Luhmann erstellte Liste heran, welcher einige der zu diesem Zeitpunkt gängigen Selektoren für Nachrichten in beliebiger Reihenfolge und ohne Anspruch auf (unmögliche) Vollständigkeit zusammenfasst.
1. Neuheit, welche vor dem Hintergrund des Vertrauten präsentiert wird.
2. Konflikte, welche bereits von sich aus spannungsgeladen sind.
3. Quantitäten, welche Information für Kenner sowie „substanzlose Aha-Effekte“ für Nichtkenner erzeugen.
4. Lokalität, welche für den Nahbewohner interessant ist.
5. Normverstöße, welche Skandale versprechen, welche weitere Skandale versprechen.
6. Moralische Bewertungen, welche aber keine Ethik sind.
7. Personifizierung, welche komplexe Hintergründe reduziert.
8. Einzelfälle, welche immer aktuell sind.
9. Meinungen, welche das ohnehin Passierende akzentuieren.
10. Organisationsinterne Routinen, welche von Zeitung zu Zeitung, von Sender zu Sender anders sein können. (Luhmann 1995, S.42ff)
Es gibt zunächst keinen Grund zu der Annahme, einer der Selektoren würde wegfallen, diese Selektoren werden auch in Zukunft bleiben; jedoch wäre es möglich, dass die Algorithmen zu Verschiebungen und Überlagerungen führen. Es soll hier mithilfe eines Artikels eine Verschiebung angezeigt werden, welcher sich mit der „news value theory“ im digitalen Raum auseinandersetzt und die Plattform „Facebook“ als Untersuchungsgegenstand wählt. (DeVito 2016) Der Autor formuliert die Problemstellung wie folgt: „However, as the News Feed’s story selection mechanism starts to supplant traditional editorial story selection, we have no window into its story curation process that is parallel to our extensive knowledge of the news values that drive traditional editorial curation.“ (DeVito 2016, S.2) Es wird versucht, ein „core set of algorithmic values“ aus Veröffentlichungen von und über Facebook zu gewinnen, um eine mögliche Verdrängung traditionaler Nachrichtenwerte festzustellen. (ebd. S.2) Dieser Artikel leistet Pionierarbeit, was man schon an der detektivischen Methode erkennen kann.3
Auch DeVito sieht den wesentlichen Unterschied der digitalen Massenmedien in der Verwendung von Algorithmen: „As Facebook assumes the role of news source, it takes on some of the influential gatekeeping and agenda-setting functions that have traditionally been performed by human editors. […] In the News Feed, all story selection is conducted not by editors, but by algorithms.“ (ebd. S.2) Er führt eine Unterscheidung zwischen klassischen „news values“ und „algorithmic values“ ein, wobei Erstere gut erforscht und Letztere unbekannt sind: „[...]- [W]e do not have a clear picture of what the algorithm is, much less what values it is embedding into its story selection process.“ (ebd. S.3) Selbst die Programmierer des Algorithmus verständen ihn nicht vollumfänglich. DeVito formuliert drei Fragen, die auch für weitere Forschung wegweisend sein könnten:
„RQ1: What are the core algorithmic values of the Facebook News Feed?“
„RQ2: How are those algorithmic values ranked in order to select stories for the Facebook News Feed?“
„RQ3: How do these algorithmic values differ from traditional news values?“ (ebd. S.5f)
DeVito begnügt sich aufgrund der Komplexität der Black-Box-Algorithmen mit der Nennung der Variablen und betont dabei, dass es sich um einen Schnappschuss von „values in flux“ handelt:
1. „friend relationships“, Beziehungen zu befreundeten Nutzern
2. „status updates“, Aktualisierungen in Statusbeiträgen
3. „explicitly expressed user interests“, explizit geäußerte Interessen im Status
4. „prior user engagement“, vorherige Aktivität bzw. Ausmaß dieser Aktivität
5. „implicitly expressed user preferences“, implizit geäußerte Interessen im Status
6. „post age“, Alter des Beitrags
7. „platform priorities“, Prioritäten der Plattform
8. „page relationships“, Verbindungen des Nutzers zu Seiten
9. „negatively expressed preferences“, z. B. negative Bewertungen
10. „content quality“, Qualität des Inhalts (ebd. S.10ff)
Nach einem Vergleich mit klassischen Nachrichtenwerten stellt DeVito fest: „All nine of the identified algorithmic values can be reduced down to personal significance, e.g., impact to self, interests, and friends. This is a radical departure from traditional news values, and brings longstanding concerns about the role of personalization in selecting news content to the forefront.“ (ebd. S.14)4
Als Zwischenfazit für das massenmediale Funktionssystem kann also Folgendes festgehalten werden. Die Rolle von Algorithmen wird oft gesehen, aber selten in einen theoretischen Kontext eingearbeitet. Die Theorie der Nachrichtenwerte bietet die Möglichkeit, traditionelle und algorithmische Selektoren zu vergleichen, was aufgrund des Geschäftsgeheimnisses und der Dynamik der algorithmischen Entwicklung schwierig ist. Der hier vorgestellte Artikel ist nur ein Beispiel dafür, wie so etwas für eine Internetseite ablaufen kann, jede Seite verwendet eigene Algorithmen. Eine endgültige Liste von Selektoren und deren Gewichtung kann es nicht geben, es können lediglich Verschiebungen beobachtet werden.
Die Verschiebung hin zur Personalisierung ist deutlich zu erkennen, der Strom der Nachrichten kann nun genauer auf die Präferenzen der empfangenden Person zugeschnitten werden. DeVito reiht sich im Ausblick in den Kreis derjenigen ein, welche durch die Personalisierung entstehende „Filterblasen“ vermuten. „Many theorists (e.g., Bozdag 2013; Gillespie, 2014; Pariser 2011; Sunstein 2001) have warned of the potential for personalization to form filter bubbles and feedback loops that reduce exposure to counterattitudinal information, cutting off the debates and exchanges of ideas that are central to the operation of a democracy.“ (ebd. S.14) Dieser Frage muss weiter nachgegangen werden.
Filterblasen oder Automatisierte Überraschung?
Die Personalisierung der Nachrichtendiät („news diet“) war in einem rudimentären Sinne auch schon im 20. Jahrhundert möglich, schließlich konnte man sich die gewünschte Zeitung oder den Fernsehsender frei auswählen. Es kann also nur ein gradueller Unterschied sein, aufgrund dessen man heutzutage von Personalisierung spricht. „Of course, the potential to customize content also means readers may select only the content that appeals to them.“ (Pavlik 2001, S.29) Wenn die Personalisierung jedoch durch nach Präferenzen sortierende Algorithmen verstärkt wird, lässt sich ein Problem für Prozesse der Meinungsbildung vermuten. Den Befürchtungen scheint die Annahme zugrundezuliegen, dass Meinungs- und Perspektivenvielfalt eine notwendige Bedingung für Demokratie ist und Algorithmen die Meinungsbildung beeinflussen. „Worries about filter bubbles are typically based on two fundamental assumptions: People are diversity averse, and algorithms reduce diversity. Together, users and algorithms create a spiral, in which users are one-dimensional and prefer their information diet tobe filtered so that it reflects their interests, and in which this filtering reinforces the individual’s one-dimensionality.“ (Bodo et al. 2019, S.207)
Für diese Befürchtung haben sich die Metapher der „Filterblase“ (Eli Pariser5) oder auch der „Echokammer“ (Cass Sunstein) herausgebildet. Diese spekulativen Effekte müssen sich nicht auf Politisches beschränken, gewännen dort aber an Brisanz. Will man als Forscher hierüber Erkenntnisse gewinnen, kann man sich nicht auf eine sendende Organisation beschränken, sondern muss alle Quellen eines Empfängers untersuchen, welcher seine Informationen wahrscheinlich nicht alle aus einer Quelle bezieht. Das erste Forschungsproblem haben Wissenschaftler bei der Operationalisierung des Begriffes der Vielfalt („diversity“). Beschränkt man sich auf die politische Dimension, hieße Vielfalt die Konfrontation mit abweichenden Meinungen entlang des links-rechts-Spektrums. (Flaxmann et al. 2016) „So far, diversity is mainly discussed and measured in terms of political leaning of news sources and stories (e.g. Flaxman & Rao, 2016), thereby neglecting that diversity is a multi-dimensional concept that also encompasses topic plurality, genre, or the plurality in tone (Helberger et al. 2018).“ (Möller et al. 2018) Möller et al. konzentrieren sich in ihrer Studie auf Themen („topics“) und finden keine Anzeichen für die Existenz von Filterblasen. (ebd.)
Im deutschsprachigen Raum setzt sich vor allem Birgit Stark mit der Frage nach „einseitigen Informationsumgebungen“ auseinander. (Stark 2019a, S.2) Die digitalen Massenmedien werden dort als „Informationsintermediäre“ bezeichnet, wobei zwischen Suchmaschinen, sozialen Netzwerkplattformen und Nachrichtenaggregatoren unterschieden wird. (ebd. S.2) Die Intermediäre schalten sich zwischen Sender und Empfänger und filtern, sortieren und personalisieren mithilfe von Algorithmen potentielle Informationen. (ebd. S.2; Stark et al. 2017, S.21) Eine Studie von 2015 thematisiert u. a. den Begriff des „Gatekeepers“. „Suchmaschinen als Gatekeeper zu betrachten, ist nicht unumstritten. [...] Zentral für die hier betrachtete Fragestellung ist aber, dass Suchmaschinen für die Nutzer die „Weichen“ für den Zugang ins Netz stellen, was im Bild des Gatekeepers treffend zum Ausdruck kommt.“ (Magin et al. 2015, S.495; siehe auch S.496, S.502) Zusätzlich zum Begriff des Gatekeepers wird auch von Vermittlern gesprochen. (ebd. S.497) Weil die Intermediäre selbst keine Inhalte produzieren, schlagen Schweiger et al. auch die Unterscheidung von Nachrichtenquellen und Nachrichtenkanälen vor. (Schweiger et al. 2019, S.3). Allerdings übernehmen die Intermediäre faktisch redaktionelle Arbeit bzw. etwas, was früher redaktionelle Arbeit war, den Nachrichtenkanälen kann also nicht vorbehaltlos Neutralität zugeschrieben werden. (vgl. Magin et al. 2015, S.498)
Magin et al. untersuchen in einer Studie von 2019 stichprobenartig die Vielfalt von Suchmaschinenergebnissen mithilfe von Inhaltsanalysen. „Obwohl systematische empirische Belege für dieses Bedrohungsszenario [der Entstehung von Filterblasen] bislang weitgehend fehlen, hat sich mittlerweile eine breite Debatte über die demokratische Rolle von algorithmenbasierten Empfehlungssystemen wie Suchmaschinen oder Nachrichtenaggregatoren in Wissenschaft und Medienpolitik entwickelt.“ (Magin et al. 2019, S.421) In einem anderen Artikel wird angemerkt, dass die öffentliche Debatte von Beginn an „negativ konnotiert“ verlief und „mögliche positive Effekte durch personalisierte Empfehlungssysteme kaum in Erwägung gezogen werden.“ (Stark 2019b, S.3) Vielleicht könne man die Filterblasen mittlerweile als „geplatzt“ ansehen, weitere Forschung ist aufgrund der Komplexität des Phänomens jedoch notwendig. (ebd. S.5)
Ein weiterer Artikel von 2019 trägt den Titel: „Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern“ (Stark et al. 2019b) So wie der Titel des Artikels schon anzeigt, wird die Existenz von Filterblasen im Wesentlichen verneint. „Insgesamt zeigen die Befunde, dass die vielzitierten Wirkungseffekte der Filterblase deutlich geringer sind als bislang angenommen oder sogar komplett ausbleiben.“ (Stark 2019b, S.6) An späterer Stelle heißt es weiter: „Der Überblick über den gegenwärtigen Stand der Forschung zeigt, dass die tatsächliche Tragweite von Filterblasen und Echokammern weithin überschätzt wird.“ (ebd. S.9; siehe auch Stark et al. 2020, S.4, S.25)
Viele Autoren begnügen sich dann auch damit, normativ mehr Transparenz von den Intermediären zu fordern. (vgl. Diakopoulos & Koliska 2016; Magin et al. 2019, S.421, S.428; Selke et al. 2018, S.39f, S.73) Die Forderung nach Transparenz übersieht vor allem, dass für den prädigitalen Empfänger auch keine transparenten Zustände herrschten. Dieser hatte weder Zutritt zu der Redaktion, noch einen Anspruch darauf zu wissen, was in den Köpfen der Journalisten vorging, als sie eine bestimmte Nachricht auf die Titelseite brachten und andere ausließen, falls dies für die Journalisten selbst überhaupt transparent gewesen sein sollte. Vielleicht haben die Empfänger mittlerweile auch schon mehr Vertrauen in die Selektion der Algorithmen als in die Selektion der Journalisten und Medienschaffenden. (vgl. Thurman et al. 2019b)
Zu demselben Ergebnis wie Birgit Stark kommen Richard Fletcher und Rasmus Kleis Nielsen für Suchmaschinen. „We thus find little support for the idea that search engine use leads to echo chambers and filter bubbles.“ (Fletcher und Nielsen 2018, S.976) Die Autoren machen auf einen feinen Unterschied zwischen der Metapher der Filterblasen und der Metapher der Echokammern aufmerksam. Während die Filterblase von Äußerem abschirme, also weniger Information bedeute, sei für die Echokammer ein Zuviel des Immergleichen bezeichnend. (ebd. S.978) Wenn der Systemtheoretiker so will, reflektiert die Echokammer somit den Designationswert der Information und die Filterblase den Reflexionswert der Nichtinformation. (vgl. Luhmann 1995, S.28)
Mit dem Begriff der automatisierten Überraschung („automated serendipity“) formulieren die Autoren einen Gegenbegriff zur Filterblase, um auch die Möglichkeit der Beobachtung umgekehrter, also Effekte der Förderung von Meinungsvielfalt offenzuhalten. „To the contrary, using search engines for news is associated with more diverse and more balanced news consumption, as search drives what we call “automated serendipity” and leads people to sources they would not have used otherwise.“ (ebd. S.976; siehe auch S.986) Schon andere Autoren hatten auf diese Möglichkeit hingewiesen, zuerst Erzscheid und Gallezot, jedoch ist mit dem Ausdruck der „automated serendipity“ nun ein gelungener Begriff gefunden, welcher eine neutralere Forschung und öffentliche Debatte ermöglicht. Der englische Begriff „serendipity“, den ich hier mit Überraschung übersetzt habe, steht für eine unerwartete Entdeckung, klassischerweise für einen Zufallsfund. Wird die Überraschung automatisiert, also auf Dauer gestellt und kontrolliert erzeugt, tritt die Zufallskomponente zurück, weil Überraschungen nun erwartet werden können. Jeder langfristige Internetnutzer wird schon einmal die Erfahrung gemacht haben, etwas positiv Überraschendes entdeckt zu haben, z. B. ein musikalisches Kunstwerk.
Fazit zu digitalen Massenmedien
Es ist deutlich geworden, dass es hier nicht darum gehen kann, die Forschung eines Feldes repräsentativ wiederzugeben, sie kann immer nur, d. h. auch in den folgenden Kapiteln, ausschnittsweise beleuchtet werden, um die These dieser Arbeit zu erklären und zu verteidigen. Der wesentliche Unterschied zwischen analogem Zustand A und digitalem Zustand B, die Erfindung der digitalisierten Massenmedien liegt in den Algorithmen, welche über den Empfänger erreichende Programme (Sendungen) entscheiden. Sie selektieren also, was als potentielle Information auf dem Bildschirm erscheint und was als Nichtinformation verborgen bleibt. Informationsintermediäre schalten sich zwischen Sender und Empfänger, welche bestimmte, mitunter journalistische Inhalte zeigen und andere Inhalte verbergen, also systemtheoretisch formuliert zwischen Information und Nichtinformation entscheiden. Die Computerprogramme können als massenmediale Entscheidungsmaschinen bezeichnet werden, weil sie eine Unterstützung für diese Entscheidungen bereitstellen. Dies ist den Nutzern längst bekannt, Sendende legen z. B. Wert auf „Suchmaschinenoptimierung“ und entwickeln Strategien der Anpassung an die Algorithmen.
Die Nachrichtenwerttheorie stellt einen passenden Rahmen bereit, um Gemeinsamkeiten und Unterschiede zwischen klassischen Nachrichtenwerten und algorithmischen Werten festzustellen, also die älteren mit den neueren Selektoren zu vergleichen. Der Vergleich ergibt vor allem die Tendenz zur Personalisierung, d. h. es werden Programme vorgeschlagen, welche in irgendeiner Hinsicht den bereits empfangenen Programmen ähneln. Formal ausgedrückt läuft also die Prozedur eines Konditionalprogramms ab: Wenn der Empfänger in der Vergangenheit Programm x bevorzugte, dann wird nun Programm y gesendet (oder noch einmal Programm x). Jeder Internetnutzer kann dies selbst testen, indem er bestimmte Programme auswählt; seine Vorschläge werden sich dementsprechend anpassen.
Die Befürchtungen von Filterblasen und Echokammern können als Effekte der Anwendung dieser Algorithmen verstanden werden, sind also Wirkungen der personalisierenden Algorithmen und zeitlich und logisch nachgeordnet. Bislang hat die Forschung die Effekte nicht oder nur in geringem Maße bestätigen können. Die Befürchtungen über einseitige Informationsumgebungen scheinen sich nicht zu bestätigen, weitere Forschung und Beobachtung der Entwicklung ist jedoch notwendig. Der Gegenbegriff der automatisierten Überraschung („automated serendipity“) bietet die Chance, auch Effekte zu beobachten, welche Meinungsvielfalt fördern. Die Forschung in diesem Bereich steht so gesehen noch am Anfang, weil zunächst ein neutraler Ausgangspunkt geschaffen werden musste.
Wozu digitale Massenmedien? Der Grund, warum das massenmediale System diese Algorithmen verwendet bzw. Intermediäre dazwischenschaltet, scheint neben dem höheren Grad der Personalisierung auch die im medialen Funktionssystem angelegte Systemzeit zu sein. Informationen müssen ständig erneuert werden und veralten sich selbst. (Luhmann 1995, S.31ff) Schon das Radio und das Fernsehen hatten eine sehr schnelle Verbreitung von Informationen gegenüber der Zeitung ermöglicht, dies scheint nun nochmals gesteigert zu werden. Statt z. B. ein Lexikon zu durchblättern, kann die Information, ohne ein Gespräch zu unterbrechen, über die Spracheingabe erfragt werden. Journalisten, welche hier einen Widerspruch zwischen Systemrhythmus und Qualität sehen, versuchen sich an „entschleunigtem Journalismus“ („slow journalism“) und versprechen tiefergehende Analysen und Einordnungen, also Vorzüge, welche eher von der Wissenschaft erwartet werden. Die analogen Medien wie die gedruckte Zeitung oder das gedruckte Buch faszinieren nun wieder im Hinblick auf ihre Materialität. (Boczkowski et al. 2019)
3 Für theoretische Überlegungen ist es egal, ob einzelne Webseiten und Portale geschlossen oder von anderen ersetzt werden; ein weiterer Grund, sich mehr mit Strukturen und weniger mit Formen zu befassen.
4 Punkt 2 wird im Fazit ausgelassen.
5 Pariser ist Internetaktivist, der Begriff wurde dann von der Wissenschaft aufgegriffen.
2.2 Wirtschaft
Wenn man an Digitalisierung und Wirtschaft denkt, wird man zunächst vielleicht an den Handel im Internet denken, also an Webseiten, auf denen Kunden, welche zuvor in Geschäfte und Läden gingen, nun Waren von zuhause aus bestellen können. Die Präsenz der Waren ist jedoch schon spätestens mit den Versandkatalogen des ausgehenden 19. Jahrhunderts nicht mehr zwingend gegeben. Werner Sombart zitiert hierzu eine Reklame der Zeit: „Warum kauft man von Versandgeschäften? Weil man der Unannehmlichkeit enthoben ist, aus einem Laden gehen zu müssen, ohne etwas gekauft zu haben, für den Fall, dass man das gewünschte nicht finden konnte, und weil man der Beredsamkeit von Verkäufern nicht ausgesetzt ist. Man spart Mühe und Zeit, die der Besuch eines oder mehrerer Läden erfordern würde. Man ist vorher von den Preisen unterrichtet, wählt zu Hause unbeeinflusst und bekommt die Ware ins Haus getragen.“ (Sombart 1902, S.381)
Auch der Internethandel greift auf Reklame zurück, etwa in der Form: Kunden, welche den Artikel x gekauft haben, haben auch diesen Artikel y gekauft. Die Werbung ist in Luhmanns Theorie aber dem Funktionssystem der Massenmedien zugeordnet, welche im vorherigen Kapitel behandelt wurde. In Luhmanns Theorie reproduziert sich das Wirtschaftssystem durch Zahlungen. „Das Ausdifferenzieren eines besonderen Funktionssystems für wirtschaftliche Kommunikation wird [...] durch das Kommunikationsmedium Geld in Gang gebracht, und zwar dadurch, daß sich mit Hilfe von Geld eine bestimmte Art kommunikativer Handlungen systematisieren läßt, nämlich Zahlungen.“ (Luhmann 1988, S.14) Die Codierung des Wirtschaftssystems ist dann zahlen/nicht zahlen. „Alle Operationen, die die [...] Wirtschaft fortsetzen, werden somit durch eine Entscheidung zwischen Zahlung und Nichtzahlung bestimmt und erweisen sich dadurch als nicht notwendig.“ (ebd. S.43) […] „Programme zeigen an, „ob es angebracht und richtig ist, zu zahlen oder nicht zu zahlen.“ (ebd. S.250) Märkte werden von Luhmann als systeminterne Umwelten begriffen.
Entscheidungsmaschinen in der Wirtschaft sind in sehr unterschiedlichen Umwelten zu beobachten, für dieses Kapitel bietet sich daher die Differenzierung in Finanzmärkte, Arbeitsmärkte und Gütermärkte an. Auf Finanzmärkten wird entschieden, ob für bestimmte Finanzinstrumente gezahlt oder nicht gezahlt wird. Auf Arbeitsmärkten wird entschieden, ob für bestimmte Arbeitsleistungen gezahlt oder nicht gezahlt wird. Auf Gütermärkten wird entschieden, ob für bestimmte Güter gezahlt oder nicht gezahlt wird. Weitere Unterteilungen sind möglich, für die hier verfolgten Zwecke reicht diese grundlegende Aufteilung aus.
Finanzmärkte
Finanzmärkte haben sich in den letzten Jahrzehnten stark verändert. (Yang et al. 2015, S.1683) „Die technologische Entwicklung vom klassischen Parketthandel an den Präsenzbörsen hin zu vollständig computergesteuerten Börsensystemen ist in der Literatur unbestritten.“ (Gomolka 2011, S.87; siehe auch S.87ff) Anstatt sich auf Menschen zu verlassen, verlassen sich Marktakteure zunehmend auf Computer, welche im Handel eine vorgegebene Strategie algorithmisch umsetzen. (Yadav 2015, S.1609) Diese Art des Handels wird automatischer Handel oder algorithmischer Handel genannt („algo trading“), welcher auf Computerbörsen („Elektronisches Handelssystem“) stattfindet. (Gomolka 2011, S.69f) Teilweise treffen die Algorithmen vollautomatische Entscheidungen über Zahlung oder Nichtzahlung, weshalb auch von finanziellen Entscheidungsunterstützungssystemen gesprochen wird. (vgl. Clapham et al. 2021, S.477; Tudor & Sova 2022, S.9628; Lenglet 2011, S.45)
Oft wird auch vom Hochfrequenzhandel gesprochen, welcher aber nur einen Teil des algorithmischen Handels ausmacht. (Gomolka 2011, S.227) Die Gleichsetzung kommt u. a. deswegen zustande, weil von außen nicht direkt beobachtbar ist, ob der Handel automatisch ausgeführt wurde, die hohe Frequenz aber einen Anhaltspunkt dafür gibt. (vgl. Hendershott et al. 2011b, S.6; Hendershott & Riordan 2013, S.1002; Hendershott & Riordan 2011a, S.2; Yang et al. 2015, S.1684; Yadav 2015, S.1623) Es gibt ausgedehnte wirtschaftswissenschaftliche Literatur zu diesem Thema und mittlerweile auch soziologische Beiträge. (Mackenzie 2018, S.501; Kumiega 2012, S.51; Borch 2021; Wansleben 2012)
Von den Autoren wird angegeben, dass der Großteil des Handelsvolumens dem automatisierten Handel zuzurechnen ist. (vgl. Pricope 2021, S.1) Die Nennung von Zahlen ist hier fast überflüssig, zumal sie vermutlich weiter steigen werden. In den Vereinigten Staaten von Amerika wurde der automatisierte Handel in den 1990er-Jahren eingeführt, das Handelsvolumen war im Jahre 2009 auf 73% angewachsen. (Hendershott et al. 2011b, S.1; siehe auch Mukerji et al. 2019, S.1f; Tudor & Sova 2022, S.9628; Yadav 2015, S.1619; Lenglet 2011, S.47) Im Laufe der Zeit wurde es günstiger, Computer zu installieren, was die Entwicklung der entsprechenden Infrastruktur notwendig machte. (Hendershott et al. 2011b, S.2; Tudor & Sova 2022, S.9628) Für Deutschland wurde im Jahr 2006 ein Wert von 37% angegeben. (Prix et al. 2007, S.717)
Die Zahl der Marktakteure, welche sich des automatisierten Handels bedienen, ist, vielleicht wider Erwarten, eher klein. (Kirilenko & Lo 2013, S.59) Die Firmen sind typischerweise klein, beschäftigen weniger als 150 Mitarbeiter und wurden nach der Jahrtausendwende gegründet. (Mackenzie 2018, S.505) Kirilenko spricht auch von „power users“, um diese Form der neuen professionellen Finanzintermediäre zu beschreiben. (Kirilenko & Lo 2013, S.67) Sie zeichnen sich durch ein hohes technisches Fachwissen in diesem Bereich und intensive Aktivität aus. (ebd. S.67)
Wie funktioniert automatischer Handel? Zentral werden die Interaktionen über Orderbücher vermittelt. (MacKenzie 2018, S.507) Die Algorithmen sind Computerprogramme, welche Daten benötigen, um eine Zahlungsempfehlung abzugeben oder eine Zahlungsentscheidung zu treffen; die Daten werden auch als „Signale“ bezeichnet. (ebd. S.505) Gomber unterscheidet hierbei marktendogene Daten und marktexogene Daten. (Gomolka 2011, S.48) „Endogene Marktdaten entstehen durch das Agieren der Marktteilnehmer in der betrachteten Marktorganisation selbst […].“ (ebd. S.48; siehe auch Hendershott et al. 2011b, S.2; Pricope 2021, S.1; Borch 2021, S.4) Marktexogene Daten sind Daten aus den Nachrichten wie z. B. makroökonomische Kennzahlen. (Gomolka 2011, S.48) Was die Verwertung von massenmedialen Informationen als Daten angeht, kommt es zu einem Wettbewerb zwischen menschlichen und maschinellen Fähigkeiten. Einerseits können die Programme sehr schnell große Datenmengen erfassen, bevor die menschlichen Marktteilnehmer die Zeitung aufschlagen bzw. aufrufen können. (Scholtus et al. 2012, S.2; Lenglet 2011, S.46) Andererseits haben die Programme Schwierigkeiten, den Kontext der Nachrichten zu erfassen und konzentrieren sich daher nur auf Stichwörter und harte Fakten. (Yadav 2015, S.1625, S.1653) Es gibt deswegen Finanzinformationsanbieter, also „Informationsmakler“, welche sich darauf spezialisieren, die Daten für Maschinen lesbar zu machen. (Gomolka 2011, S.48)
Die Daten müssen dann von den Programmen verarbeitet werden. Automatischer Handel kann definiert werden als das automatische Treffen von Zahlungsentscheidungen, also das Aufgeben einer Order sowie dessen Ausführung und Verwaltung. (vgl. Hendershott & Riordan 2011a, S.2; Lyle et al. 2015, S.1; Yang et al. 2015, S.1683; Tudor & Sova 2022, S.9629; Lenglet 2011, S.47) Im relativ einfachen Fall werden hierfür vorprogrammierte Entscheidungsregeln angewendet. (Yadav 2015, S.1618f; Yang et al. 2015, S.1610; Theate & Ernsta 2021, S.2) Borch nennt ein Beispiel für eine solche Entscheidungsregel: Wenn der Preis einer bestimmten Aktie um 0,2% fällt, dann kaufe diese Aktie. (Borch 2021, S.4) Komplexere Programme wenden maschinelles Lernen an, entwickeln also im Laufe der Zeit eigene Regeln, eigene konditionale Programmierungen. (vgl. ebd. S.4; Tudor & Sava 2022, S.9629; Gomolka 2011, S.196)
Der Übergang von auf maschinelle Empfehlungen zurückgehenden menschlichen Entscheidungen bis hin zu vollautomatischen maschinellen Entscheidungen ist fließend. (Gomolka 2011, S.321f) „[Die rein maschinelle Transaktion] ist dann die geeignete Form für Algorithmic Trading, wenn für die Informationsbeschaffung und -auswertung nur wenig Zeit zur Verfügung steht. Der Mensch ist bei dieser Form [...] nicht mehr an den Transaktionsprozessen beteiligt, so dass eine hohe Reaktionsgeschwindigkeit realisierbar ist.“ (ebd. S.194; siehe auch Cartea et al. 2018, S.674; Boehmer et al. 2020, S.2659; Prix et al. 2007, S.718)
In dem Zeitgewinn scheint auch der wesentliche Zweck der algorithmischen Systeme zu liegen, weil sich dadurch Profite verwirklichen lassen. Auch andere Funktionen werden in der Literatur genannt, etwa die Reduzierung von Transaktionskosten (Gsell 2009, S.5; Hendershott et al. 2011b, S.1, S.6; Yang et al. 2015, S.1610; Mukerji et al. 2019, S.2), meistens wird aber der Zeitfaktor betont. Wie bereits angemerkt, ist nicht jeder automatisierte Handel gleichbedeutend mit dem Hochfrequenzhandel, die Automatisierung gewinnt hier an Dynamik. Hochfrequenzhandel kann mit Computerprogrammen gesteigert werden, weil sie Entscheidungen in Zeitabständen treffen können, welche für Menschen nicht mehr wahrnehmbar bzw. nicht abgrenzbar sind. (vgl. Gomolka 2011, S.27; Gsell 2009, S.5; Hendershott & Riordan 2011a, S.2; Scholtus et al. 2012, S.1; Mukerji 2019, S.4; Borch 2021, S.3) Der menschliche Marktakteur braucht einen deutlich längeren Zeitraum, um Daten aufnehmen und verarbeiten zu können. (Yadav 2015, S.1652; Gomolka 2011, S.198; Cartea et al. 2018, S.675)
Profite werden gemacht, indem Finanzinstrumente zu einem höheren Preis verkauft werden, als man sie eingekauft hatte. (Pricope 2021, S.1) Die Einrichtung der Computerprogramme kostet zunächst Geld, was immer miteinberechnet werden muss. (Yadav 2015, S.1623) Algorithmisch handelnde Marktakteure hoffen dann, dass sie langfristig Profite erwirtschaften und Risiken vermeiden, weil die Programme schneller und besser auf veränderte Marktbedingungen reagieren können. (Li et al. 2019, S.1; Mukerji et al. 2019, S.2; Pricope 2021, S.1; Yang et al. 2015, S.1684f; Yadav 2015, S.1623; Scholtus 2012, S.3) Im Falle des Hochfrequenzhandels würden geringe Profite ausreichen, welche sich dann summieren. Weil es im automatischen Finanzhandel um viel Geld geht, werden Erkenntnisse über technische Entwicklungen in diesem Bereich bevorzugt geheimgehalten. (Pricope 2021, S.2, S.17) Gerade Firmen oder Banken, welche im Handel selbst involviert sind, werden ihre Forschungsergebnisse nicht öffentlich publizieren, sondern werden sie privat halten. (Theate & Ernsta 2021, S.2; Gomolka 2011, S.1, S.32)
Der wahrheitsorientierten Forschung sind hier also Grenzen gesetzt, sie befasst sich daher auch mit anderen Fragen. Eine vieldiskutierte Frage ist z. B., wie sich der automatische Handel auf die Qualität des Marktes, etwa die Liquidität auswirkt. Erste Beobachtungen legen die Schlussfolgerung nahe, dass die Liquidität, also die Zahlungsfähigkeit der Marktteilnehmer, zunimmt. (Boehmer 2020, S.2660ff; Boehmer2 2015, S.29; Gomolka 2011, S.5; Gsell 2008, S.7; Hendershott & Riordan 2013, S.1001; Hendershott et al. 2011b, S.1, S.3; Lyle 2015, S.1; Mukerji et al. 2019, S.1; Scholtus 2012, S.4, S.33; Theate & Ernsta, S.2; Tudor & Sova 2022, S.9628)
Eine andere Forschungsfrage ist, wie sich der automatische Handel auf die Stabilität des Marktes auswirkt, also beispielsweise, ob er an Zusammenbrüchen („Crashes“) beteiligt ist. In den Massenmedien wurde der sogenannte „Flash Crash“ im Jahr 2010 oft dem automatischen Handel zugeschrieben. (Yadav 2015, S.1619; Kirilenko & Lo 2013, S.52; Subrahmanyam 2013, S.5) Der Flashcrash von 2010 wurde nicht von dem automatischen Handel ausgelöst, vermutlich war der automatische Handel aber ein verstärkender Faktor während der Eskalationsspirale. (Yadav 2015, S.1628, S.1654; siehe aber Farjam 2017) Börsen verwenden für solche Fälle Handelsunterbrechungen („Circuit Breaker“), der Handel wird hierbei für einige Minuten ausgesetzt, bis menschliche Akteure die Situation wieder kontrollieren können. (Subrahmanyam 2013, S.6; Mukerji et al. 2019, S.2) Allgemein wird in der Literatur weiter diskutiert, wie der automatische Handel zu regulieren ist. (Subrahmanyam 2013, S.6; Aggarwal & Thomas 2014, S.3; Yadav 2015, S.1612f, S.1670)
Arbeitsmärkte
Auf Arbeitsmärkten fragen Arbeitgeber Arbeit nach, müssen also entscheiden, ob sie für einen arbeitsanbietenden Bewerber, für einen potentiellen Arbeitnehmer zahlen oder nicht zahlen; im Personalwesen hat sich neben dem Ausdruck der Personalbeschaffung auch der Ausdruck der Rekrutierung etabliert. Grundsätzlich sind arbeitsnachfragende Organisationen daran interessiert, Bewerber einzustellen, welche wahrscheinlich zur Umsetzung der Organisationsziele beitragen werden, d. h. Bedingungen erfüllen, welche diesen Beitrag in Aussicht stellen. Welche konkreten Anforderungsprofile entstehen, ist von Organisation zu Organisation unterschiedlich, in jedem Fall werden für die Organisation passende und entsprechend qualifizierte Personen gesucht.
Das Bewerbungsverfahren kann am besten mit der Logik der konditionalen Programmierung beschrieben werden: Wenn der Bewerber die Bedingungen x, y, z… (eher als andere Bewerber) erfüllt, dann wird er eingestellt.6 Typischerweise sind die Informationsdaten asymmetrisch verteilt; der Bewerber weiß mehr über sich, als die Organisation über ihn weiß. Genau wie der Arbeitgeber ist auch der Arbeitnehmer, vorausgesetzt dass es ihm nicht nur um das Geld geht, an seiner Arbeitszufriedenheit („job satisfaction“) interessiert. (Ahmed et al. 2015, S.2)
Für das Personalwesen werden bereits „algorithmische Systeme zur Entscheidungsfindung angeboten“. (Knobloch & Hustedt 2019, S.10ff; siehe auch Black & Esch 2020, S.217ff; Tambe et al. 2018, S.2; Chichester & Giffen 2019, S.2; Langenkamp et al. 2019, S.4, S.9f) „[...] Computer [können] [...] bereits heute exakte Vorschläge für Entscheidungen erarbeiten. Daraus ergeben sich eigene Geschäftsmodelle, und auch der grundsätzliche Einfluss auf Personalprozesse ist allgegenwärtig. Insbesondere durch die Datenhaltung [...] sind die Personalbereiche prädestiniert für den Einsatz von Digitaltechnik.“ (Sachtleber 2021, S.11) Für kleinere Organisationen lohnen sich diese Systeme nicht, weil zu dessen Anwendung das Anlegen großer Datensätze notwendig ist. (Tambe et al. 2018, S.1) Die Datensätze im Personalwesen sind vergleichsweise klein im Bezug auf die Datensätze, mit denen es die Datenwissenschaft ansonsten zu tun hat. (ebd. S.1; siehe auch S.7, S.11) Die meisten Organisationen haben nicht viele Mitarbeiter, stellen nur wenige Mitarbeiter ein und sammeln kaum Daten über ihre Mitarbeiter. (ebd. S.12, S.16; Ettl-Huber 2021, S.43)
Größere Organisationen müssen eine höhere Anzahl an Bewerbungen verarbeiten, für sie könnte sich der Einsatz lohnen. Im ersten Schritt laden die Bewerber ihre Bewerbungsunterlagen hoch, welche von Rekrutierungssoftware ausgelesen werden kann. (Sachtleber 2021, S.15; siehe auch Kulkarni & Che 2019, S.9) Die Daten werden hierbei in einer ersten Phase den Lebensläufen und Arbeitszeugnissen sowie in einer späteren Phase den Bewerbungsgesprächen entnommen (Langenkamp et al. 2019, S.7; Ahmed et al. 2015, S.2), sie werden dann in ein finales Punktesystem eingepflegt, um den Vergleich mit den Kompetenzprofilen anderer Bewerber zu ermöglichen. (ebd. S.10; Sachtleber 2021, S.16; Fernandez-Martinez & Fernandez 2021, S.199) In bestimmten Berufsbereichen mit klar abgrenzbaren Tätigkeiten kann das Bewerbungsgespräch auch weggelassen werden. (Sachtleber 2021, S.16) Die Datensätze können sogar auf Ähnlichkeiten hin untersucht werden, um Faktoren in Erwägung zu ziehen, die traditionell nicht berücksichtigt wurden. (ebd. S.16; Tambe et al. 2018, S.7) Das Programm kann außerdem dazu benutzt werden, bereits eingestellte Mitarbeiter während ihrer Tätigkeit zu bewerten. (Ettl-Huber 2021, S.37; Chichester & Giffen 2019, S.1) Silvia Ettl-Huber stellt fest, dass die großflächige Umsetzung solcher Programme noch „in weiter Ferne“ scheint, einzelne Anwendungen die Personalverwaltung jedoch näher an die Digitalisierung rücken lassen. (Ettl-Huber 2021, S.34; siehe auch S.47f; Fernandez-Martinez & Fernandez 2021, S.199)
In der einschlägigen Literatur wird oft der Vergleich zwischen menschlicher und maschineller Entscheidung gezogen. „Diese Anwendungen unternehmen alle den Versuch, menschliche Entscheidungsfindung nachzuahmen und damit die eigenständige Lösung von Problemen durch Digitaltechnik zu ermöglichen.“ (Sachtleber 2021, S.12) Sachtleber spricht sogar von einer „Entscheidermaschine“, fasst den Begriff jedoch enger als ich und will darunter nur vollautomatische Entscheidungen durch eine Maschine verstanden wissen. (ebd. S.12) Ich spreche hingegen auch dann von Entscheidungsmaschinen, wenn die Maschine als ein Assistenzsystem, als „Maschinenratgeber“ benutzt wird. (ebd. S.12)
Inwiefern ändert sich das Bewerbungsverfahren, wenn Entscheidungsmaschinen involviert sind?7 (vgl. Tambe et al. 2018, S.2, S.23; Hunkenschroer & Luetge 2022, S.1003, Ettl-Huber 2021, S.51, Trinkl & Pfeiffer 2021, S.61) Die Beantwortung dieser Frage wird aufgeschoben, indem betont wird, dass es sich um Assistenzsysteme handelt und letztlich immer ein Mensch entscheidet. Der Bewerber hat ein Recht darauf, nicht ausschließlich einer maschinellen Entscheidung unterworfen zu sein. (Sachtleber 2021, S.16; Seeber 2021 S.29f, Ettl-Huber 2021, S.45) Das Programm darf nur eine „Entscheidungsgrundlage“ bereitstellen und als „Entscheidungshilfe“ herangezogen werden, die „Entscheidungshoheit“ verbleibt aber bei einem Menschen (Seeber 2021, S.30), welcher als „Kontrollorgan“ und „letzte Instanz“ fungiert. (Ettl-Huber 2021, S.35; siehe auch Allhutter et al. 2020, S.6, S.12) „Denn bei einem Großteil der im Personalbereich eingesetzten Systeme handelt es sich um Assistenzsysteme. Das bedeutet, dass am Ende ein Mensch anhand einer algorithmischen Prognose eine Entscheidung trifft.“ (Knobloch & Hustedt 2019, S.23)
Wozu Entscheidungshilfen? Im Personalwesen geht es im Grunde darum, die richtige Person an die richtige Stelle zu bringen, sie könnten also eine Koordinationsfunktion erfüllen. Oft wird das Argument der Effizienz angeführt, also die Kosteneinsparung durch Aufwandsentlastung und Zeitgewinn. (Ettl-Huber 2021, S.49f, Hunkenschroer & Luetge 2022, S.977; S.59; Allhutter et al. 2020, S.1, S.14; Fernandez-Martinez & Fernandez 2020, S.199, S.213; Kulkarni & Che 2019, S.2, S.13; Leong 2018, S.50; Parviainen 2020, S.225; Black & Esch, S.216ff; Ahmed et al. 2015, S.2) Für Unternehmen der freien Wirtschaft bedeutet dies einen Wettbewerbsvorteil. (Kulkarni & Che 2019, S.3; Ettl-Huber 2021, S.50)
Der Angst vor der Personalreduktion wird teilweise mit der Verschiebung von Aufgabengebieten begegnet. „Wie bereits beschrieben, bietet die Automatisierung von standardisierten Prozessen und sich wiederholenden Aufgaben ein großes Potenzial, um Aufwände zu reduzieren und den MitarbeiterInnen der Personalabteilung die Möglichkeit zu geben, sich den Menschen zu widmen und weniger bürokratische Aufgaben zu übernehmen.“ (Sachtleber 2021, S.18; siehe auch Ettl-Huber 2021 S.33f, S.53) Was als Grund für die Anschaffung der Entscheidungshilfen angeführt wird, ist gleichzeitig ein Gegenargument; sie kosten Geld und die Mitarbeiter müssen sich aufwändig in die Systeme einarbeiten. (Trinkl & Pfeiffer 2021, S.60; Knobloch & Hustedt 2019, S.8)
Viel diskutiert werden auch moralische Fragen, wobei sich zwei Positionen abzuzeichnen scheinen. Eine Seite vermutet, dass der Einsatz der Systeme zu mehr Gerechtigkeit und Fairness im Bewerbungsprozess führen könnte, weil Maschinen keine Vorurteile haben und nur relevante Daten berücksichtigen; gerade die Hersteller der Systeme betonen dies in der Vermarktung. (Hunkenschroer & Luetge 2022, S.977; Knobloch & Hustedt 2019, S.3; Sachtleber 2021; Ettl-Huber 2021, S.17, S.50) Auf der anderen Seite wird befürchtet, dass ungerechte Diskriminierung weitergeführt oder verstärkt werden könnte. (Ettl-Huber 2021, S.43; Tambe et al. 2018, S.1, S.3, S.18f; Chichester & Giffen 2019, S.1f; Langenkamp et al. 2019, S.3f, S.12ff) Der Gerechtigkeitsbegriff wird dabei niemals expliziert, weshalb die Befürchtungen theoretisch unbegründet sind; was theoretisch fehlt, wird mit Moralisierung kaschiert. Grundsätzlich sind Unternehmen an Profiten interessiert,
