Algorithmuskulturen -  - kostenlos E-Book

Algorithmuskulturen E-Book

0,0
0,00 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Hochfrequenzhandel, Google-Ranking, Filterbubble - nur drei aktuelle Beispiele der Wirkmacht von Algorithmen. Der Band versammelt Beiträge, die sich mit dem historischen Auftauchen und der mittlerweile allgegenwärtigen Verbreitung von Algorithmen in verschiedenen Bereichen des sozialen Lebens beschäftigen. Sie nehmen die Wechselbeziehungen algorithmischer und nicht-algorithmischer Akteure und deren Bedeutungen für unseren Alltag und unsere Sozialbeziehungen in den Blick und gehen den Mechanismen nach, mit denen Algorithmen - selbst Produkte eines spezifischen Weltzugangs - die Wirklichkeit rahmen, während sie zugleich die Art und Weise organisieren, wie Menschen über Gesellschaft denken. Die Beiträge beinhalten Fallstudien zu Sozialen Medien, Werbung und Bewertung, aber auch zu mobilen Sicherheitsinfrastrukturen wie z.B. Drohnen.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 404

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



ROBERT SEYFERT, JONATHAN ROBERGE (HG.)

Algorithmuskulturen

Über die rechnerische Konstruktion der Wirklichkeit

Dieser Band geht aus Beiträgen hervor, die zuerst auf der vom 23.-24. Juni 2014 an der Universität Konstanz stattfindenden »Algorithmic Cultures«-Konferenz vorgestellt wurden. Der Band und die Konferenz wurden durch die großzügige Unterstützung des Canada Research Chairs Program und des im Rahmen der Exzellenzinitiative des Bundes und der Länder eingerichteten Exzellenzclusters der Universität Konstanz Kulturelle Grundlagen von Integration ermöglicht.

Dieses Werk ist lizenziert unter der

Creative Commons Attribution-NonCommercial-NoDerivs 4.0 DE Lizenz (BY-NC-ND).

Diese Lizenz erlaubt die private Nutzung, gestattet aber keine Bearbeitung und keine kommerzielle Nutzung. Weitere Informationen finden Sie unter https://creativecommons.org/licenses/by-nc-nd/4.0/de/.

Um Genehmigungen für Adaptionen, Übersetzungen, Derivate oder Wiederverwendung zu kommerziellen Zwecken einzuholen, wenden Sie sich bitte an [email protected]

Die Bedingungen der Creative Commons Lizenz gelten nur für Originalmaterial. Die Wiederverwendung von Material aus anderen Quellen (gekennzeichnet mit Quellenangabe) wie z.B. Schaubilder, Abbildungen, Fotos und Textauszüge erfordert ggf. weitere Nutzungsgenehmigungen durch den jeweiligen Rechteinhaber.

Bibliografische Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

© 2017 transcript Verlag, Bielefeld

Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen.

Covergestaltung: Kordula Röckenhaus, Bielefeld

Coverabbildung: Digital Abstract Business Background

© sheelamohanachandran (fotolia)

Übersetzung aus dem Englischen: Dagmar Buchwald, Moritz Plewa

ePub-Konvertierung: Datagrafix GmbH Berlin

Print-ISBN 978-3-8376-3800-4

PDF-ISBN 978-3-8394-3800-8

EPUB-ISBN 978-3-7328-3800-4

Besuchen Sie uns im Internet: http://www.transcript-verlag.de

Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]

Inhalt

1.Was sind Algorithmuskulturen?

Jonathan Roberge und Robert Seyfert

2.Die algorithmische Choreographie des beeindruckbaren Subjekts

Lucas D. Introna

3.#trendingistrending

Wenn Algorithmen zu Kultur werden

Tarleton Gillespie

4.Die Online-Stimmen von Verbrauchern in Form bringen

Algorithmischer Apparat oder Bewertungskultur?

Jean-Samuel Beuscart und Kevin Mellet

5.Den Algorithmus dekonstruieren

Vier Typen digitaler Informationsberechnung

Dominique Cardon

6.›Ver-rückt‹ durch einen Algorithmus

Immersive Audio: Mediation und Hörbeziehungen

Joseph Klett

7.Algorhythmische Ökosysteme

Neoliberale Kopplungen und ihre Pathogenese von 1960 bis heute

Shintaro Miyazaki

8.Drohnen: zur Materialisierung von Algorithmen

Valentin Rauer

9.Social Bots als algorithmische Piraten und als Boten einer techno-environmentalen Handlungskraft

Oliver Leistert

Autoren

Danksagung

1. Was sind Algorithmuskulturen?

Jonathan Roberge und Robert Seyfert

Die gegenwärtig beobachtbare Ausbreitung von Algorithmen stellt uns vor eine doppelte Herausforderung. Sie stellt sowohl unsere Gesellschaft als auch die Sozialwissenschaften im Speziellen vor die Aufgabe, Algorithmen eingehend zu erforschen und ein Verständnis von deren Ausbreitung zu erlangen. Algorithmen haben ihre Logik in die Struktur aller sozialen Prozesse, Interaktionen und Erfahrungen eingewoben, deren Entfaltung von Rechenleistungen abhängig ist. Sie bevölkern mittlerweile unser gesamtes Alltagsleben, von der selektierenden Informationssortierung der Suchmaschinen und news feeds, der Vorhersage unserer Präferenzen und Wünsche für Onlinehändler, bis hin zur Verschlüsselung von personenbezogenen Informationen auf unseren Kreditkarten und der Berechnung der schnellsten Route in unseren Navigationsgeräten. De facto wächst die Liste der Aufgaben, die Algorithmen erledigen rasant an, so dass kaum mehr ein Bereich unseres Erfahrungsraumes von ihnen unberührt bleibt: Ob es um die Art und Weise geht, wie wir Kriege mittels Raketen und Drohnen führen, oder wie wir unsere Liebesleben mithilfe von Dating Apps navigieren, oder aber wie wir die Wahl unser Kleidung von Wettervorhersagen bestimmen lassen – Algorithmen ermöglichen all dies auf eine Weise, die auf den ersten Blick verlockend simpel erscheint.

Freilich ist diese Einleitung nicht die erste, diejenigen Schwierigkeiten hervorzuheben, die sich beim Versuch der wissenschaftlichen Durchdringung von Algorithmen ergeben. So bezeichnet Seaver die Algorithmen etwa als »knifflige Gegenstände der Erkenntnis« (Seaver 2014: 2) und auch Sandvig verweist auf »die Schwierigkeiten Algorithmen zu erklären« (Sandvig 2015: 1; siehe dazu auch Introna 2016; Barocas et al. 2013). So konzeptuell weitsichtig diese Einwände auch sind, sie schließen derweil keineswegs die Notwendigkeit aus, das Maß dieser Unsichtbarkeit und Unergründbarkeit der Algorithmen zu begreifen. Nur allzu oft wird der Algorithmus als black box heraufbeschworen und darauf verwiesen, dass man es mit ungemein wertvollen und darüber hinaus patentierten Geschäftsgeheimnissen zu tun hat, die von Unternehmen wie Amazon, Google und Facebook vor firmenfremden Zugriffen geschützt sind. Zahllose Technik-, Wirtschafts-, Rechts- und Politexperten betonen denn auch, dass ihre Enthüllung, d.h. der öffentliche Zugriff auf die Algorithmen, gleichbedeutend mit ihrem Ende wäre (Pasquale 2015). An dieser Stelle beginnt die Sache allerdings schon komplizierter zu werden. Es gibt nicht eine black box, sondern eine Vielzahl an black boxes. Die Undurchsichtigkeit der Algorithmen ist durch eine multiple Opazität gekennzeichnet und die verschiedenen Formen der Opazität ergeben sich aus spezifischen Relationierungen innerhalb einer Fülle von menschlichen und nicht-menschlichen Akteuren. Wenngleich nur wenige Autoren die Pluralität dieser Opazität betonen (Burrel 2016; Morris 2015), bleibt es ein nicht zu übersehendes Merkmal, dass Algorithmen überhaupt nur in dichten, vielfältigen und durchaus auch spannungsvollen Umwelten existieren können.

Aus dieser inhärent lebhaften, dynamischen und unscharfen Beschaffenheit der Algorithmen erschließt sich auch, warum Algorithmen einen so schwer fassbaren Forschungsgegenstand darstellen. Kitchin drückt das folgendermaßen aus: »die Erzeugung eines Algorithmus entfaltet sich kontextuell über Verfahren wie trial and error, Spiel, Kollaboration und Aushandlung« (Kitchin 2014: 10). Hierbei ist der letztgenannte Begriff der Aushandlung (negotiation) von besonderer Bedeutung, denn er verweist sowohl auf eine Möglichkeitsbedingung als auch auf eine spezifische Problematik der Algorithmen. Auf einer basalen Ebene ließen sich Algorithmen als anthropologisch verwoben mit ihren Nutzern und Herstellern bezeichnen. In anderen Worten: Es besteht eine »konstitutive Verstrickung«, das meint, »es sind nicht nur wir, die wir die Algorithmen erstellen, sie erstellen auch uns« (Introna/Hayes 2011: 108). Nun besteht die Charakteristik einer solchen wechselseitigen Verflechtung gerade darin, dass man Algorithmen nicht gänzlich ›enthüllen‹, sondern nur bis zu einem gewissen Grade ›entpacken‹ kann. Sie sind gewissermaßen zeitlich verwurzelt, sie entstehen nach ihren eigenen Rhythmen, oder um es in Shintaro Miyazakis Worten zu sagen: »sie müssen sich entfalten und verkörpern so Zeit« (Miyazaki, in diesem Band 174). Eine weitere Metapher, die sich in diesem Zusammenhang zur Veranschaulichung anbietet, ist Latours Konzept der Kaskade: Algorithmen bewegen sich auf nicht-linearen Pfaden, befinden sich in stetigem Wandel, sind stetiger Fluktuation und Abweichung ausgesetzt (Latour 1986: 15f.). Diese stetigen Veränderungen machen es entsprechend schwer, mitunter sogar unmöglich, ihnen zu folgen. Was es hier abermals hervorzuheben gilt, ist der praktische, ja ›profane‹ Charakter der Algorithmen: Sie entfalten sich in einem Zustand der ununterbrochenen Aushandlung und befinden sich somit in einem kontinuierlichen Zwischenstadium. Seaver zufolge ist für die Algorithmen gerade kennzeichnend, dass »stetig unzählige Hände in sie hineinreichen, sie justieren, und anpassen, Teile austauschen und mit neuen Arrangements experimentieren (Seaver 2014: 10).

Die vielfältigen Entfaltungsmodi der Algorithmen rufen altbekannte medientheoretische Erkenntnisse in Erinnerung, verändern aber gleichsam deren Vorzeichen. So stellte bereits Weiser fest, dass die am tiefsten greifenden und am nachhaltigsten wirkenden Technologien jene sind, die verschwinden (Weiser 1991: 95). Indes, es steckt durchaus noch mehr dahinter. Wir würden die Gelegenheit gerne dafür nutzen zu unterstreichen, dass die konkreten Entfaltungsmodi der Algorithmen in ihren Formen der Wirksamkeit – in ihrem Tun – diese mit neuen und komplexen Bedeutungsdimensionen versorgen. Es geht hierbei also um Formen der Handlungsträgerschaft (agency) und Performativität, welche die Algorithmen verkörpern. Freilich gibt es mittlerweile schon eine ganze Traditionslinie von Forschern, die sich innerhalb des praxeologischen Paradigmas im weitesten Sinne, den Algorithmen widmen. Zu nennen wären hier Lucas Introna (in diesem Band, 2016, 2011), Adrian Machenzie (2005), David Beer (2013) und Solon Barocas et al. (2013). In gewisser Weise schließen wir hier an, wenn wir Andrew Geoffeys überzeugende Einsicht in Erinnerung rufen, dass »Algorithmen produktiv tätig sind und dass ihrer Syntax eine Befehlsstruktur inhärent ist, die ihnen eben dies ermöglicht.« (Andrew Geoffeys 2008: 17) Eine mindestens ebenso treffend zugespitzte Einsicht liefert Donald MacKenzie, wenn er feststellt, dass es sich bei einem Algorithmus um eine Maschine und nicht um eine Kamera handelt (MacKenzie 2006). Nun ließe sich viel zu diesem Ansatz sagen, und es wird noch wichtig sein, zur rechten Zeit auf ihn zurückzukommen. An dieser Stelle genügt es zunächst festzuhalten, dass die Handlungsträgerschaft der Algorithmen, als etwas völlig anderes begriffen werden muss, als es der Begriff der ›Handlung‹ insinuiert, insofern dieser Unilinearität und Zielgerichtetheit impliziert. Es verhält sich gerade gegenteilig: Die Form der Handlungsträgerschaft der Algorithmen lässt sich am treffendsten als eine fraktale beschreiben. Eine Handlungsträgerschaft also, die zahlreiche Outputs aus multiplen Inputs produziert (Introna 2016: 24). Was sich in Bezug auf Algorithmen unter dem Begriff der ›Kontrolle‹ fassen lässt, ist tatsächlich sehr beschränkt – vor, während und nach dem Operieren eines Algorithmus' ist einfach zu viel vorausgesetzt und involviert. So muss man den eingangs angeführten temporalen und anthropologischen Verwobenheiten (entrenchments) der Algorithmen noch den Begriff der Selbstverankerung (selfentrenchment) anfügen, um ersichtlich zu machen, dass ein Algorithmus mit zahlreichen anderen Algorithmen in undurchsichtigen und verschlungenen Netzwerken verflochten ist. Menschliche wie nicht-menschliche Einflussfaktoren sind entscheidend und können nur allzu leicht zu Fehlanpassungen, unvorhersehbaren Ergebnissen und, wie wir später noch sehen werden, zum dramatischen Scheitern der Algorithmen führen. Es scheint fast so, als realisierten sich Algorithmen durch eben die Möglichkeit ›lost in translation‹ zu sein. Das gilt nicht nur hinsichtlich ihrer Relationierung mit Maschinen, Codes, und vielleicht sogar mehr noch für deren Relationierungen auf der Ebene der Diskurse. Dieser Zwischenstatus kennzeichnet die gesamte Anwendbarkeit und Performativität, welche Algorithmen definieren. Algorithmen sind performativ per definitionem und performativ sein bedeutet, unter allen Umständen heterogen zu sein (Kitchin 2014: 14f.; Seaver 2014). Jene verworrenen Entfaltungen der Algorithmen richtig und sorgfältig zu entziffern, stellt für die Sozialwissenschaften im Allgemeinen und die Kultursoziologie im Besonderen eine dringende Herausforderung dar. Um nur einige der sich aufdrängenden Fragen zu nennen: Was passiert mit Algorithmen, sobald sie zu einem gesonderten Gegenstand der Forschung gemacht werden? Und wie sollten oder müssen wir uns darauf einstellen? Inwiefern müssen oder sollten wir unsere heuristischen Instrumente anpassen, welche Grade der Präzision, welche Schwerpunktwechsel anpeilen?

Es ist nun der richtige Moment, den Forschungsstand zu Algorithmen in den sogenannten ›weichen Wissenschaften‹ zu taxieren und dabei beides, Schwächen wie Vorzüge zu analysieren. In der Tat hat die Forschung zu Algorithmen bereits einen gewissen Reifegrad erreicht, und das obwohl sie erst seit kurzer Zeit in den Geistes-, Sozial- und Kulturwissenschaften aufgetaucht ist. Gegenwärtig gibt es einige vielversprechende Strömungen, die allerdings quer zueinander fließen und eher koexistieren, als sich wechselseitig zu befruchten. Erstens wären hier Autoren zu nennen, die eine Art von ›Inselbegrifflichkeit‹ bilden: »algorithmic turn« (Uricchio 2011), »algorithmische Ideologie« (Mager 2012), »algorithmische Identität« (Cheney-Lippold 2011), »algorithmisches Leben« (Amoor/Piotukh 2016) wären hier unter anderen zu nennen. Es finden sich auch schon nennenswerte Bestrebungen zu einer »Soziologie der Algorithmen«, die aus den Feldern der STS und der Social Studies of Finance hervorgegangen sind (MacKenzie 2015, Wansleben 2012). Ebenso lassen sich erste Gehversuche der Critical Algorithm Studies beobachten (The Social Media Collective 2015). Zudem ließen sich in den letzten Jahren einige wichtige Konferenzen zum Thema in Nordamerika und Europa registrieren: ›Governing Algorithms‹ (Barocas et al. 2013), sowie diejenige, die zu diesem Buchprojekt geführt hat, seien hier erwähnt (Ruhe 2014). All jene unterschiedlichen Ansätze der letzten Jahre haben richtungsweisende epistemologische Fragen aufgeworfen. Diese betreffen nicht zuletzt den angemessenen Umfang, den man der Forschung zu Algorithmen beimessen sollte, sondern auch die Frage nach der richtigen Distanz zum Gegenstand der algorithmischen Kultur steht im Raum und betrifft mithin das adäquate Maß an kritischer Reflexion des Forscherstandpunktes. Eine weitere virulente Problemlage betrifft das gegebene Risiko in die »Falle des Neuen« zu tappen, oder anders formuliert: Die Frage steht im Raum, ob es sich bei den Algorithmen nicht ›nur‹ um eines jener ausschließlich von der eigenen Adoleszenz zehrenden »heißen Themen« handelt (Beer 2003: 6f.; Savage 2007).

Konzeptionelle Innovation im Lichte dieser Frage- und Problemstellungen müsste folglich bedeuten, auch auf etablierte und bereits bewehrte Heuristiken zurückzugreifen und auf diesen aufzubauen. Wir möchten diese Einführung daher auch dafür nutzen, eine klassische Intervention Alexander R. Galloways zu überdenken und zu modifizieren: Galloway hatte unsere Kultur bekanntlich als eine Kultur des Algorithmus gedeutet (Galloway 2006). Die Idee, unsere Kultur als eine algorithmische zu charakterisieren steht dabei durchaus mit den umfassenderen und etablierten kultursoziologischen Bemühungen im Einklang, ›Bedeutung ernst zu nehmen‹. Was heißt das? Es geht darum, Bedeutung nicht als ein Produkt immaterieller, frei flottierender Signifikationsprozesse zu bestimmen, sondern als etwas tief in der Wirklichkeit verwurzeltes und mit Handlungsträgerschaft und Performativität eng verwobenes zu verstehen. In der Tat, eine Kultursoziologie der Algorithmen ist nur möglich, insofern Algorithmen sowohl als bedeutsam als auch als performativ begriffen werden – Algorithmen sind bedeutsam, weil sie performativ sind und vice versa. Die zuvor angeführten Perspektiven sind zweifelsohne beachtenswerte Beiträge, unserer Auffassung nach generieren sie jedoch eher das Desiderat nach einer dichteren, tiefer schürfenden und komplexeren Analyse der Algorithmuskulturen, als dass sie eine solche überflüssig machen würden. Im Titel des Bandes klingt es ja schon an: Wir wollen die Möglichkeit einer Algorithmuskultur adressieren, nicht ohne diese dabei mit Pluralisierungen zu ergänzen, oder besser noch: diese mit Pluralisierungen zu kontaminieren.

KULTURELLE PLURALITÄT INNERHALB DER ALGORITHMUSKULTUREN

Trotz seines theoretischen Potentials wurde Galloways Argument nie weiter ausgeführt oder vertieft und es erscheint uns daher von eher inspirierendem denn von analytischem Wert. Jüngst ist es insbesondere Ted Striphas, der »historisch-definitorische« Versuche unternimmt, um zu ergründen, was genau eine algorithmische Kultur im Kern ausmachen könnte (Striphas 2015, 2009; Hallinan/Striphas 2014; Roberge/Melançon im Erscheinen; bedingt auch Kushner 2013). Die Art und Weise, wie er (in diesem Fall mit seinem Ko-Autor Blake Hallinan) dieses Vorhaben angeht, entbehrt nicht einer humanistischen Note. Das zeigt sich etwa in der Frage: »Was bedeutet und was könnte Kultur zukünftig bedeuten, angesichts der wachsenden Präsenz algorithmischer [Empfehlungs-]Systeme […]?«. (Hallinan/Striphas 2014: 119) Anders formuliert, Striphas ist auf der Suche nach essentiellen, wenn nicht gar ontologischen Kategorien, in Hinblick auf Konzepte wie »Arbeit der Kultur« oder »Weltkulturerbe« und deren tiefgreifender Transformation im Zuge der Automatisierung. Kulturelle Zirkulations- Selektions- und Klassifikationsprozesse unserer Tage werden, so Striphas' Diagnose, zunehmend von »algorithmischen Berufungsgerichten« bestimmt. Seine Argumentation ist epistemologisch stichhaltig und erfasst die wesentlichen Facetten der Debatte. Einerseits würdigt er stets die mehrdimensionale Beschaffenheit der Algorithmuskultur und betont, dass die semantischen und technischen Elemente nicht voneinander zu trennen sind. Andererseits ist er sich vollkommen darüber im Klaren, dass sich die ›öffentliche‹ Beschaffenheit der Kultur gegenwärtig Prozessen der Privatisierung ausgesetzt sieht und sich zunehmend auf verstreute black boxes verteilt. Wenn man nach etwas Problematischen innerhalb von Striphas Argumentation sucht, so findet man es (wenn überhaupt) an anderer Stelle. Ein neuralgischer Punkt befindet sich in der Tendenz zur Abstraktion und Allgemeinheit, und dem damit einhergehenden Mangel an Konkretion. Um es wiederum konkreter zu formulieren: Zu konstatieren, dass wir gegenwärtig eine Verlagerung hin zu algorithmischer Kultur vernehmen, erfordert keineswegs einen einzigen allumfassenden und alles revidierenden theoretischen Spielzug. Striphas Vorstellung von Algorithmuskultur bleibt jedoch der einen Kultur verpflichtet. So einleuchtend und folgerichtig Striphas Argumentation auch verfährt, letztlich hat sie es daher schwer, der gegenwärtigen algorithmischen Pluralität gerecht zu werden und die Varietät an heterogenen und fraktalen Algorithmen zu erfassen. Die Aufgabe lautet ergo wie folgt: Wie erlangen wir ein adäquates Verständnis von Algorithmen; ein Verständnis das Bedeutung ernst nimmt und dabei die den Algorithmen innewohnende Performativität und Unordnung wahrnimmt? Ein möglicherweise gangbarer Weg führt uns zunächst etwas weiter in die Vergangenheit zurück. Schon zu Anfang der 1970er Jahre insistierte Michel de Certeau darauf, dass jedweder Definitionsversuch von Kultur nur im Plural erfolgen kann und nur auf der Einsicht in die irreduzible Multiplizität von Kultur aufbauen könne (de Certeau 1974). Obgleich sich de Certeau der heutigen Bedeutsamkeit der Algorithmen freilich nicht prospektiv bewusst sein konnte, erweisen sich seine Überlegungen in unserem Zusammenhang als fruchtbar, da sie uns daran erinnern, dass wir es mit einem Zeitalter der algorithmischen Kulturen im Plural zu tun haben.

Es mag mit Begriffen logisch schwer vermittelbar erscheinen, aber das eine kann sehr vieles sein, und eine Vielzahl distinkter Elemente kann sich sehr wohl als kommensurabel erweisen. Man denke nur an die Archipele der Bahamas oder der Philippinen, um ein anschauliches Exempel zu geben. Gerade in Bezug auf Algorithmen ist es nun wichtig zu verstehen, wie bestimmte separierende Einhegungen sich letztlich zu einem größeren Ganzen fügen. Freilich gibt es viele Wege, solcherart Einhegungen intelligibel zu machen. Einer, mittlerweile zum kultursoziologischen Mainstream avancierter Weg findet sich mit Jeffrey Alexanders Begriff der ›relativen Autonomie‹ der Kultur, welcher die Interdependenz kultureller Realitäten und anderer sozialer Kräfte unterstreicht (Alexander 2004, 1990; Alexander/Smith 2002, 1998; Sanz/Stančiḱ 2013). Von hier aus lässt sich verständlich machen, wie Algorithmen ein ›routinisiertes‹ Innen, eine innere, selbstreferentielle Logik generieren können, die gleichsam in ein Kraftfeld stetiger Wechselwirkungen mit Bedeutungen eingespannt ist. Algorithmen sind textuelle Realität, noch bevor sie zu mathematischen Kalkulationen werden und kristallisieren zugleich Imaginäres, Hoffnungen und Erwartungen: »Insofern sind Algorithmen als eine Unterform allgemeiner performativer Praktiken zu verstehen, zu denen u.a. Rituale, Narrative und andere symbolische Handlungen zählen«, wie Valentin Rauer es an späterer Stelle in diesem Band so schön ausdrückt (193). Als kontingente ›Normalisierer‹ und Stabilisatoren führen sie ein symbolisches Eigenleben, welches – textuellen Artefakten gleich – nur aus ihrem spezifischen Kontext heraus intelligibel wird. Eine Kultursoziologie der Algorithmen solcher Façon ruht auf einem originellen und gleichsam sehr soliden theoretischen Fundament. Jeffrey Alexanders Begriffskomposition der »relativen Autonomie« deckt sich durchaus auch mit Lorraine Dastons jüngster narratologischen Untersuchung des Algorithmus, die sich »spezifische Geschichten und Mythologien […] des Algorithmus« zum Gegenstand macht (2004: 362). So konnte Lucas Introna beispielsweise aufzeigen, wie bestimmte Sets an Algorithmen – Algorithmen-Netzwerke oder Algorithmusfamilien – die genutzt werden, um Plagiate aufzuspüren, die althergebrachte Definition dessen brüchig werden lassen, die bestimmt, was als originaler Text gilt. Da Algorithmen dazu in der Lage sind, Kopien über verdächtige Wortketten zu identifizieren, haben Autoren ihren Schreibstil an die Funktionsweise der Algorithmen angepasst und verändert. Algorithmen zur Plagiatserkennung sind letztlich also nur dazu in der Lage, »den Unterschied zwischen geschickten Kopierern und ungeschickten Kopierern« zu entdecken. Dabei entwerfen die Algorithmen paradoxerweise performativ ein gekonnt kopierendes Subjekt (als das eines ›Originale‹ fabrizierenden Autors), was wiederum eine ganze Kultur des Handels von Originalen und Ghostwriter-Dienstleistungen hervorgebracht hat (Introna 2016: 36). Anstatt Algorithmen utilitaristisch als bloße Hilfsmittel zu behandeln, zielt die Erforschung von Algorithmuskulturen auf die Untersuchung bedeutsamer performativer Effekte, welche mit algorithmischen Zugriffen auf die Welt einhergehen: Was tun Algorithmen, was bringen sie kulturell hervor? Wie generieren sie Sinn aus ihren Umgebungen und den verschiedenen Kategorien, die Menschen nutzen, um die Algorithmen zu deuten?

Wie sich herausstellt, besteht einer der hervorstechendsten Punkte dieser Einleitung darin, die Algorithmuskulturen als un multiple zu betrachten. Nick Seaver argumentiert diesbezüglich ganz ähnlich, wenn er vorschlägt, »statt Algorithmen-in-der-Wildnis als einsame Objekte zu behandeln […] sollten wir sie möglicherweise als Populationen verstehen, die es stichprobenartig zu untersuchen gilt« (2014: 6). Algorithmen sind dynamische Entitäten, die sich mit bestimmten Wissens- und Erfahrungsaggregaten auf komplex strukturierte Weisen verweben. Daher besteht ein weiterer vielversprechender Ansatz, diese relative Autonomie und die Mechanismen partieller Einhegung zu verstehen darin, sich der Sprache der Kybernetik zu bedienen (Totaro/Ninno 2014; Becker 2009). Feedbackschleifen, Entscheidung qua Klassifikation, fortlaufende Adaption und fortwährender Informationsaustausch sind ja allesamt Charakteristika rekursiver, quasi-zirkulärer Routinen, welche die nicht-lineare Entfaltung von Algorithmen kennzeichnen. Göran Boling und Jonas Anderson Schwartz haben dieser Idee denn auch vor kurzem eine praktische Wendung gegeben, indem sie feststellten, dass

»(a.) das Fachpersonal in der täglichen Arbeitstätigkeit antizipieren muss, was der Endverbraucher denkt und fühlt; [… und dass] (b.) viele alltägliche Nutzerinnen zu antizipieren versuchen, was das […] Mediendesign mit ihnen machen wird, […] was wiederum einen Rückgriff auf (a.) zur Folge hat« (Boling/Anderson Schwartz 2015: 8).

Google dient hier als ein vortreffliches Beispiel. Wie Dominique Cardon darlegt hat, gibt es hier einen multivalenten und komplexen »PageRank spirit« (2013, vgl. auch in diesem Band) in dem symbolische und performative Aspekte stetig interagieren. Ein solcher ›Spirit‹ lässt sich etwa in den zyklischen Antizipationen von Bedürfnissen, in der Zufriedenheit mit dem Ergebnis und der Personalisierung der Navigation – allesamt für die Suchmaschine typische Verfahren – sehr leicht ausmachen. Dieser ›Spirit‹ zeigt sich aber auch in der Einführung ausgeklügelter Algorithmen der letzten Jahre wie etwa Panda, Penguin, Hummingbird und Pigeon – und in ihrem Kampf gegen die ›verschmutzenden Kräfte‹ der Suchmaschinenoptimierung (Röhle 2009). In letzter Zeit wird dieser Spirit auch in Googles Bestrebungen sichtbar, eine Balance zwischen normaler leistungsorientierter Indexierung und den eigenen kommerziellen Bedürfnissen zu finden, welche der Finanzierung zukunftsweisender technologischer Unternehmungen dienen. Die drei angeführten Beispiele sind nun nicht nur selbst rekursiver Natur, sie sind auch selbst miteinander verknüpft, zusammen kreieren sie eine unverwechselbare, machtvolle und bedeutsame Algorithmuskultur. Genau das macht Googles eigene »Suchkultur« (Hilles et al. 2013) aus oder um es unverblümter zu formulieren: das Googleplex (Levy 2011). Verweist eine solche Kultur darauf, dass das Unternehmen keine Ahnung davon hat, was draußen vor sich geht? Mit Sicherheit nicht. Nein, es bedeutet vielmehr, dass Googles Algorithmuskultur mit anderen Kulturen kooperieren oder sich gar in vielerlei Hinsicht überschneiden kann – wir analytisch allerdings nichtsdestotrotz gut daran tun, diese einzelnen Kulturen nicht zu verwischen. Eine scharfsinnige Analytik von Algorithmuskulturen sollte sowohl zur Nahaufnahme als auch zur Fernsicht fähig sein, um die Spezifika bestimmter algorithmischer Kulturen ebenso in den Blick zu bekommen, wie die übergreifenden Gemeinsamkeiten zwischen ihnen.

Die Beispiele hierfür dürften sehr zahlreich sein: Individualität und Reichweite, Eigenart und Gemeinsamkeit, Besonderheit und Vergleichbarkeit, das kleine und das große Ganze. Natürlich können sich Algorithmen quer zu verschiedensten sozialen, ökonomischen und politischen Sphären bewegen. So etwa, wenn von Vorhersagealgorithmen auf dem Finanzmarkt Gebrauch gemacht wird, die sich der Wahrscheinlichkeitstheoreme aus dem Feld der Glückspiele bedienen und diese dabei in ein anderes Feld überführen und transformieren. Man denke ferner an die Entwicklung künstlicher Intelligenz, die auf die Computeralgorithmen der Schachspiele zurückgegriffen haben und so die Zukunft künstlicher Intelligenz auf Jahre geprägt haben (Ensmenger 2012). Algorithmuskulturen sind folglich nicht an fix bestimmte Gebiete gebunden. Sie sind eher mobil einsatzfähige Verfahren, die angepasst, transformiert und für verschiedene Gebrauchszusammenhänge maßgeschneidert werden können. In der Tat dient dieser Sammelband als ein Beleg für diese Behauptung. Jedes einzelne Kapitel nimmt sich auf je spezifische Weise der Frage an, was es für Algorithmen bedeutet, kulturell verwoben und performativ wirksam zu sein. Jedes Kapitel erforscht die Dichte spezifischer Assemblagen oder Ökologien indem es je spezifische Interpretationen vorschlägt. Wir werden uns gleich dem genauen Inhalt der folgenden Kapitel zuwenden. An dieser Stelle genügt es hervorzuheben, dass es an der Leserin ist, hin und her zu navigieren und diejenigen Fragen zu stellen, die ihr angebracht erscheinen. Ebenso obliegt es dem Leser mit den verschiedenen intellektuellen Möglichkeiten zu ringen, die in den folgenden Kapiteln eröffnet werden.

Zu behaupten, dass es sich bei Algorithmuskulturen um un multiple handelt, schließt die Frage danach, was denn ihre variable und zugleich gemeinsame Beschaffenheit konstituiert keineswegs aus. Im Gegenteil, die Feststellung erhöht eher noch den Bedarf nach einer plausiblen Antwort auf diese Frage. Algorithmen sind in der Tat stets mit je besonderen Problemen oder Fragestellungen verbunden, die immer spezifisch und doch ähnlich zugleich sind. Wir möchten, wie andere vor uns, darauf hinwiesen, dass diese Herausforderungen immer die Frage nach »der Macht Bedeutung zu ermöglichen und festzusetzen« mit sich führen und wiederaufbereiten (Langlois 2014; Roberge/Melançon im Erscheinen). Tatsächlich ist diese Problemstellung so alt wie die Idee der Kultur selbst und die Sozialwissenschaften waren sich dieser Problemstellung seit ihrer Gründung auch stets bewusst (Johnson et al. 2006). Kulturen sind auf Legitimität angewiesen, ebenso sind es Algorithmen und Algorithmuskulturen. Es geht folglich um Autorität und Vertrauen; um die stetige Verflechtung symbolischer Repräsentation und nüchterner Performanz; es geht um die Produktion wie Rezeption diskursiver Arbeit. Wir erleben in unserer Zeit die Etablierung einer ›neuen Normalität‹, in der Algorithmen Teil der Sinnstiftung des kulturellen Imaginären geworden sind. Ihre Akzeptanz begründet sich weniger durch den Bezug auf eine transzendente Instanz im klassischen Sinne, sondern durch eine ›zeitgenössischere‹, immanentere Art und Weise. Scott Lashs Einsicht hinsichtlich des Legitimationsprinzips der Algorithmen ist hier zentral: Algorithmen erlangen »Legitimität durch Performanz« (Lash 2007: 67). Ihre Echtzeit-Entfaltung lässt sie nicht nur kosten/nutzen-effizient, sondern auch im epistemologischen wie moralischen Sinne als objektiv erscheinen. Ihre Legitimation funktioniert und basiert recht profan in und auf einer abgeschlossenen Routine die besagt: Algorithmen funktionieren direkt und einfach, sie liefern Lösungen etc. Neutralität und Unparteilichkeit werden eingeflüstert oder stillschweigend vorausgesetzt. Tarleton Gillespie deutet etwas Ähnliches an, wenn er bemerkt: »Algorithmen sind weit mehr als schlichte Werkzeuge, sie sind auch Stabilisatoren von Vertrauen, sie fungieren als praktische und symbolische Versicherungen dafür, dass Bewertungen als gerecht und genau, als frei von Subjektivität, Fehlern oder Verzerrungen gelten« (Gillespie 2014: 79; Mager 2012). Das ist die Magie des Profanen. Objektivität als ein Informationsprozess, Resultat und Glaube ist ein Äquivalent für die Legitimität als eine Form des Glaubens. Die Stärke der Algorithmen besteht nun gerade darin, Objektivität auf die äußere Welt zu projizieren (auf das, was in Rankings erscheint bspw.) und zugleich in Bezug auf ihr inneres Selbst zu akkumulieren. Das begründet sich in dem Umstand, dass jede Instanz der Einschätzung und Bewertung auf eine Art und Weise konstruiert sein muss, die selbst wertgeschätzt wird. Gillespie ist in dieser Hinsicht sehr hellsichtig, wenn er anmerkt: »die Legitimität dieser Funktionsmechanismen muss entlang der Bereitstellung von Information selbst erfolgen« (Gillespie 2014: 179). Legitimität erlangt hier eine ontologische Dimension.

Das bedeutet nun allerdings nicht, dass das Bestreben nach und das Erlangen von Legitimität ein leichtes Unterfangen wäre. Performanz und Rechtfertigung existieren nur in Abhängigkeit von einer Öffentlichkeit und deren Rezeption. Die Rezeption ist freilich ein durch und durch kulturelles Phänomen, sie formt sich mittels Deutungen, Erwartungen, Affekten, Mutmaßungen und der gleichen (Galloway 2013; Seyfert 2012; Kinsley 2010). Mit anderen Worten, Rezeption ist qua definitionem unstabil und uneinheitlich. Was Scott Lash »Legitimation durch Performanz« nennt, ist folglich nichts weniger als das Ergebnis von Aushandlungsprozessen. Performanz und Rezeption sind miteinander verwoben und bilden so Routinen und Kulturen heraus in denen das Vertrauen, das den Algorithmen entgegengebracht wird, stets umkämpft ist. Die Hoffnungen und Wünsche, die den Algorithmen von den einen entgegengebracht werden, sind die Ängste und Abneigungen der anderen. Ebenso wie Rechtfertigung performativ wirkt, tut es auch Kritik. Die Kontroverse, die um Google Glass entbrannte ist ein beispielhafter Fall. Unsere Recherchen haben gezeigt, wie viel Gestaltungs- und Stilüberlegungen in Googles unternehmerische Planung zum Wearable Computing eingegangen sind (Roberge/Melançon im Erscheinen). Um eine größere Breitenwirkung zu erzielen, engagierte das Unternehmen beispielsweise einen schwedischen Designer, der bei der Gestaltung des Gerätes helfen sollte, was sowohl die Auswahl der Farbpalette als auch die minimalistischen Umrisse betraf (Miller 2013; Wasik 2013). Dennoch fiel die Kritik überwiegend negativ aus, die Brille sehe »verdammt bescheuert aus«, sei »hässlich und peinlich« und mache die Interaktion »fürchterlich unangenehm« (Honan 2013; Pogue 2013). Das kulturelle und soziale Unbehagen an Google Glass macht wiederum die negative Rezeption des algorithmischen Gerätes plausibel. Die pejorative Bezeichnung als »glasshole« ist symptomatisch für die negativen ästhetischen und normativen Bewertungen, welche zu den einflussreichsten Faktoren gehörten, die Google zum Zurückziehen der Datenbrille veranlassten. Das Beispiel zeigt uns, wie vielschichtig die Deutungs- und Interpretationskonflikte sind, welche die Algorithmuskulturen prägen. Solcherlei Unordnung ist derweil keine Frage der Wahl, sie ist ein konstant (um)formendes Charakteristikum von Algorithmuskulturen.

ALGORITHMISCHER VERKEHR: KALKULATORISCHE EMPFEHLUNG, SICHTBARKEIT UND ZIRKULATION

Die zugrundeliegende Idee dieses Bandes besteht darin, dass Algorithmuskulturen plural, kommensurabel und sinnstiftend performativ sind. Ziel ist es, eine ›dichte Beschreibung‹ im Sinne Geertz (1973) zu liefern, also eine Analyse der verschiedenen routinisierten Entfaltungen, die sich um reichhaltige wie komplexe Themen und Probleme drehen. Legitimität ist ganz sicher ein integraler Bestandteil dieser Entfaltungen. Im Alltagsleben wird die Legitimtitätsfrage oft nicht gestellt. Im Fall der Algorithmen steht mit ihr aber sehr viel auf dem Spiel, da sich Algorithmen ins Zentrum des Kulturellen ausbreiten.Algorithmen sind Sortiereinrichtungen und sie sind die zentralen Gatekeeper unserer Zeit (Hagittai 2000). Freilich, Gatekeeping gab es schon immer, von den Kunstmäzenen der Klassik bis zu den Zeitungskritiker_innen moderner Zeiten. Dies bestärkt allerdings nur unser Argument: Die Rolle, die Algorithmen gegenwärtig einnehmen, beinhaltet es, bindende Selektionen für bestimmte Adressatenkreise vorzunehmen, mit all den normativen und politischen Wertungen, die damit implizit einhergehen. Gatekeeping bedeutet, redaktionelle Entscheidungen zu treffen, mit denen andere dann umzugehen haben. Es geht dabei nicht zuletzt um Geschmacks- und Präferenzformungen, was ersichtlich macht, warum vielen Empfehlungsalgorithmen gegenwärtig ein so großer Einfluss zukommt. Man denke nur an Amazon, Netflix, Youtube und dergleichen. Beer fasst diesen Punkt treffend zusammen:

»Es geht um die Sichtbarkeit von Kultur und um die Sichtbarkeit bestimmter Kulturformen die algorithmisch ihr Publikum finden. Diese Systeme prägen kulturelle Begegnungen und ganze kulturelle Landschaften. Sie sind tätig und machen Geschmäcker sichtbar. Damit ist die Frage aufgeworfen, welche Macht den Algorithmen in der Kultur zukommt, oder genauer: welche Macht Algorithmen bei der Herausbildung von Geschmäckern und Präferenzen zukommt.« (Beer 2013: 97, Herv. der Autoren)

Zwei erst kürzlich erschienene Artikel haben sich dieses Trends angenommen und dessen Entwicklung in verschiedenen Settings untersucht, einmal in Bezug auf Filme (Hallinan/Striphas 2014), das andere Mal in Bezug auf Musik (Morris 2015). Netflix, und vor allem der Netflix-Prize sind hier in vielerlei Hinsicht emblematisch. In einem 2006 gestarteten Wettbewerb schrieb Netflix 1 Millionen US-Dollar Preisgeld für denjenigen aus, der die Treffgenauigkeit ihres Empfehlungsalgorithmus' über die Richtgröße von 10 Prozent erhöhen konnte. Unter Computerwissenschaftlern in den USA und in Übersee war der Wettbewerb ein enormer Erfolg, was Hallinan und Striphas dazu veranlasste, darin ein Signum dafür zu sehen, wie »Fragen kultureller Kompetenz und Autorität zunehmend im Gebiet der Technik und der Ingenieurwissenschaften entschieden werden« (Hallinan/Striphas 2014: 122). Allerdings ist das nur ein Teil der Gleichung. Der andere Teil betrifft die ökonomische Logik bzw. die ökonomische Zielsetzung, die das Bestreben nach solcherart personalisierter Empfehlungen hervorruft. Hallinan und Striphas bezeichnen dies als »geschlossene kommerzielle Schleife«, in der »die Entwicklung elaborierter (Kauf-)Empfehlungen eine höhere Kundenzufriedenheit schafft, diese wiederum generiert größere Mengen an Kundendaten, welche wiederum noch ausgeklügeltere Empfehlungen ermöglichen usf.« (ebd.). Wo das Prozessieren von Informationen zum Schlüsselfaktor wird, verschiebt sich das, was als Kultur gilt stärker in Richtung Daten, Data-Mining, und den Wert, den diese erzeugen. Jeremy Wade Morris beobachtet in seiner Studie zu Echo Nest, ein Programm zur Erstellung von Geschmacksprofilen, das der Musik-Streaming-Dienst Spotify im Jahr 2014 erworben hat. Die Verwaltung riesiger Datenbanken und neue Methoden des Trackings von Verhaltensmustern basieren Morris zufolge zunehmend »auf der Wirkmacht der Algorithmen […], zu wissen, was Dich und Deine Geschmäcker ausmacht« (Morris 2015: 456). Dies wiederum öffnet die Tür zu sehr zielgenauen und vielgliedrigen Werbemöglichkeiten« (ebd. 455). Diese Tendenz ist in der Tat sehr stark, sie ist allerdings nicht die einzige, die hier eine gewichtige Rolle spielt. Morris Erörterung ist scharfsinnig genug, um in der Verbreitung der von Menschen unterhaltenen Playlists eine alternative Form der Kuration zu erkennen, an der die heutigen Programme und Plattformen nicht vorbeikommen. Diese, wenn man so will, Mensch-zu-Mensch Geschmacksdialoge sind noch immer Bestandteil der meisten Streaming-Dienste und fungieren als ein Mittel, mit dem gegebenen Überfluss an Inhalten zurechtzukommen. Automatisierte wie ›manuelle‹ Verfahren des Gatekeepings koexistieren also mehr oder minder einhellig nebeneinander und befinden sich in komplexen, oftmals impliziten und heiklen Spannungsverhältnissen.

Die sich gegenwärtig formierende datenintensive Ökonomie und Kultur, ist denn auch Gegenstand in Lucas Intronas Beitrag zu unserem Band. Die Genealogie der Onlinewerbung nachzeichnend, analysiert er gegenwärtige Formen dessen, was er als »Onlinechoreografie« bezeichnet. Während traditionelle Onlinewerbungen noch unterschiedslos für alle Besucher auf Websites platziert werden – klassisch etwa im Banner oberhalb des Webcontents – so passen innovativere Vermittler wie Dstillery die Werbeschaltung an das an, was sie als die individuellen Bedürfnisse des einzelnen Nutzers zu erkennen meinen. Data-Mining, verhaltensspezifisches Targeting2, kontextuelles Werben und maschinell lernende Algorithmen sind also Bestandteile ein und desselben Arsenals. Das Ziel besteht hier in der Generierung eines »Marktes des Einzelnen«, in dem das einzelne Subjekt durch personalisierte Werbungen adressiert wird. Es geht letztlich darum, »die richtige Person, zur richtigen Zeit mit dem richtigen kreativen Inhalt« zu adressieren (Introna in diesem Band: 62). Solcherlei Form der Choreographie erfordert und entwirft bestimmte Formen der Subjektivität. Introna spricht diesbezüglich von »beeinflussbaren Subjekten«, von Subjekten, die willens sind, sich jederzeit von den Informationen beeinflussen zu lassen, die Algorithmen für verschiedene Zeitpunkte für sie aufbereitet haben. Eine der Arten und Weisen den Kunden via Onlinewerbung zu erreichen, besteht im sogenannten Prospecting, die Daten werden hier gewissermaßen direkt ›an Ort und Stelle‹ über die Aktivitäten der Nutzerin (z.B. Klicks oder Suchanfragen) gesammelt. Aus diesen Daten lassen sich sodann Korrelationen ableiten und der Nutzer wird ›gekennzeichnet‹ (»branded«): Wer auch immer eine bestimmte Website besucht, könnte ja an den gleichen Produkten interessiert sein, wie eine Nutzerin, die ähnliche Websites benutzt. Einerseits wird das Subjekt in Algorithmuskulturen als eine rein statistische Größe behandelt – als »branded subject«. Andererseits spielen die Subjekte hier keine gänzlich passive Rolle. Vielmehr sind sie selbst an der ihnen vorgesetzten Informationsselektion beteiligt und bestimmen auch mit, wie sie sich von dieser beeinflussen lassen. Die Subjekte sind gewissermaßen Ko-Kuratoren dessen, was sie zu sehen bekommen (und gegebenenfalls kaufen) – sie kuratieren die Selektion über ihr eigenes Verhalten mit. Nicht nur das Verhalten der Nutzerin, ebenso die Onlinewerbung selbst ist daher eine zutiefst kulturelle und soziale Angelegenheit, da sie entweder Subjekte entwirft oder es verfehlt, mit ihnen in Kontakt zu treten. Introna zeigt so, inwiefern Algorithmuskulturen un multiple darstellen, un multiple, das unspezifisch und personalisiert zugleich ist. Das Platzieren einer Werbung entwirft oder bestätigt das Subjekt auf eine sehr personalisierte Weise: Wer ich sein werde, hängt davon ab, wo ich surfe. Eine falsch geschaltete Werbung kann das Subjekt allerdings ebenso gut in Frage stellen oder beleidigen (›Warum bekomme ich das gerade zusehen?‹).

Tarleton Gillespie untersucht in seinem Beitrag die Verflochtenheit und Heterogenität des automatisierten Gatekeepings, indem er die vielgestaltige, in der Forschung jedoch weitestgehend vernachlässigte Subkategorie der Trending-Algorithmus' in den Blick nimmt. Tatsächlich sind die Trending-Algorithmen mittlerweile allgegenwärtig. Ob man auf Buzzfeed, Facebook oder Twitter schaut, sie finden sich überall und sind dabei nicht selten Ikonen eines neuen Genres, welches wiederum zur Ikone seiner selbst wird, da das Trending selbst zu einem Trend geworden ist. Gillespies feingliedrige Analyse setzt demnach auch nicht bei der Frage an, was Algorithmen mit kulturellen Artefakten machen. Vielmehr steht die Frage im Mittelpunkt, »was geschieht, wenn Algorithmen als Kultur aufgegriffen werden, wenn ihre bestimmten Arten der Geltendmachung lesbar, deutbar und strittig werden« (Gillespie in diesem Band: 100)? Trending-Algorithmen sind Rituale der Messung, was sie jedoch genau messen ist unklar. Sind sie ein flüchtiger Blick in die Popularität verschiedenster Webinhalte, wie es American Top 40 oder Billboard waren? Sind sie kleine Fenster zu ›uns selbst‹, was sofort die Notwendigkeit im Schlepptau hätte zu definieren, was denn dieses ›Wir‹ ist, in das sie uns Einblick gewähren, eine Öffentlichkeit, eine Nation etc.? Oder geht es hier nicht vielmehr um das Registrieren einer Art Puls, einer Geschwindigkeit oder Bewegung zwischen geheim gehaltenen und somit unberechenbaren Punkten? Überraschenderweise befeuern diese Schwierigkeiten den Drang eher, die algorithmische Messung als einen bedeutungsvollen Vollzug zu erfassen und zu verorten. Trending-Algorithmen sind populär, gerade weil sie mehrdeutig sind. Zudem sind reale und konkrete Verzerrungen so zahlreich, dass sie gewissermaßen in die DNA dieser Algorithmen eingelassen sind. Das hat Gillespie zufolge mit dem Black-Box-Charakter der meisten Social-Media-Plattformen zu tun. Noch wichtiger jedoch ist die Tatsache, dass die Verzerrungen in erster Linie interpretierte Verzerrungen in dem Sinne sind, dass sie nur in Abhängigkeit von Erwartungen, Hoffnungen und Wünschen existieren. Insofern ist Validität eine kulturelle Kategorie. So wurden beispielsweise Twitter und Facebook immer wieder für die Trivialität und Gehaltlosigkeit ihrer Trends mit dem Hinweis kritisiert, dass das ›eigentlich‹ aktuelle Thema dort nicht erscheine. Die Kontroversen über Trending-Algorithmen werden sicherlich nicht abebben. Sie tauchen immer wieder auf, im Kontext verschiedener Orte, Leute und Themen. Solche Kontroversen sind Symptome von etwas tiefer Liegendem – sie sind Ausdruck von Kämpfen um das, was als legitim gilt und was nicht.

Gatekeeping, das sollte bis hierher deutlich geworden sein, stellt ein Phänomen mit performativen und begrifflichen Folgen dar. Das Gatekeeping betrifft die Sichtbarkeit und Zirkulation von nahezu allem, was als kulturell zu gelten hat. Durch die Ausbreitung von Algorithmen wurde es einer grundlegenden Transformation unterzogen. Umso mehr stellt uns dieser Wandel vor die Herausforderung, die Rolle des Nexus' von Autorität und Vertrauen innerhalb der Mechanismen des Gatekeepings unter die Lupe zu nehmen. Den Sozialwissenschaften stellt sich eine doppelte Aufgabe: Einerseits sind sie angehalten ein neues ganzheitlich ausgerichtetes Verständnis dieser Mechanismen zu erlangen; gleichzeitig und im Sinne eines solchen Verständnisses bedarf es allerdings auch stärker empirisch ausgerichteter Analysen (Kitchen 2014; Ruppert et al. 2013). Ein exzellentes Beispiel für letztere bieten Jean-Samuel Beuscart und Kevin Mellet in diesem Band. Sie widmen LaFourchette.fr und anderen Kundenbewertungs- und Rezensionsplattformen eine ausführliche Untersuchung. Solche Rezensionsportale stellen mittlerweile ein nahezu ubiquitäres Bewertungsinstrument im Netz dar. Beuscart und Mellet können aufzeigen, dass diese Omnipräsenz ein Handlungsbewusstsein seitens der Akteure keineswegs ausschließt und dass es hier zu vielschichtigen Aushandlungsprozessen zwischen menschlichen, aber auch nicht-menschlichen Akteuren kommt. Die Verfasser von Rezensionen entbehren keineswegs der Reflexivität, so dass Beuscart und Mellet zufolge, »zumindest ein Teil der Effektivität dieses Phänomens auf der Fähigkeit ihrer Nutzer beruht, ein kohärentes Nutzungsmuster aufzubauen, das ihre Bewertungsaktivität auf ein gemeinsames Ziel hin reguliert« (Beuscart/Mellet in diesem Band: 125). Die Selbstachtung der Verfasser rührt in diesem Kontext von dem Gefühl her, dass es eine Art der Leserschaft gibt, die eine Form des rationalen und vergesellschafteten Urteils fällt. So kann sich die vage Vorstellung einer kollektiven Intelligenz bilden, die wirksam genug ist, um als performativ zu gelten.

Natürlich ist auch die Frage danach nicht zu vernachlässigen, ob die fragmentarische Beschaffenheit der Empfehlungs-Algorithmen denn nun als un multiple verstanden werden kann. Verschiedene Kalkulationsroutinen erzeugen auch verschiedene Outcomes und daher drängt sich die Frage auf, was das für ontologische und epistemologische Konsequenzen nach sich zieht. Einer solchen Problemperspektive nimmt sich Dominique Cardon in diesem Band an. Er schlägt dabei im Wesentlichen eine Klassifikation klassifikatorischer Prinzipien vor und fokussiert dabei entlang von Unterscheidungsmerkmalen, die nicht in simpler und direkter Abhängigkeit von ökonomischen Kräften stehen. Vielmehr fragt er auch nach zirkulären Dependenzen und sondiert entlang von Begrifflichkeiten wie Relation, Opposition, Vergleich und anderen. Damit vollzieht er eine begriffliche Bewegung, die sich eng an Alexanders oben angeführtes Begriffskonglomerat der »relativen Autonomie von Kultur« schmiegt. Cardon diskutiert vier verschiedene Typen der Kalkulation und die Weisen, wie diese den »Wettbewerb um die beste Methode des Datenrankings« beeinflussen: neben dem Web als eine Berechnung der Klicks der Internetnutzer; oberhalb des Webs als eine leistungsorientierte Bewertung der Links; innerhalb des Webs als ein Maß von ›Likes‹ und Popularität; und unterhalb des Webs als eine Aufzeichnung von Verhaltensspuren, die maßgeschneiderte Werbung ermöglicht. Die vier Typen zeigen sehr verschiedene Metriken, Verfahren und Populationen und doch sind sie insofern kommensurabel, als sie allesamt eine systemische Verschiebung in der Selbstrepräsentation von Gesellschaft anzeigen. Digitale Algorithmen geben »Events den Vorzug (Klicks, Käufe, Interaktionen usw.), die sie auf die Schnelle aufzeichnen, um sie mit anderen zu vergleichen, ohne breite Kategorisierungen machen zu müssen« (Cardon in diesem Band: 146). Die klassischen Statistiken, die auf Variablen wie ›Geschlecht‹ oder ›Rasse‹ basieren, werden zunehmend von präziseren und individualisierten Messwerten abgelöst. Gesellschaft erscheint wiederum als eine zunehmend heterogene ex-post-Realität, für welche die beste Erklärung die ist, dass es keine wirklich umfassende und grundsätzliche Erklärung gibt – mit all den Konsequenzen, die sich daraus für die Sozialwissenschaften ergeben.

VON DER ALGORITHMISCHEN LEISTUNG ZUM ALGORITHMISCHEN SCHEITERN

Instabilität, Brüchigkeit und Unordnung, all das sind Merkmale einer Praxeologie der Algorithmuskulturen. In Kontrast zum herrschenden Paradigma der Computerwissenschaften, das Algorithmen gemeinhin als prozedurale und abstrakte Verfahren beschreibt, konzeptualisieren wir Algorithmen als praktische Entfaltungen (Reckwitz 2002). Schon Galloway hat in seinem grundlegenden Aufsatz die pragmatischen Aspekte algorithmischer Kulturen hervorgehoben: »Leben bedeutet heutzutage zu wissen, wie man Menüs bedient.« (Galloway 2006: 17) Als Nutzer agieren wir in algorithmischen Kulturen indem wir Algorithmen bedienen. So ist beispielsweise die Handhabung von Softwaremenüs eine Praxis und Interaktion mit anderen menschlichen und nicht-menschlichen Akteuren in der wir algorithmische Vorrichtungen nutzen: Wir planen und terminieren Treffen mit unserem Onlinekalender, wir arrangieren Benachrichtigungen via Email, halten unsere Navigationsdienste an, uns den Heimweg zu zeigen usw. Wir aktivieren und deaktivieren Algorithmen um unser tägliches Leben zu bewältigen. Algorithmen sind also weniger Codes, sie sind Realisierungen sozialer Relationen zwischen diversen Akteuren und Aktanten.

Ebenso wie Praktiken zeichnen Algorithmen sich durch rekursive und stark verinnerlichte Routinen aus. Algorithmen sollen die Ausführung repetitiver Aufgaben unterstützen; sie führen Tätigkeiten aus, um kognitiven und affektiven Aufwand zu reduzieren und ermöglichen es so, die Aufmerksamkeit auf wichtigere und vielleicht interessantere Aufgaben zu richten. Die Analyse von Algorithmen als Routinen oder als routinisierte Praktiken berücksichtigt die Abweichungen von den mathematischen und technischen Skripts, Abweichungen, die aus verschiedenen Quellen hervorgehen können. Sie können etwa aus Konstruktionsfehlern, mangelhafter Ausführung, chaotischem Ablauf oder aus wechselseitigen Auswirkungen in der Interaktion verschiedener algorithmischer und nicht-algorithmischer Aktanten hervorgehen. Eben dies können die Computerwissenschaften schwerlich berücksichtigen, da es ihrer DNA anhaftet, Algorithmen über Präzision und Korrektheit zu definieren. Computerwissenschaftler können Abweichungen einzig menschlichen Routinen zurechnen, und schließen somit von vornherein die Möglichkeit aus, dass nicht jede Wiederholung identisch ist. Wir gehen jedoch mit Deleuze davon aus, dass jede Iteration von Routinen stets leichte Abweichungen mit sich bringt (Deleuze 1992). Wir würden sogar so weit gehen zu behaupten, dass der computerwissenschaftliche Diskurs algorithmische Praktiken konzeptuell ausschließt, und damit auch jegliche algorithmische Abweichung vom Script. Für die Kultursoziologie ist eine einseitige Zurechnung von Abweichungen auf menschliche Faktoren freilich problematisch. Vielmehr scheint die Idee unfehlbarer Präzision und Korrektheit von Algorithmen Teil der oben bereits angesprochenen Legende algorithmischer Objektivität zu sein, in deren Mittelpunkt das immerwährende Streben nach höherer Rationalität steht, und in welcher der autonom agierende Algorithmus letztlich menschliche Routinen ersetzt. Der Legende nach versprechen Algorithmen eine identische Iteration, die zügige und einfache Modellierung sowie präzise Vorhersagen ermöglicht. Allerdings gilt es, jenes Imaginäre algorithmischer Kulturen, mit all seinen Verheißungen und Träumen von der algorithmischen Praxis zu unterscheiden.

Innerhalb der Algorithmuskulturen können wir jedoch den Wandel sozialer Beziehungen sehr gut bezeugen, so etwa mit dem Auftauchen hochgradig nutzerspezifischer Beziehungen. Der Beitrag von Joseph Klett stellt ein Beispiel für einen solchen Wandel dar, wenn er den Übergang vom digitalen Stereo zum »immersiven Audio« beschreibt. Stereofonie (der Klang, den wir von klassischen Stereoanlagen erfahren) operiert mit generischen Beziehungen: Jeder einzelne Lautsprecher richtet hier eine feste Relation zum ›Nutzer‹ ein, der in diesem Arrangement als ein invariables sensorisches ›Gerät‹ fungiert, welches wiederum an einen festgelegten Punkt im Raum gebunden ist (der sogenannte Sweetspot). Demgegenüber sind algorithmisch realisierte Klanglandschaften hochgradig personalisiert. Klett zeigt auf, wie in der Tontechnik, im Gleichklang mit zahlreichen anderen technologischen Arrangements, Algorithmen zunehmend keine allgemein unbestimmte Mittlerfunktion mehr einnehmen, sondern als hochgradig spezifische und gleichsam spezifizierende Mittler zwischen technischen Diensten und den einzelnen Individuen operieren. Eine solche Personalisierung erlaubt eine bedeutend reichhaltigere Klagerfahrung, da sie von vormals festgelegten Stellen der optimalen Klangbeschallung unabhängig wird. Der Klang richtet sich stattdessen nach unserer singulären Klangperspektive. Der Wechsel von generischen zu dynamisch-adaptiven Relationen wirkt sich unweigerlich auf unser soziales Leben aus. Indem personalisierende Algorithmen sich auf die Subjekte und ihre Körper einstellen, verändern sie die Beschaffenheit sozialer Beziehungen: Sie entflechten soziale Beziehungen und schneiden bestehende ab, indem sie neue erschaffen. Algorithmen innerhalb geräuschunterdrückender Kopfhörer sind ein Beispiel für solche Trennungen, sie entziehen den sozialen Beziehungen gewissermaßen die akustische Kommunikation. Personalisierte Algorithmen formen so Gehege um das Subjekt herum, in denen »der Körper zu einem Teil des Audio-Systems wird« (Klett in diesem Band: 158). Körper und technische Vorrichtung erschaffen auf diese Weise eine geschlossene algorithmische Kultur.

Nun werden Algorithmen in unseren Tagen nicht allein von Menschen hervorgebracht, sondern auch von Algorithmen selbst. In der Tat haben wir es mit unendlichen Ketten von Algorithmen zu tun, die sich wechselseitig steuern. Ein eingehender Versuch, diese Verkettungen zu durchdringen lässt allerdings schnell Zweifel an der Sinnhaftigkeit der antagonistischen Gegenüberstellung von menschlichen und algorithmischen Routinen aufkommen – ein Antagonismus der in den Computerwissenschaften mit ihren Vorstellungen algorithmischer Objektivität und purer Rationalität nur allzu heimisch ist. Das kunstvoll errichtete Imaginäre der Computerwissenschaften basiert und reproduziert den klassischen Mythos vom Kampf zwischen Mensch und Maschine, beispielhaft veranschaulicht in mythischen Ereignissen wie den Schachspielen zwischen Kasparov und Deep Blue, und ignoriert notorisch die humane Immersion in Algorithmuskulturen. Eine solche Immersion zeigte sich beispielsweise angesichts der optimierenden Eingriffe seitens der Programmierer zwischen den einzelnen Schachpartien, die dazu dienten, die Algorithmen besser an die Spielweise Kasparovs anzupassen. Man kann nicht oft genug darauf hinweisen, eine Definition der Algorithmen als rein formale Verfahren erfasst allein präzise und identisch repetierbare Prozesse, wohingegen die Untersuchung von Praktiken und Performances auch Abweichungen und Divergenzen berücksichtigt. Unbeständige Aushandlungen, Abweichungen, Fragilität und eine Neigung zum Scheitern sind wesentliche Merkmale von Algorithmuskulturen. Im ›echten Leben‹ versagen Algorithmen häufig, ihre Interaktionen und Operationen sind chaotisch. Instabile Aushandlungen, Verzögerung, Fragilität und eine Neigung zu Fehlern sind in jedem Fall wichtige Merkmale algorithmischer Kulturen. Im ›wirklichen Leben‹ schlagen Algorithmen häufig fehl, sind ihre Interaktionen und Operationen chaotisch. Besonders häufig ist dies der Fall, wenn sie sich in einer Zwischenlage algorithmischer oder nicht algorithmischer Akteure wiederfinden, hier tendieren sie dazu von ihrer anfänglichen Zielvorgabe abzuweichen, ganz so wie andere Akteure auch.

Das Auftauchen von Fehlern hängt folglich mit der Komplexität der Interaktionen zusammen. Dabei handelt es sich nicht nur um Face-to-Face- oder Face-to-Screen-Interaktionen, sondern um ganze Assemblagen weit verzweigter Interaktionen, die ihren Teil zur Erzeugung von Fehlern und Defekten beitragen. Unzählige solcher Fehler ließen sich hier anführen, von »Amazons 23 698 655,93 $ Angebot für ein Buch über Fliegen« (Eisen 2011) bis zum Niedergang von Knight Capital, einer algorithmischen Börsenhandelsgesellschaft, die aufgrund der Störung eines Handelsalgorithmus 400 Millionen US $ in 45 Minuten verlor (SEC 2013: 6). Die Nutzung von Algorithmen birgt im Alltag also eine Mischung aus Überraschungen und Enttäuschungen. Die immer wieder zum Ausdruck gebrachte Verwunderung über die Treffsicherheit von Amazons Empfehlungs-Algorithmen bei der Vorhersage (oder Erzeugung) von Geschmäckern und den daraus folgenden Käufen geht Hand in Hand mit zahlreichen Beschwerden darüber, wie sehr sie doch daneben liegen. Wir haben uns an falsch liegende algorithmische Systeme gewöhnt und wir haben uns daran gewöhnt mit ihnen umzugehen. In der Tat sind Witze über fehlerhafte Algorithmen mittlerweile ein eigenes Genre: »da @Amazons Algorithmen derart fortschrittlich sind, wurden mir mehr als 10.000 #PrimeDay-Geschäfte angeboten und ich bin an keinem einzigen von ihnen interessiert« (Davis 2015).

Shintaro Miyazaki erläutert in seinem Beitrag zu diesem Band den Lawineneffekt von »Mikro-Fehlern« in algorithmischen Kulturen. Er zeigt auf, wie winzig und irrelevant erscheinende Kleinigkeiten, eine kleine Abweichung vom Code, eine unmerkliche Dezentrierung in algorithmischen Rückkopplungsprozessen zu Ergebnissen katastrophischen Ausmaßes führen können. Miyazakis historische Fallstudie zu AT&Ts Absturz im Jahre 1990 zeigt überdies, dass solche Fehler von Anfang an Bestandteil algorithmischer Kulturen waren. In dem beschriebenen Fall erzeugte ein Update innerhalb AT&Ts Telefonnetzwerkes eine Feedbackschleife mit der das gesamte System in einen unstabilen Zustand geriet, aus dem es nicht mehr herausgekommen ist. Während die einzelnen Subsysteme Notfallroutinen enthielten, die jedes von ihnen dazu in die Lage versetzte, sich von Funktionsstörungen zu erholen, verursachten algorithmische Rückkopplungsschleifen zwischen den Subsystemen einen Zustand, in denen sich interagierende Algorithmen gegenseitig ausschalteten. Resultat war ein algorithmisches Netzwerk von unproduktiven Operationen, das seine Ursache letztlich in »gestreuten Dysfunktionalitäten« hatte (vgl. Miyazaki in diesem Band: 180).

Wenn wir die Tatsache ernst nehmen, dass Fehler unweigerlich einen Teil algorithmischer Kulturen ausmachen, bekommt Miyazakis Analyse eine noch weitreichendere Implikation: Man könnte annehmen, dass »verteilte Dysfunktionalitäten« einen Prozess darstellen, in welchem algorithmische Netzwerke irrtümlich eine höhere Form der ultimativen Maschine hervorbringen. Der von Claude E. Shannon erschaffene Prototyp der ultimativen Maschine hat nur einen einzigen Zweck: sich selbst abzuschalten.