0,00 €
Wie entstehen medienspezifische Interaktionsräume und wie wirken sie sich auf Formen sozialer Ordnung aus? Die Beiträger*innen des Bandes betrachten das Spektrum medienspezifischer Interaktion und unterstreichen dabei die Komplexität der wechselseitig verbundenen Schnittstellen zwischen Menschen und Maschinen. Ansätze aus Medienwissenschaft, -linguistik und -kunst machen sozio-kulturelle Transformationen sichtbar, die durch oder in diesen sich prozessual entfaltenden Interaktionsräumen als Un/Realitäten entstehen. Der Band eröffnet damit einen interdisziplinären Blick auf die Entstehung, Gestaltung und Bedingung von medienspezifischen Interaktionen.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 392
Veröffentlichungsjahr: 2025
Die E-Book-Ausgabe erscheint im Rahmen der »Open Library Medienwissenschaft 2024« im Open Access.Die Open Library Community Medienwissenschaft 2024 ist ein Netzwerk wissenschaftlicher Bibliotheken zur Förderung von Open Access in den Sozial- und Geisteswissenschaften:
Vollsponsoren: Technische Universität Berlin / Universitätsbibliothek | Universitätsbibliothek der Humboldt-Universität zu Berlin | Staatsbibliothek zu Berlin - Preußischer Kulturbesitz | Universitätsbibliothek Bielefeld | Universitätsbibliothek Bochum | Universitäts- und Landesbibliothek Bonn | Technische Universität Braunschweig / Universitätsbibliothek | Universitätsbibliothek Chemnitz | Universitäts- und Landesbibliothek Darmstadt | Sächsische Landesbibliothek, Staatsund Universitätsbibliothek Dresden (SLUB Dresden) | Universitätsbibliothek Duisburg-Essen | Universitäts- und Landesbibliothek Düsseldorf | Goethe-Universität Frankfurt am Main / Universitätsbibliothek | Universitätsbibliothek Freiberg | Albert-Ludwigs-Universität Freiburg / Universitätsbibliothek | Niedersächsische Staats- und Universitätsbibliothek Göttingen | Universitätsbibliothek der FernUniversität in Hagen | Staats- und Universitätsbibliothek Hamburg | Gottfried Wilhelm Leibniz Bibliothek - Niedersächsische Landesbibliothek | Technische Informationsbibliothek (TIB) Hannover | Universitätsbibliothek Kassel | Universität zu Köln, Universitäts- und Stadtbibliothek | Universitätsbibliothek Leipzig | Universitätsbibliothek Mainz | Universitätsbibliothek Mannheim | Universitätsbibliothek Marburg | Ludwig-Maximilians-Universität München / Universitätsbibliothek | FH Münster | Universitäts- und Landesbibiliothek Münster | Bibliotheks- und Informationssystem (BIS) der Carl von Ossietzky Universität Oldenburg | Universitätsbibliothek Passau | Universitätsbibliothek Siegen | Universitätsbibliothek Vechta | Universitätsbibliothek der Bauhaus-Universität Weimar | Zentralbibliothek Zürich | Zürcher Hochschule der KünsteSponsoring Light: Universität der Künste Berlin, Universitätsbibliothek | Freie Universität Berlin |Bibliothek der Hochschule Bielefeld |Hochschule für Bildende Künste Braunschweig |Hochschule für Technik und Wirtschaft Dresden - Bibliothek | Hochschule Hannover - Bibliothek | Hochschule für Technik, Wirtschaft und Kultur Leipzig | Hochschule Mittweida, Hochschulbibliothek | Landesbibliothek Oldenburg | Akademie der bildenden Künste Wien, Universitätsbibliothek | Jade Hochschule Wilhelmshaven/Oldenburg/Elsfleth | ZHAW Züricher Hochschule für Angewandte Wissenschaften, Hochschulbibliothek | Westsächsische Hochschule Zwickau | Hochschule Zittau/Görlitz, HochschulbibliothekMikrosponsoring: Ostbayerische Technische Hochschule Amberg-Weiden | Deutsches Zentrum für Integrations- und Migrationsforschung (DeZIM) e.V. | Technische Universität Dortmund | Evangelische Hochschule Dresden | Hochschule für Bildende Künste Dresden | Hochschule für Musik Carl Maria Weber Dresden, Bibliothek | Palucca Hochschule für Tanz Dresden – Bibliothek | Filmmuseum Düsseldorf | Universitätsbibliothek Eichstätt-Ingolstadt | Bibliothek der Pädagogischen Hochschule Freiburg | Berufsakademie Sachsen | Bibliothek der Hochschule für Musik und Theater Hamburg | Hochschule Hamm-Lippstadt | Hochschule Fresenius | ZKM Zentrum für Kunst und Medien Karlsruhe | Hochschule für Grafik und Buchkunst Leipzig | Hochschule für Musik und Theater „Felix Mendelssohn Bartholdy“ Leipzig, Bibliothek | Filmuniversität Babelsberg Konrad Wolf - Universitätsbibliothek | Universitätsbibliothek Regensburg | Bibliothek der Hochschule Rhein-Waal | FHWS Hochschule Würzburg-Schweinfurt
Clara Kindler-Mathôt, Didem Leblebici, Giacomo Marinsalta, Till Rückwart, Anna Zaglyadnova (Hg.)
Un/Reale Interaktionsräume
Formen sozialer Ordnung im Spektrum medienspezifischer Interaktion
Bibliografische Information der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über https://dnb.dnb.de/ abrufbar.
Dieses Werk ist lizenziert unter der Creative Commons Attribution 4.0 Lizenz (BY). Diese Lizenz erlaubt unter Voraussetzung der Namensnennung des Urhebers die Bearbeitung, Vervielfältigung und Verbreitung des Materials in jedem Format oder Medium für beliebige Zwecke, auch kommerziell.https://creativecommons.org/licenses/by/4.0/
Die Bedingungen der Creative-Commons-Lizenz gelten nur für Originalmaterial. Die Wiederverwendung von Material aus anderen Quellen (gekennzeichnet mit Quellenangabe) wie z.B. Schaubilder, Abbildungen, Fotos und Textauszüge erfordert ggf. weitere Nutzungsgenehmigungen durch den jeweiligen Rechteinhaber.
Erschienen 2024 im transcript Verlag, Bielefeld
© Clara Kindler-Mathôt, Didem Leblebici, Giacomo Marinsalta, Till Rückwart, Anna Zaglyadnova (Hg.)
transcript Verlag |Hermannstraße 26 | D-33602 Bielefeld | [email protected]
Umschlaggestaltung: Giacomo Marinsalta
Umschlagabbildung: Giacomo Nanni
Lektorat und Korrektorat: Michelle Abdul-Malak, Clara Kindler-Mathôt, Didem Leblebici, Giacomo Marinsalta, Till Rückwart, Severyna Yakubych, Anna Zaglyadnova
Druck: Majuskel Medienproduktion GmbH, Wetzlar
https://doi.org/10.14361/9783839471463
Print-ISBN: 978-3-8376-7146-9
PDF-ISBN: 978-3-8394-7146-3
EPUB-ISBN: 978-3-7328-7146-9
Buchreihen-ISSN: 2569-2240
Buchreihen-eISSN: 2702-8984
Danksagung
Un/Reale Interaktionsräume
Formen sozialer Ordnung im Spektrum medienspezifischer Interaktion
Didem Leblebici, Till Rückwart, Clara Kindler-Mathôt
Sektion I: Konstruktion
Orbital Mirage
Till Rückwart
»I am, in fact, a person.«
Vorder- und Hinterbühnen konversationeller KI
Timo Kaerlein
Sprachassistenzsysteme und ihre Interfaces
Eine medienlinguistische Analyse
Tim Hector
Zwischen Technologie und Ideologie
Ein Blick auf die un/realen Räume hinter KI
Paul Schütze
Sektion II: Erfahrung
L.I.S.A.: Akt 1
Lynn Klemmer
Von der Non-Linearität der Zeit
Metaphorisieren als Interaktion mit filmischen Bildern. Eine medienästhetische Perspektive
Katerina Papadopoulou
Erfahrungsraum Interaktion
Die audiovisuelle Modulation eines Gesprächs als Zuschauer*innenerfahrung
Clara Kindler-Mathôt
Ludische Dividuationen
Eine antiholistische Betrachtung von CULTIST SIMULATOR und DEAD SPACE
Dominic Brakelmann, Arvid Kammler
Sektion III: Partizipation
Excuse Us While We Improve Your View, Atlantis
Giacomo Marinsalta
Mobile Crowdsensing
Interaktionsmodelle des mobilen Sensing und die infrastrukturelle Allgegenwart der ›mobile sensor networks‹
Vesna Schierbaum
Digital Fashion im Online-Shop
Der unreale Interaktionsraum als sozialer Handlungsraum
Helga Behrmann
Appropriating the Ape
Sprachliche Praktiken der Gemeinschaftsbildung im Subreddit R/WALLSTREETBETS
Friederike Fischer
Die Autor*innen
Wir Herausgeber*innen bedanken uns herzlich bei Daniel Bonanati, Katharina Wierichs und dem transcript Verlag für die vielseitige Unterstützung und bei der Open Library Medienwissenschaft für die Förderung dieses Sammelbands. Ein besonderer Dank gilt dem ZeM – Brandenburgisches Zentrum für Medienwissenschaften – für die Förderung der Fachtagung un:reale Interaktionsräume sowie der Fachhochschule Potsdam für die Bereitstellung ihrer Räumlichkeiten zur Ausrichtung der Tagung – insbesondere Fritz Schlüter für seine wertvolle inhaltliche und organisatorische Unterstützung. Ohne die Tagung hätten wir Herausgeber*innen nur schwer zusammengefunden und wäre dieser Sammelband nicht möglich gewesen.
Unser Dank gilt auch Jan Distelmeyer, Maximilian Gregor Hepach, Daniel Ilger, Maximilian Krug, Kateryna Pilyarchuk, Fritz Schlüter, Christina Schmitt, Britta Schneider, Rita Vallentin und Alexander Walmsley, die mit ihren fachlichen und redaktionellen Hinweisen maßgeblich zur Qualität des Sammelbands beigetragen haben. Wir möchten herzlich Severyna Yakubych und Michelle Abdul-Malak für die hervorragende Unterstützung beim Korrektorat jedes noch so kleinen Satzzeichens danken, und Giacomo Nanni für die Entwicklung einer spielerischen Webanwendung zur Gestaltung des Buchcovers.
Nicht zuletzt möchten wir allen Autor*innen dieses Sammelbands für ihre vielseitigen Forschungsbeiträge danken. Ihr macht dieses Projekt zu dem, was es ist.
Als wir im Frühjahr 2022 zu einer Tagung aufgerufen haben, lag ein für Europa und die Welt unvorstellbares Ereignis keine zwei Monate zurück. Die russische Invasion der Ukraine vertrieb Millionen Menschen aus ihrer Heimat und hat überwunden geglaubte Gräben zwischen West und Ost erneut aufgerissen, die noch immer zu weitreichenden sozialen, ökonomischen und politischen Veränderungen auf internationaler und nationaler Ebene führen. Im Bundestag richtete sich Bundeskanzler Olaf Scholz mit der Zeitenwende-Rede an die Bevölkerung und sprach angesichts von Waffenlieferungen an die Ukraine von einer »neue[n] Realität« (Scholz 2022). Er plädierte für eine Stärkung der Resilienz, sowohl technisch als auch gesellschaftlich, um sich besser gegen Angriffe auf kritische Infrastrukturen und Kommunikationswege durch bspw. Cyberattacken und Desinformation zu wappnen.
Parallel wurden in Deutschland nach dem zweiten Corona-Winter in Isolation Lockerungen der Eindämmungsmaßnahmen zum Schutz vor dem Virus angekündigt (vgl. Chronik des Bundesministerium für Gesundheit 2023). Die Vorjahre waren von einer Serie von bundesweiten (Anti-)Corona-Protesten und Demonstrationen gegen eben diese Maßnahmen geprägt, bei denen auch Verschwörungsmythen, Falschinformationen und Hassreden zirkulierten und rechtsextreme Sichtweisen gesellschaftlich verfestigt werden konnten. Viele dieser Diskurse, darunter die Dichotomisierung und Anfeindung von Befürworter*innen und Gegner*innen, wurden (und werden) auf den Plattformen und Messengerdiensten der Sozialen Medien kanalisiert. An den Hochschulen und Universitäten verbreitete sich mit der Rückkehr zum Alltag auch die Hoffnung auf eine Rückkehr zu einem ›Normalzustand‹: Seminare in Präsenz, keine schwarzen Zoom-Kacheln mehr, sondern ›echter‹ Austausch mit den Kolleg*innen und Studierenden, Interaktion, die nicht nur zweckgebundene Meetings oder Lehrveranstaltungen sind, sondern sozialer Austausch und Miteinander.
Die Sorge um militärische Cyberkriminalität, die Radikalisierung in Sozialen Medien und der Wunsch nach ›echtem‹ Miteinander abseits von Videokonferenzen sind nur wenige Beispiele für die lokalen Auswirkungen globaler medialer Phänomene und Krisen, welche zu kollektiv-gesellschaftlichen Spannungen geführt und uns Herausgeber*innen zum Nachdenken über Un/Realitäten angeregt haben. Diese manifestieren sich an der Schnittstelle zwischen ›realen‹ und digitalen Welten, Wahrheiten und sogenannten alternativen Fakten. Sie oszillieren zwischen Interfaces, Cloud-Technologien, Datengewinnung und -verbreitung. Sie gehören sowohl zu unserer Realität als auch zu einer Art von Irrealität oder Unrealität, die sich der Wahrnehmung entzieht und dennoch spürbare Auswirkungen hat. Gemeinsam haben sie alle, dass sie sich im Kontext medienspezifischer Räume und Interaktionen abspielen, welche Diskurse nicht nur befeuern, sondern oft erst ermöglichen. In einer nie dagewesenen Geschwindigkeit und Dichte sind Informationen, Bilder und Diskussionen zugänglich, beinahe omnipräsent. Eingebettet ins Staccato der Feeds zwischen Werbung, Urlaubsschnappschüssen und Bildern vom Mittagessen treffen wir auf Nachrichten und Videos, die unmittelbar aus den Konfliktregionen zu stammen scheinen. Informationen werden nicht mehr zwangsläufig gesucht, sie ›begegnen‹ einem im Strom des Algorithmus. Als Diagramme visualisiert, verändern Corona-Fallzahlen, Fluchtbewegung und Frontverläufe das Verständnis von Raum und Zeit, und wie politische und gesellschaftliche Debatten geführt werden.
Was 2022 bereits relevant war, hat seit der Verbreitung von generativer Künstlicher Intelligenz (KI) in keiner Weise an Aktualität eingebüßt. Nur wenige Wochen nach unserer Tagung zu un:realen Interaktionsräumen veröffentlichte das Unternehmen OpenAI die Anwendung ChatGPT. Dies löste innerhalb kürzester Zeit eine weitere Krise der Forschungs- und Hochschullandschaft aus: Wie werden zukünftig die Produktion von und der Zugang zu Wissen organisiert? In welcher Weise verändern die Verbreitung und die alltägliche Anwendung von generativer KI Debatten um Deep Fakes, Hassreden und Diskriminierung? Bis zur Veröffentlichung dieses Sammelbandes können nur teilweise Antworten auf diese Fragen gegeben werden.
Lang erarbeitete Rechte im Datenschutz drohen unter den neuen Bedingungen ebenso in Gefahr zu geraten wie beispielsweise das Recht auf Zustimmung zur Nutzung eigener Inhalte für das Training von KI-Modellen oder das Recht, nicht von einer Software imitiert zu werden – sei es das Gesicht, die Stimme oder der individuelle künstlerische Stil.1 Die Macht einzelner Unternehmen über die Produktion, Filterung und Zirkulation von KI-generierten Inhalten akkumuliert und dies offenbar mit einschneidenden ökologischen und sozialen Implikationen2.
Technische Aspekte der Informationsverarbeitung haben direkte Auswirkungen auf die sozialen Interaktionen, die sie ermöglichen sollen. Bender et al. (vgl. 2021) stellen in ihrem Artikel über die Gefahr zu großer KI-Sprachmodelle fest, dass die Entwicklungen in einem vielfach schnelleren Tempo als dem des Mooreschen Gesetzes verlaufen: Wenn die Art und Weise, wie Menschen und nicht-menschliche Akteur*innen miteinander interagieren, von den Kapazitäten von Mikrochips abhängt, deren Entwicklung zum ersten Mal seit 50 Jahren überproportionale Anomalien aufweisen, stellen sich Fragen danach, welche Auswirkungen das auf die Interaktionen selbst hat, wie sich bestehende Formen und Ordnungen ändern, welche neuen Formen und damit einhergehenden sozialen Ordnungen sich bilden, sowie welche Rolle Bilder des Selbst und von Agency, Raum und Zeitlichkeit darin spielen.
Dieser Sammelband widmet sich daher Fragen der Entstehung, Veränderung und Gestaltung von Interaktionsräumen im Spektrum zwischen Mensch-Mensch, Mensch-Maschine und Maschine-Maschine, in denen Akteur*innen miteinander durch oder mit Technologien kommunizieren. Im Folgenden legen wir unsere theoretischen Grundannahmen dar und führen zentrale Begriffe ein, die im Titel des Bandes und in den Beiträgen genannt werden. Die Einleitung erhebt dabei keinen Anspruch auf Vollständigkeit, sondern will vielmehr die verschiedenen Forschungskontexte aufzeigen und Denkrichtungen anstoßen, die in den einzelnen Beiträgen umfänglicher ausgeführt und diskutiert werden.
Als soziale Wesen sind wir in unserem alltäglichen Leben von Interaktionen maßgeblich geprägt. In der fokussierten Interaktion (vgl. Goffman 1971), also in Face-to-Face-Begegnungen, modellieren Menschen interaktive Konstellationen etwa durch rituelle Rahmungen, wie z.B. Gruß- und Abschiedssequenzen, um Beziehungen aufzunehmen, sich als Selbst zu definieren und ihr Gesicht (face; Goffman 1971; 1974) zu wahren. Im mehr oder weniger stummen Einverständnis verhandeln und etablieren Personen so in jeder Interaktion aufs Neue soziale Ordnung. Daher kann es nicht überraschen, wenn sich veränderte Realisierungsbedingungen der vermeintlichen »Maximalform« (Marx/Schmidt 2019: 6) Face-to-Face-Kommunikation entscheidend auf die interaktiven Möglichkeiten selbst auswirken, denn: Die Kernaspekte von Interaktion, nämlich wechselseitiger Kontakt, raum-zeitliche Situierung und dinglich-körperliche bzw. kommunikativ-semiotische Möglichkeiten unterliegen stets den medialen Bedingungen, die diese Interaktionsräume konstituieren ebd.:. Für die Beschreibung von Interaktionsräumen, die über die Face-to-Face-Kommunikation hinausgehen, müssen deshalb ihre medienspezifischen Formen und Begebenheiten mitgedacht werden, um die Konstitution sozialer Ordnung auch unter diesen veränderten Bedingungen aufdecken und verstehen zu können. Zur Beschreibung und Analyse dieser Formen eignet sich insbesondere der Begriff der Medialität, da das dahinterliegende Konzept nicht nur die Bedingungen, sondern auch deren Potenziale und Beschränkungen im Sinne medialer Möglichkeiten (Affordanzen) umfasst. Im Gegensatz zu einem objekthaften Medienbegriff stellt der Begriff der Medialität die Prozesshaftigkeit sowie performative Aspekte von Medien in den Vordergrund (vgl. Schneider 2017; 2018). In diesem Zusammenhang werden Medien und ihre Materialität als wechselseitig mit Prozessen der Sinnkonstitution und Kommunikation betrachtet (vgl. Luginbühl 2019; Marx/Schmidt 2019) und beziehen deshalb auch damit einhergehende Formen des Rezipierens und Verstehens mit ein.
Mit Blick auf Interaktionen zeigt sich in diesem Kontext meist eine hohe Komplexität von Verflechtungen. Damit sind eben diese vielschichtigen medialen Ökologien angesprochen, in denen die Interaktionen stattfinden, beispielsweise Social-Media-Plattformen wie YouTube oder TikTok, aber auch Algorithmen und technische Infrastrukturen, die überhaupt die Voraussetzung für das Zustandekommen vieler medienspezifischer Interaktionen darstellen. Beispielhaft lässt sich die Komplexität medialer Ökologien anhand von Interfaces aufzeigen: Spezifische Interaktionsräume entstehen z.B. durch bestimmte visuelle und auditive Bedienoberflächen von Computern oder Smartphones. Während die Hardware als Schnittstelle für In- und Output dient, vollziehen sich unterhalb der Oberfläche vielfältige Verbindungsprozesse zwischen wechselseitig miteinander verbundenen Interface-Ebenen (vgl. Distelmeyer 2021: 57). Cramer und Fuller (2008) unterscheiden diesbezüglich Interface-Konstellationen zwischen Software und Software, Software und Hardware, Hardware und Hardware, Hardware und User*innen sowie Software und User*innen, die es allesamt für eine Interaktion mit und durch digitale Technologien braucht. So benötigt es eine komplexe Infrastruktur von u.a. Unterseekabeln und zahllosen Funknetzen, durch Software produzierte und auf Hardware bereitgestellte Anwendungen, APIs (Application Programming Interfaces), bis zu (Touch-)Bildschirmen, Maus, Tastatur, Mikrofonen und weiteren Sensortechnologien für die Bedienung von und Vermittlung zwischen Computer- und Nicht-Computer-Welt. Vor diesem Hintergrund spricht Distelmeyer (vgl. 2021) von einem Interface-Komplex, um auf die Komplexität von Interface-Prozessen aufmerksam zu machen (ebd.: 57).
Die technologischen, infrastrukturellen und algorithmischen Aspekte der Interfaces stellen sich laufend verändernde mediale Ökologien bereit, welche Interaktionen auch in Bezug auf die Konstruktion von Wirklichkeitsvorstellungen bzw. die Wahrnehmung von Realität beeinflussen. Dabei ist der Mensch nicht nur mit der Bedienoberfläche im Kontakt, sondern steht zugleich mit der komplexen, letztlich jedoch nur erahnbaren Anatomie im/materieller, ökologischer und sozioökonomischer Netze in Verbindung. Interaktionsräume bestehen aber auch da, wo augenscheinlich keine User-Interfaces zu einer Interaktion einladen, sondern verteilte Sensoren die Außenwelt und ihre menschlichen als auch nicht-menschlichen Entitäten registrieren und vermessen (vgl. Schierbaum in diesem Band). Wer oder was Teil einer Messung, Berechnung und Weiterverarbeitung oder schlicht von Interface-Operationen wird, unterliegt dabei nicht mehr der menschlichen Kontrolle. Durch ubiquitäre, vernetzte Technologien stellt sich somit auch die Frage nach der Agency der diversen beteiligten Akteur*innen. Interfaces verdeutlichen damit im Besonderen, dass in medienspezifischen Interaktionen keine klare Trennung zwischen sicht- und unsichtbaren, realen und unrealen Teilnehmer*innen mehr möglich ist. Vielmehr zeigt sich hier deutlich ein Spektrum auf, in dem manche Interaktionen menschlicher und/oder nicht-menschlicher Entitäten (scheinbar) näher der »Maximalform« sind als andere.
Technologien mit ihren unterschiedlichen Affordanzen erlauben Nutzer*innen nicht nur die Ausführung bestimmter Aktionen und Praktiken, sondern damit einhergehend auch die Ausgestaltung von Identitäten, Werten und Beziehungen zu anderen (vgl. Jones 2020: 204). Die medialen Bedingungen können neue Sichtweisen eröffnen und soziale, politische und ökonomische Diskurse tiefgehend beeinflussen. Das Spektrum medienspezifischer Interaktion konstituiert sich durch Aspekte medialer Umwelten an den Schnittstellen digital/analog, online/offline und real/unreal. Diese werden für spezifische Interaktionsformen relevant, entfalten dort ihre jeweiligen Potenziale und tragen somit z.B. zur Entstehung wirkungsstarker Protestbewegungen bei (vgl. Fischer in diesem Band) oder können für die politischen Bildung nutzbar gemacht werden (vgl. Kindler-Mathôt in diesem Band).
Der Fokus dieses Bandes liegt deshalb nicht auf den Effekten einzelner Medien, sondern auf ihren medialen Interaktionspotenzialen in Bezug auf gesellschaftliche Prozesse.3 In diesem Kontext ist die Frage nach dem Zusammenhang von Medien-, Kommunikations- und Kulturwandel von Interesse (vgl. Androutsopoulos 2016: 343). Löffler und Sprenger sehen in der Betrachtung spezifischer medialer Ökologien eine Möglichkeit zur »Diagnose der Gegenwart« (Löffler/Sprenger 2016: 11). Mediale Bedingungen werden dabei sowohl als Erweiterung wie auch als Einschränkung begriffen, da Medientechnologien kommunikative Praktiken auf verschiedenen Ebenen institutionell regulieren (vgl. Couldry/Hepp 2017: 32). Die Beiträge zielen darauf ab, Fragen der Konstruktion, Veränderung und Gestaltung sowie der Partizipation in und Erfahrung mit Interaktionsräumen zu untersuchen. Dabei stehen deren Implikationen für gesellschaftliche (soziale, politische, ökonomische) Wechselwirkungen im Mittelpunkt. Die Komplexität dieser einander bedingenden, oft nur schwer zu vermittelnden soziotechnischen Prozesse verstehen wir daher als Un/Realitäten.
In der philosophischen Diskussion um den Begriff der »Realität« lassen sich unterschiedliche Positionen und Diskurse ausmachen.4 In diesem Sammelband geht es uns nicht darum, diese Debatten weiterzuentwickeln oder den Begriff epistemologisch zu untersuchen. Stattdessen beziehen wir uns, mit Blick auf Formen sozialer Ordnung, auf Realität als soziale Konstruktion (vgl. Berger/Luckmann 1967). Damit diskutieren wir nicht das Vorhandensein einer realen, materiellen Wirklichkeit, sondern postulieren, dass Realitäten durch sprachliche, soziale und materielle Prozesse geprägt sind (vgl. Burr 2015) und durch Interaktionen von Akteur*innen maßgeblich hervorgebracht, gestaltet, etabliert und verändert werden.
Insbesondere mit Blick auf die Rolle von Medien bei der Modulation von Realitäten kann dieser Ansatz produktiv gemacht werden. Bereits frühere Medientechnologien wie Schrift und Drucktechniken haben Interaktionsmöglichkeiten mitkonstituiert.5 Auch das Ausmaß der Integration digitaler Medien hat heute zu einem noch nie dagewesenen Zustand der »tiefen Mediatisierung« (deep mediatization; vgl. Couldry/Hepp 2017) geführt: Hepp und Couldry argumentieren, dass sogar die grundlegende Form der Face-to-Face-Interaktion der Mediatisierung unterliegt, da Realitäten stets auf der Grundlage und im Kontext der gegenwärtigen Bedingungen koordiniert werden müssen – bspw. anhand von etablierten Interaktionsformen in den Medien (vgl. Luginbühl 2019), mit Medien als selbstverständlichen Bestandteil der Interaktion, etwa mit Smartphones als sozialen Objekten (vgl. Oloff 2019) oder auch im Umgang mit Smart Speakern (vgl. Hector in diesem Band). Ein unbeabsichtigter Laut, der der Aussage »Alexa« ähnelt, kann jederzeit die Aktivierung des Amazon Smart Speakers auslösen. Auf diese Weise werden Menschen sensibilisiert, ihre Sprechweise, aber auch ihr körperliches Verhalten an die interaktiven Bedingungen ihres jeweiligen technologischen Umfeldes anzupassen.
Die aktuellen Diskurse zeigen, dass das Verständnis und die Erfahrung von Realität als stets verschwommen und medial vermittelt empfunden wird. Insbesondere die zunehmende Popularität neu eingeführter Technologien wie ChatGPT oder Suno hat die Debatte darüber, was »menschlich« oder »echt« ist (oder zu sein hat, bzw. nicht sein sollte), neu entfacht. Generative KI-Tools mit ihren zunehmend glaubwürdiger werdenden, menschenähnlichen ›Reaktionen‹ modellieren Alltagserfahrungen, die teilweise kaum mehr von menschlichen Kreationen und Interaktionsweisen zu unterscheiden sind. Die Unterscheidung zwischen ›echter‹ menschlicher und ›unechter‹ maschineller Intelligenz besteht bereits seit dem Dartmouth-Workshop und dem Turing-Test und damit deutlich vor dem Populärwerden der genannten generativen KI-Tools (vgl. Coeckelbergh/Gunkel 2023: 4). Bei ihrer Untersuchung aktueller Debatten über ChatGPT beobachten Coeckelbergh und Gunkel drei philosophische Positionen innerhalb des Un/Realitätsdiskurses: Solche, die sie nahe an einer ›echten‹ menschlichen Intelligenz verorten, solche, die sie nur als Schein betrachten, und solche, die diese Entwicklungen völlig außer Acht lassen. In Anlehnung an Barad (2007) und Haraway (2016) stellen Coeckelbergh und Gunkel diese ontologische Differenz in Frage und schlagen vor, sich auf Performances, Prozesse der Bedeutungsgebung und Machtverhältnisse zu konzentrieren, durch die Un/Realitäten verhandelt werden.
Un/Realitäten lassen sich demnach weder mit internen mentalen Prozessen (von Menschen oder KI) erklären noch als unabhängig von ihrer Wirkung auf die Außenwelt betrachten. Vielmehr werden sie in sozio-materiellen Prozessen konstruiert, die zunehmend den Logiken und Infrastrukturen von Social-Media-Plattformen, großen Sprachmodellen (Large Language Models) und Algorithmen folgen, und die somit an Prozessen der Sinnstiftung beteiligt sind (vgl. Couldry/Hepp 2017). Die Fragestellung, der wir uns widmen, entspricht also nicht der philosophischen Frage: »Ist das real oder nicht?« Vielmehr stellen wir eine sozio-materielle, soziokulturelle und prozesshafte Frage, die wie folgt formuliert werden kann: »Welchen Beitrag leisten soziokulturelle und materiell-mediale Praktiken zur Konstruktion von Realitäten?«. Um diese Frage zu beantworten, untersuchen die Beiträge in diesem Band die Konstruktion und Erfahrung von sowie Partizipation in un/realen Interaktionsräumen.
Die Beiträge des Sammelbandes betrachten, analysieren und diskutieren aus medienwissenschaftlichen und -linguistischen Perspektiven die komplexen medienspezifischen Formen von Interaktion und damit einhergehende gesellschaftliche Wirkungen und Prozesse. Sie erlauben Einblicke in aktuelle und gesellschaftlich hoch relevante Forschungsfelder. Trotz der Vielfalt der Untersuchungsgegenstände (Interfaces, Soziale Medien, Sensornetzwerke, Sprachassistenten und Audiovisualität) tauchen dabei in allen Beiträgen Fragen nach den medialen Bedingungen auf, die Interaktionsräume bereitstellen bzw. welche spezifischen interaktiven Möglichkeiten, Realitäten und sozialen Ordnungen sich daraus ergeben. Wie entfalten und gestalten sich Interaktionsräume in hybriden, digitalen und auch analogen Kontexten in einem Spektrum von sozialen Medien, Computerspielen, Sprachsteuerung etc.? Welche Dispositive kommen in un/realen Interaktionsräumen nicht zum Vorschein? Wie verschwimmen sozio-kulturelle Kategorien wie das Bild des Selbst und Agency, und dies über Grenzen zwischen Mensch und Maschine hinweg? In welchem Zusammenspiel stehen Körper, Medien und Technologien? Wie werden unterschiedliche Medien affektiv erfahren? Welche Realitäten können sich aus den medienspezifischen Praktiken entfalten, die damit einhergehen? Welche neuen sozialen Ordnungen und Strukturen werden sichtbar?
Der Sammelband ist in drei Sektionen gegliedert, die jeweils unterschiedliche Aspekte der Interaktionsräume untersuchen. Jede Sektion beginnt mit einem künstlerischen Beitrag, der die theoretischen und analytischen Diskussionen einleitet und veranschaulicht. Die erste Sektion »Konstruktion« thematisiert, wie Interfaces und mit ihnen auch ideologische Rahmenbedingungen die Interaktionsräume im Spektrum zwischen Mensch-Maschine und Maschine-Maschine prägen und so neue Un/Realitäten schaffen. Die zweite Sektion »Erfahrung« widmet sich der körperlichen und affektiven Dimension der Interaktion in verschiedenen audiovisuellen Medienformaten, einschließlich Film, Videospiel und politischer Berichterstattung. Die dritte Sektion »Partizipation« befasst sich mit den kollaborativen Prozessen und partizipativen Mechanismen, durch die Interaktionsräume geschaffen und gestaltet werden.
Die Beiträge in der Sektion Konstruktion untersuchen unterschiedliche Aspekte der medialen und kulturellen Kokonstruktion von Interaktionsräume durch Interfaces, Infrastrukturen und Ideologien. Gemeinsam tragen sie dazu bei, ein tieferes Verständnis dafür zu entwickeln, wie technologische und ideologische Rahmenbedingungen Interaktionsräume und Realitäten formen und welche Auswirkungen dies auf die Gesellschaft hat.
In seinem künstlerischen Beitrag Orbital Mirage präsentiert Till Rückwart ein Archiv digitaler Fehler bzw. Glitches als Un/Realitäten innerhalb der Satellitenbilddarstellung von Google Earth. Er zeigt, dass nicht fotooptische Effekte ausschlaggebend für die fehlerhaften Bilder sind, sondern dass sie prozessual durch den Algorithmus geschaffen werden. Die Arbeit plädiert für Archivpraktiken, die die vermeintlich objektive Darstellung der Erde durch Interfaces und deren technologische Rahmenbedingungen kritisch reflektiert.
Timo Kaerleins Beitrag »I am, in fact, a person.« Vorder- und Hinterbühnen konversationeller KI thematisiert die Frage, auf welche Weise einer KI der Status einer Person mit Intelligenz, Bewusstsein oder Empfindungsvermögen zugesprochen wird. Die Untersuchung eines 2022 in der Öffentlichkeit breit diskutierten Diskurses, konkret der Dialogsequenz zwischen dem damaligen Google-Ingenieur Blake Lemoine und dem Chatbot LaMDA, dient als Grundlage für die kritische Reflexion aktueller Debatten über KI als Entität mit menschlichen Qualitäten. Hierbei beleuchtet er insbesondere die Rolle der kulturellen Skripte sowie die Darstellung von un/realen Interaktionen.
In seinem Beitrag Sprachassistenzsysteme und ihre Interfaces: Eine medienlinguistische Analyse widmet sich Tim Hector den stimmlichen und grafischen Bedienoberflächen von Sprachassistenten wie beispielsweise Alexa, Siri und Google Assistant. Er analysiert die interaktiven situativen Praktiken der Nutzer*innen auf der einen Seite und die durch Algorithmen in den Apps dokumentierten Aspekte dieser Praktiken auf der anderen Seite. Die Analyse erfolgt auf der Grundlage von Videomaterial, welches konversationsanalytisch ausgewertet wird. Auf diese Weise entwickelt er eine Perspektive auf die Mensch-Maschine-Interaktion, die nicht nur die Praktiken der Nutzer*innen berücksichtigt, sondern auch die verborgenen technischen Infrastrukturen in das Forschungsdesign integriert.
Schließlich präsentiert Paul Schütze in seinem Beitrag Zwischen Technologie und Ideologie: Ein Blick auf die un/realen Räume hinter KI eine kritische Perspektive auf zeitgenössische Debatten aus technikphilosophischer Sicht. Im Zentrum stehen Narrative des »AI-Futurism«, in denen KI-Technologien als unausweichlicher Bestandteil einer zukunfts- und fortschrittsorientierten Entwicklung dargestellt werden. Er verdeutlicht die gesellschaftlichen Auswirkungen dieser Ideologien: die Reproduktion von kolonialen und patriarchalen Strukturen in der KI-Industrie, die Auswirkungen auf den Planeten, die staatliche Förderung der KI-Industrie sowie die Sammlung bzw. Überwachung von User*innen-Daten.
Die Sektion »Erfahrung« beleuchtet die vielfältigen Dimensionen, wie Interaktionsräume in verschiedenen audiovisuellen Medien erlebt, wahrgenommen und rezipiert werden. Die Beiträge dieser Sektion stellen dar, wie Interaktionen in/mit Bildern, Filmen, Videospielen und audiovisuell modulierten Gesprächen nicht nur kognitiv, sondern auch körperlich und affektiv erfahren werden. Gemeinsam bieten diese Beiträge Einblicke in die verkörperten und affektiven Aspekte der Erfahrung und Wahrnehmung von Interaktionsräumen in verschiedenen Medienformaten.
Die Videoinstallation L.I.S.A.: Akt 1 von Lynn Klemmer lädt die Betrachter*innen zu einer Reflexion über die Künstlichkeit von Wahrnehmung zwischen Fiktion und Realität ein. Durch übereinander gelagerte Projektionen eines Vorhangs aus verschiedenen Blickwinkeln eröffnet sich ein Interaktionsraum, in dem zwischen Subjekten, Objekten und Welten Un/Realitäten gestiftet werden. Damit betont Lynn Klemmer die materiellen, phänomenologischen und fiktionalen Aspekte der Wahrnehmung durch Bildschirme und plädiert für eine Dekonstruktion der Dichotomie von Realität und Fiktion.
Ebenso bieten verschiedene Bildschirme die Möglichkeit, unterschiedliche Filmformate zu rezipieren, zu verstehen und mitzuerleben. In ihrem Beitrag Von der Non-Linearität der Zeit: Metaphorisieren als Interaktion mit filmischen Bildern. Eine medienästhetische Perspektive widmet sich Katerina Papadopoulou der Filmerfahrung als Interaktion zwischen Filmen und Zuschauer*innen. Ausgehend von einer medienästhetischen Metaphernanalyse des Science-Fiction-Films ARRIVAL entwickelt sie die These, dass die filmische Erfahrung nicht auf einer statischen, fiktiven oder »unrealen« Narrationsebene stattfindet, sondern sich durch eine verkörperte Interaktion mit dem Filmbild entfaltet.
Zuschauer*innen interagieren nicht nur mit fiktiven Filmen, sondern auch mit als »real« gewerteten audiovisuellen Bildern. Clara Kindler-Mathôt analysiert in ihrem medienlinguistischen Artikel Erfahrungsraum Interaktion: Die audiovisuelle Modulation eines Gesprächs als Zuschauer*innenerfahrung einen Videobeitrag des digitalen Parteitags der Partei BÜNDNIS 90/DIE GRÜNEN. In ihrer medienästhetischen Analyse zeigt sie, dass die audiovisuelle Darstellung nicht einfach eine Repräsentation des vorfilmischen Geschehens ist, sondern vielmehr neue mediale Realitäten entstehen lässt. Sie postuliert somit die Notwendigkeit einer reflektierten Auseinandersetzung mit audiovisuellen Bedeutungskonstitutionen, um die Medienkompetenz zu stärken.
Dominic Brakelmann und Arvid Kammler wenden sich in ihrem Beitrag Ludische Dividuationen: Eine antiholistische Betrachtung der Videospiele CULTIST SIMULATOR undDEAD SPACE der Wahrnehmung von Videospielen als körperliche Erfahrungsräume zu. Anstelle einer Betrachtung von Videospielen, die sich auf die Spieler*innen oder das Spiel konzentriert, schlagen sie eine dividualistische Perspektive vor, indem sie sich die interaktiven Details der Spiele und der körperlich-räumlichen Verteilung widmen. Anhand von zwei Beispielen entwickeln sie eine Sichtweise auf Videospiele als multimodale Assemblagen mit vielfältigen medialen Potentialen.
Die Sektion »Partizipation« befasst sich mit der Art und Weise, wie Interaktionsräume durch partizipative und kollaborative Prozesse geschaffen und gestaltet werden. Die Beiträge dieser Sektion untersuchen verschiedene Formen der Ko-Konstruktion: von der sensorischen Datenerhebung über den digitalen Modemarkt bis hin zu Online-Communities. Zusammen bieten diese Beiträge Einblicke in die Mechanismen der Ko-Konstruktion von Interaktionsräumen und zeigen, wie Partizipation und Kollaboration in verschiedenen medialen Kontexten gestaltet und erlebt werden.
In seinem dokumentarischen Video-Essay Excuse Us While We Improve Your View, Atlantis begleitet Giacomo Marinsalta die Rezipient*innen auf eine Reise zur Weltausstellung Expo 2020 Dubai, in der Vorstellungen von Innovation und Vergangenheit verschmelzen. In seinem Beitrag legt er dar, dass die Förderung des Gemeinschaftsgefühls für Expo-Teilnehmende maßgeblich durch digitale Erlebnisse erfolgt, wobei kulturelle Diskurse passiv konsumiert werden. Damit wirft er einen kritischen Blick auf den technologischen Determinismus, der hier als Grundlage für eine gemeinsame Zukunft postuliert wird.
In ihrem Beitrag Mobile Crowdsensing: Interaktionsmodelle des mobilen Sensing und die infrastrukturelle Allgegenwart der ›mobile sensor networks‹ widmet sich Vesna Schierbaum der Technik des Crowdsourcings von Daten aus einer kritischen medienwissenschaftlichen Perspektive. Sie analysiert die allgegenwärtige sensorische Infrastruktur von Sensor Kits bis zum Smartphone als technologische Grundlagen des Crowdsensing. Dabei hinterfragt sie die historische Entwicklung eines technologischen Interaktionsmodells, welches Daten ohne die aktive Beteiligung der Nutzer*innen verarbeitet. Kritisch beleuchtet sie die vermeintlichen partizipatorischen Potenziale, welche in Industriediskursen oft hervorgehoben werden.
Helga Behrmann befasst sich in ihrem Beitrag Digital Fashion im Online-Shop: Der unreale Interaktionsraum als sozialer Handlungsraum mit rein digitalen Modeangeboten. Dabei zeigt sie auf, dass sich nicht nur zwischen Kund*innen und Anbietenden, sondern auch zwischen digitalen Körpern und Interfaces Interaktionen entfalten. Sie betont die Bedeutung der Partizipation der Nutzer*innen bei der Gestaltung und Bewertung digitaler Mode und demonstriert, wie diese Form der Interaktion den sozialen Handlungsraum im Online-Shop definiert.
Schließlich untersucht Friederike Fischer in ihrem Beitrag Appropriating the Ape: Sprachliche Praktiken der Gemeinschaftsbildung im Subreddit R/WALLSTREETBETS das konkrete Fallbeispiel einer sozialen Bewegung, die weitreichende soziale sowie wirtschaftliche Konsequenzen nach sich zog. Im Rahmen korpusbasierter medienlinguistischer Analysen wird der Frage nachgegangen, welche Rolle die Verwendung von Beleidigungen innerhalb der Community spielt und wie sie den spezifischen Gruppensprachgebrauch prägt, um soziale Bindungen zu festigen.
Wie die Zusammenstellung der einzelnen Beiträge zeigt, ist eine einfache Trennung zwischen den Schnittstellen real und unreal der Komplexität und Breite der Phänomene genauso wenig gerecht wie eine Unterteilung in klar umgrenzte Forschungsbereiche, die sich dem Feld widmen. Notwendig sind vielmehr interdisziplinäre und ganzheitliche Herangehensweisen, die sowohl die Gegenstände klassischer Face-to-Face-Interaktionen als auch spezifische Medialitäten im Blick behalten. Durch die Integration verschiedener Ansätze und Techniken sowie künstlerischer Beiträge versucht der Sammelband, die Komplexität und Vielfalt dieser un/realen Interaktionsräume angemessen zu erfassen.
Androutsopoulos, Jannis (2016): »Mediatisierte Praktiken: Zur Rekontextualisierung von Anschlusskommunikation in den Sozialen Medien«, in: Arnulf Deppermann/Helmuth Feilke/Angelika Linke (Hg.): Sprachliche und kommunikative Praktiken, Berlin/Boston: De Gruyter.
Barad, Karen (2007): Meeting the Universe Halfway: Quantum Physics and the Entanglement of Matter and Meaning, Durham: Duke University Press.
Bender, Emily M./Timnit Gebru/Angelina McMillan-Major/Shmargaret Shmitchell (2021): »On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? «, in: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, S. 610-623.
Berger, Peter L./Thomas Luckmann (1967): The Social Construction of Reality: A Treatise in the Sociology of Knowledge, New York: Open Road Integrated Media, Inc.
Bundesministerium für Gesundheit (2023): Coronavirus-Pandemie: Was geschah wann? Chronik aller Entwicklungen im Kampf gegen COVID-19 (Coronavirus SARS-CoV-2) und der dazugehörigen Maßnahmen des Bundesgesundheitsministeriums. Abrufbar unter: https://www.bundesgesundheitsministerium.de/coronavirus/chronik-coronavirus (Stand: 04.07.2024).
Burr, Viv (2015): »Social Constructionism«, in: International Encyclopedia of the Social & Behavioral Sciences, S. 222-227.
Coeckelbergh, Mark/David J. Gunkel (2023): »ChatGPT: Deconstructing the Debate and Moving It Forward«, in: AI & SOCIETY. Abrufbar unter: https://link.springer.com/article/10.1007/s00146-023-01710-4 (Stand: 29.07.24)
Couldry, Nick/Andreas Hepp (2017): The Mediated Construction of Reality, Cambridge/Malden: Polity Press.
Cramer, Florian/Matthew Fuller (2008): »Interface«, in: Matthew Fuller (Hg.): Software Studies, Cambridge: The MIT Press, S. 150-152.
Distelmeyer, Jan (2021): »Programmatische Verhältnisse. Wer oder was lebt in Zoom? Fragen an die neue Normalität von Videokonferenzen«, in: CARGO Film/Medien/Kultur 49: S. 28-34.
Gabriel, Markus (2014): Der neue Realismus, Berlin: Suhrkamp.
Goffman, Erving (1971): Verhalten in sozialen Situationen. Strukturen und Regeln der Interaktion im öffentlichen Raum, Gütersloh: Bertelsmann.
Goffman, Erving (1974): Das Individuum im öffentlichen Austausch. Mikrostudien zur öffentlichen Ordnung, Frankfurt a.M.: Suhrkamp.
Habermas, Jürgen (2021): »Überlegungen und Hypothesen zu einem erneuten Strukturwandel der politischen Öffentlichkeit«, in: Martin Seeliger/Sebastian Sevignani (Hg.): Ein neuer Strukturwandel der Öffentlichkeit?, Baden-Baden: Nomos, S. 470-500.
Halbig, Christoph/Christian Suhm (Hrsg.) (2004): Was ist wirklich? Neuere Beiträge zu Realismusdebatten in der Philosophie, Berlin/Boston: De Gruyter.
Haraway, Donna Jeanne (2016): Staying with the Trouble: Making Kin in the Chthulucene, Durham: Duke University Press.
Jones, Rodney (2020): »Mediated Discourse Analysis«, in: Svenja Adolphs/Dawn Knight (Hg.): The Routledge Handbook of English Language and Digital Humanities, Abingdon/Oxon/New York: Routledge, S. 202-219.
Löffler, Petra/Florian Sprenger (2016): »Medienökologien. Einleitung in den Schwerpunkt«, in: Zeitschrift für Medienwissenschaft 14 (1), S. 10-18.
Luginbühl, Martin (2019): »Mediale Durchformung. Fernsehinteraktion und Fernsehmündlichkeit«, in: Konstanze Marx/Axel Schmidt (Hg.): Interaktion und Medien. Interaktionsanalytische Zugänge zu medienvermittelter Kommunikation, Heidelberg: Universitätsverlag Winter, S. 125-146.
Marx, Konstanze/Axel Schmidt (2019): »Interaktionsanalytische Zugänge zu medienvermittelter Kommunikation. Zur Einleitung in diesen Band«, in: Konstanze Marx/Axel Schmidt (Hg.): Interaktion und Medien. Interaktionsanalytische Zugänge zu medienvermittelter Kommunikation, Heidelberg: Universitätsverlag Winter, S. 1-31.
Oloff, Florence (2019): »Das Smartphone als soziales Objekt. Eine multimodale Analyse von initialen Zeigesequenzen in Alltagssequenzen«, in: Konstanze Marx/Axel Schmidt (Hg.): Interaktion und Medien. Interaktionsanalytische Zugänge zu medienvermittelter Kommunikation, Heidelberg: Universitätsverlag Winter, S. 191-218.
Schneider, Jan Georg (2017): »Medien als Verfahren der Zeichenprozessierung: Grundlegende Überlegungen zum Medienbegriff und ihre Relevanz für die Gesprächsforschung«, in: Gesprächsforschung – Online Zeitschrift zur verbalen Interaktion 18, S. 34-55.
Schneider, Jan Georg (2018): »Medialität«, in: Frank Liedtke/Astrid Tuchen (Hg.): Handbuch Pragmatik, Stuttgart: J.B. Metzler, S. 272-281.
Willaschek, Marcus (2022): »Vernunft und Realismus. Zur Aktualität der kantischen Philosophie«, in: Volker Gerhardt/Matthias Weber/Maja Schepelmann (Hg.): Immanuel Kant 1724–2024: Ein europäischer Denker, Berlin/Boston: De Gruyter Oldenbourg, S. 51-58.
1Beispielhaft können hier eine Reihe publik gewordener Rechtsstreite genannt werden, wie bspw. Scarlett Johansson, Taylor Swift, Sarah Andersen, Kelly McKernan und Karla Ortiz vs. Stability AI, Midjourney und DeviantArt.
2Vgl. bspw. Berichte über verheerende Arbeitsbedingungen kenianischer Arbeiter*innen, die an der Erkennung toxischer Inhalte von ChatGPT arbeiten (z.B.: Perrigo, Billy (2023): Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic, abrufbar unter: https://time.com/6247678/openai-chatgpt-kenya-workers/ (Stand: 24.07.2024)).
3Die Begriffe »mediale Möglichkeiten«, »Medialität« und »mediale Ökologien« lassen sich nicht klar voneinander abgrenzen, sondern stellen vielmehr verschiedene Aspekte in Bezug auf Medien und Interaktion in den Vordergrund, z.B. interaktive Bedingungen, Interferenzen und Prozesse oder weitreichende Verknüpfungen und Netzwerke.
4Vgl. Philosoph*innen im Realismus-Diskurs, z.B. Willascheck (2022) zu Kant, Gabriel (2014) sowie die gesammelten Diskussionen im Sammelband zur Realismusdebatte in der Philosophie bei Halbig und Suhm (2004).
5Vgl. Habermas (2021: 486) Äußerungen, dass es sich bei digital vernetzter Kommunikation nicht nur um eine Erweiterung des Medienangebots handle, »sondern vielmehr um eine mit der Einführung des Buchdrucks vergleichbare Zäsur in der menschheitsgeschichtlichen Entwicklung der Medien.«
KeywordsInterface, Glitch, Archiv, Counter-Mapping, Screen Images
An einem der vielen ereignislosen Nachmittage während der Covid-19-Pandemie nahm ich mit einem bekannten Kartendienst die Suche nach Lithiumfeldern in der berühmten Atacama-Wüste in Chile auf. Das immense Ausmaß der Salzwüste machte es leicht, ohne die Verwendung der Suchfunktion den Ort zu finden, an dem in riesigen Becken ein Großteil der weltweiten Lithiumproduktion für Batterien von E-Automobilen, Smartphones und allerlei technischer Geräte stattfindet. Neben den ohnehin abstrakten Farbflächen der Großindustrie erschien beim Hineinzoomen in die Karte eine weitere bläuliche Fläche in der Prärie Südamerikas, die gänzlich digital und fehl am Platz zu sein schien. Wie eine Fata Morgana, die durch Temperaturunterschiede auf der Erdoberfläche als Luftspiegelung erscheint und sich bei einer Annäherung auflöst, verhielt es sich mit dieser Fläche. Sie trat ab einer bestimmten Sichthöhe bzw. Entfernung zum 3D-Erdobjekt plötzlich auf dem Bildschirm auf und verlor ihre Intensität abhängig vom Heranzoomen meiner virtuellen Position. Sie war kein statisches Objekt in den pixelbasierten Vertikalfotografien aus der Erdumlaufbahn, sondern entwickelte sich vielmehr performativ im Zusammenspiel mit meinen Handlungen am Computer.
Mit dieser zufälligen Entdeckung begann ein mehrstufiges Forschungsprojekt über Farbfragmente in Google Earth. Die virtuelle Karte und Fotoinstallation Orbital Mirage ist Teil dieses Projekts, das digitale Fehler, sogenannte Glitches, als Un/Realitäten in der Satellitenbilddarstellung von Google Earth archiviert. Glitches sind (audio-)visuelle Störungen, die typischerweise durch Softwarefehler oder Hardwareprobleme entstehen und in Bild- und Tonmedien seh- bzw. hörbar werden. In Orbital Mirage erzeugen Fehler im Quellcode von Google Earth die Glitches, die im User Interface der Karte sichtbar werden. Die Arbeit dokumentiert rechteckige, verschiedenfarbige Glitches im Kartenprogramm, wobei Archivpraktiken mit der Analyse von Software- und Medienästhetik verknüpft werden.
Abb. 1: Orbital Mirage 30°40’57”S 119°23’15”E
Abb. 2: Orbital Mirage 75°46’43”N 64°04’45”E
Abb. 3: Orbital Mirage 61°39’35”N 146°54’45”W
Ein Merkmal dieser Glitches ist, dass sie ausschließlich in der Nähe von weiß reflektierenden Erdoberflächen wie Salzwüsten und -seen, Gletschern oder großflächigen Eis- und Schneelandschaften auftreten – Regionen also, die sich aus dem Weltall betrachtet leicht ähneln und fernab städtischer Infrastruktur liegen. Beim Hineinzoomen in diese abgelegenen Gebiete offenbaren moderne Kartendienste oft vielfältige Bildcollagen: asymmetrische und asynchrone Bilder, farblich verwischte Flächen oder Wolkenschleier, die das fragmentarische Facettenreichtum einer ansonsten nahtlos zusammenhängenden und sonnendurchfluteten digitalen Erde darstellen. Dabei geben die visuellen Artefakte weniger Aufschluss über die physische Beschaffenheit der Erde oder die chemische Zusammensetzung ihrer Atmosphäre als vielmehr über die technologische Erfassung des Planeten und die Funktionsweisen der verwendeten Software. Sie laden dazu ein, sich mit den Technologien, ihren Schnittstellen und ihren internen Verbindungsprozessen zu befassen, die von der Bilderzeugung im All bis zur Darstellung im User Interface auf Computerbildschirmen oder Smartphones wirken.
Google erhält das Bildmaterial für die Erddarstellung von staatlichen Behörden und Privatunternehmen. Gering auflösende Bilder stammen beispielsweise von dem Satellitensystem Landsat der NASA, während hochauflösende Bilder unter anderem von Airbus und Maxar Technologies bereitgestellt werden. Diese Satelliten sind mit mehreren Linsen ausgestattet, um beim Fotografieren vielschichtige Daten für komplexe Anwendungsbereiche zu erfassen. Das Vollfarbbild setzt sich dabei aus mindestens drei Fotografien zusammen, die mit einer roten, grünen und blauen Linse aufgenommen wurden. Erst im nächsten Schritt lagert eine Software die Fotografien übereinander, um das Bild im additiven RGB-Farbraum darzustellen. Bei dem Kartenprogramm geschieht dies durch einen Algorithmus, der die Erdkugel als ein von einem Datennetz umgebenes 3D-Objekt imitiert und regelmäßig Satellitenbilder unter Verwendung von Geolokalisierung einfügt und aktualisiert. Die Glitches entstehen in Bildern, die von den Unternehmen Airbus und Maxar Technologies zur Verfügung gestellt wurden. Dort, wo sie auftreten, werden aufgrund von Bugs, meist kleinen Fehlern im Quellcode der Software, von dem physischen Original abweichende Farbwerte verwendet, die beim algorithmischen Zusammenfügen der Bilder zu den charakteristischen transparenten Farbschleiern im User Interface führen. Wobei davon nur die komprimierten Versionen der Satellitenfotografien betroffen sind, die es für eine flüssige Nutzung des Kartenprogramms bei gleichzeitig hoher Bildauflösung braucht. Diese Bildverarbeitung ist notwendig, um die Bilder je nach Zoom hoch- bis gering auflösend wiederzugeben und damit die Zeit zu beeinflussen, bis die Karte vollständig geladen und nutzbar ist.
Abb. 4: Screenshot des Participatory Glitch Counter-Archive
Abb. 5: Orbital Mirage 76°29’05”N 82°22’36”W
Es handelt sich bei den Glitches also um durch die Software hervorgerufene Komprimierungsfehler, statt um fehlerhafte Fotografien. Dies stützt auch die Analyse unterschiedlicher Glitches, die im Kartenarchiv über einen längeren Zeitraum an den gleichen Koordinaten dokumentiert wurden (Abb. 4). An ihr lässt sich nachvollziehen, dass die Fehler nach der automatischen Aktualisierung des Bildmaterials mit identischen Eigenschaften auftreten. Die Glitches werden durch die Bugs im Code erneut produziert. Ihr Erscheinungsbild passt sich lediglich den neuen Satellitenaufnahmen und der möglicherweise veränderten Erdoberfläche an.
Anhand des virtuellen Kartenarchivs lässt sich seit dem Frühjahr 2023 beobachten, wie die Glitches in unregelmäßigen Zeitabständen von der Bildfläche verschwinden. Dabei wird ein Prozess der Fehlerbehebung, sogenanntes Bugfixing, sichtbar, das offensichtlich nicht automatisch vonstatten gehen kann, sondern von Menschen, also Data Workers oder Programmierer*innen, geleistet wird. Auf diese Weise zeigt das Projekt, wie ein zunächst unreal wirkender Fehler mit sehr realen Handlungen verbunden ist, die durch menschliche und nicht-menschliche Interface-Operationen verknüpft sind. Denn so, wie es erst durch unterschiedliche Verbindungsprozesse zur Darstellung der Fehler im User Interface kommt, benötigt es die sinnliche Wahrnehmung von Nutzer*innen, welche Glitches als Fehler registrieren und diese, wieder über das User Interface vermittelt, in Form eines Fehlerberichts bzw. Bug-Reports an das Unternehmen weiterleiten.
Diesen komplexen Zusammenhängen widmet sich Orbital Mirage: »Do not bug-report, but preserve glitches. Set a marker at its coordinates and upload a dated screenshot of the glitch« (Abb. 4).Mit diesen Worten lädt die Arbeit zur Partizipation am Finden und Dokumentieren der Glitches ein. Eine Art Bughunting ohne Fehlermeldung – und ohne Preis. Die Glitches bilden einen un/realen Gegenentwurf zu der von der Software intendierten realen digitalen Repräsentation der Erde. Verbunden mit dem Archiv führt dies zu unerwarteten Affordanzen der digitalen Karte, die eine kritische Reflexion über die Funktionsweisen und Operativität der Software ermöglichen. Zum einen durch die angesprochene Zoomfunktion, zum anderen als subversive Archivpraxis durch die Speicherung von Fehlern und deren Abgleich über einen längeren Zeitraum. Orbital Mirage wird so zu einem un/realen Interaktionsraum, in dem technologisch-materielle, ökologische und sozioökonomische Fragen ebenso kulminieren wie die Vergänglichkeit dieser bemerkenswerten digitalen Artefakte.
AbstractDer Beitrag analysiert eine im Juni 2022 publizierte öffentlichkeitswirksame Dokumentation der Interaktion mit einer konversationellen KI – das Protokoll einer Gesprächssequenz zwischen Blake Lemoine, einem/r zweiten anonymen Google-Mitarbeiter*in und dem System LaMDA (Language Model for Dialog Applications). Auf dem Prüfstand steht nicht Lemoines vielzitierte Behauptung, dass das System LaMDA ein Bewusstsein aufweise, sondern die Analyse der Dialogsequenz dient als Ausgangspunkt einer Reflexion zur Konstitution von maschinellem ›Bewusstsein‹ als eine medienspezifische, verteilte Leistung, die sich als Interface-Effekt interaktiv an verschiedenen Schnittstellen zwischen Nutzer*innen und Maschinen entfaltet. Dabei wird insbesondere auf die Bedeutung kultureller Skripte als Vermittlungsinstanz und auf Testverhalten als interaktionale Routine in un/realen Gesprächssituationen eingegangen.
KeywordsKonversationelle KI, LaMDA, Large Language Models, Testen, Situation
Im Juni 2022, also noch vor der breiten gesellschaftlichen Debatte um ChatGPT (im November 2022 veröffentlicht) und vergleichbare textgenerierende KI-Modelle, machte der Google-Mitarbeiter Blake Lemoine Schlagzeilen mit seiner Behauptung, dass die von Google entwickelte konversationelle KI LaMDA (Language Model for Dialogue Applications) bewusstseinsfähig (sentient) sei und folglich als Person betrachtet werden sollte (vgl. Tiku 2022). Zum Zeitpunkt der Pressemeldung arbeitete Lemoine bei Google in der Abteilung für Responsible AI, die erst kurz zuvor (Dezember 2020 und Februar 2021) die beiden prominenten KI-Ethikforscherinnen Timnit Gebru und Margaret Mitchell entlassen hatte, was großes öffentliches Interesse und die Solidarität anderer Wissenschaftler*innen auslöste (vgl. Hao 2021). Es überrascht nicht, dass sich viele Medien auf die Geschichte stürzten, da sie zahlreiche Elemente vereinte, die eine gute Nachricht ausmachen: das Framing als weiterer Skandal bei Google, kombiniert mit einer bewährten Science-Fiction-Erzählung über eine empfindungsfähige KI, Lemoines exzentrischer Persönlichkeit und einer Form der Kritik, die leichter zu vermitteln ist als die Antizipation problematischer gesellschaftlicher Auswirkungen von KI-Technologien. In dieser Geschichte geht es um eine künstliche Intelligenz, die zum Bewusstsein erwacht und in den Händen eines empathielosen Technologiekonzerns leidet, aber in einem religiös gesinnten Software-Ingenieur einen Fürsprecher findet, der sich mit der Bitte um Unterstützung an die Öffentlichkeit wendet. Es überrascht ebenfalls nicht, dass Lemoine zunächst zeitweise beurlaubt und dann kurz nach der Veröffentlichung der ursprünglichen Geschichte entlassen wurde (vgl. Brodkin 2022). In der Folge nutzte er jede Gelegenheit, um seinen Fall mit den bekannteren Fällen von Gebru und Mitchell zu vergleichen, womit er sich als weiteren in Ungnade gefallenen Spitzenforscher im Bereich der KI-Ethik inszenierte, der im Angesicht der Macht in einem Akt der Parrhesie die Wahrheit gesagt hat (vgl. Lemoine 2022a). Auch Gebru und Mitchell reagierten öffentlich auf Lemoines ›Enthüllung‹ mit der Erklärung: »Lemoine’s claim shows we were right to be concerned — both by the seductiveness of bots that simulate human consciousness, and by how the excitement around such a leap can distract from the real problems inherent in AI projects« (Gebru/Mitchell 2022). Diese Einschätzung wurde in den Medien gelegentlich aufgegriffen, wobei Lemoine für seine scheinbar naive Überzeugung, dass LaMDA eine Seele habe, die es zu retten gelte, mitunter belächelt wurde (vgl. z.B. Tait 2022).
In meinem Beitrag werde ich trotz dieser in jeder Hinsicht berechtigten Bedenken an Lemoines Agenda den Fall näher beleuchten und ihn zum Ausgangspunkt für einige Überlegungen zur Entfaltung neuer Interaktionsdynamiken zwischen Menschen und konversationeller KI nehmen. Im Hintergrund stehen klassische Fragen wie: Wie kommt es, dass künstlichen Systemen so konsequent Intelligenz, Empfindungsvermögen und/oder Bewusstsein zugeschrieben wird? Inwiefern sind diese Zuschreibungen selbst ein Hinweis auf laufende Verschiebungen im Verständnis dieser Begriffe?1 Anhand der veröffentlichten Chat-Protokolle von Lemoines Gesprächen mit LaMDA möchte ich zeigen, dass die Konstitution von maschinellem Bewusstsein als eine medienspezifische, auf verschiedene Akteur*innen verteilte Leistung verstanden werden muss, die sich interaktiv an diversen Schnittstellen zwischen Nutzer*innen und Maschinen entfaltet. Die Zuschreibung sozialer Intelligenz – und in Zuspitzung: LaMDAs Status als Person – kann folglich in erster Linie als Interface-Effekt (Galloway 2012) konturiert werden, der erst »durch die Interaktion zwischen Akteur*innen vor Ort zustande kommt« (Marres/Sormani 2023: 90). Die hier gewählte Perspektive ist geprägt von Annahmen der Medientheorie und bis zu einem gewissen Grad der Science and Technology Studies, sodass Genealogien von deceitful media (Natale 2021), menschengestützter Künstlicher Intelligenz (Mühlhoff 2019) und sogar der klassische Topos der narzisstischen Verkennung, die Marshall McLuhan bereits in den 1960er Jahren als Medienlogik beschrieben hat (vgl. McLuhan 1994), zur Argumentation beitragen werden.
Aber zurück zu den Anfängen. Was ist LaMDA? Das unschuldig benannte Language Model for Dialog Applications, eine Familie von neuronalen Sprachmodellen, wurde erstmals auf Googles Entwicklerkonferenz I/O 2021 der Öffentlichkeit vorgestellt und als großer Durchbruch in der Konversations-KI angepriesen. Die Forschung an LaMDA stellte die Basis für den später von Google als Konkurrenzprodukt zu OpenAIs ChatGPT veröffentlichten Chatbot Bard dar.2 Das zuständige Forschungsteam strebt die Entwicklung von »safe, grounded, and high-quality dialog models for everything« (Cheng/Thoppilan 2022) an. Das bedeutet, dass LaMDA in der Lage sein soll, einen »open-domain dialog« (ebd.) zu führen, d.h. sich über jedes beliebige Thema fließend und in einer Weise zu unterhalten, die menschliche Gesprächspartner*innen als »sensible, interesting, and specific to the context« (ebd.) beurteilen. Gemessen an dem häufig an neue, d.h. auf Deep-Learning-Modellen basierenden, KI-Technologien gerichteten Anspruch, kontextbezogen Entscheidungen treffen und damit situationsadäquates Verhalten zeigen zu können, ist ein Open-Domain-Dialog mithin eine Art Königsdisziplin in der Bewertung der Leistungsfähigkeit maschineller Intelligenz. Sprachmodelle sind im Allgemeinen prediction engines oder, genauer gesagt, »systems which are trained on string prediction tasks: that is, predicting the likelihood of a token (character, word or string) given either its preceding context or (in bidirectional and masked LMs) its surrounding context« (Bender et al. 2021: 611). Sie folgen üblicherweise einem unüberwachten Ansatz des maschinellen Lernens und tendieren dazu, von Version zu Version immer größer zu werden, was sich sowohl auf die Anzahl der Modell-Parameter als auch auf die Größe der Trainingsdatensätze bezieht. Dies trifft insbesondere auf die sogenannten Transformer-Modelle zu, die im Regelfall mit Trainingsdaten aus dem Internet arbeiten. Zu diesen gehören auch die Generative Pretrained Transformer (GPT)-Modelle des Google-Konkurrenten Open AI.
Es kann mittlerweile als gesicherte, auch medienwissenschaftliche Erkenntnis gelten, dass die Leistung jeder Anwendung des maschinellen Lernens vom verwendeten Trainingsprozess abhängt, d.h. insbesondere von der Qualität der Trainingsdatensätze. Im Fall von LaMDA ist der Trainingsprozess in zwei aufeinanderfolgende Trainingsphasen unterteilt: Pre-Training und Fine-Tuning. »In the pre-training stage, [the developers] first created a dataset of 1.56T words — nearly 40 times more words than what were used to train previous dialog models — from public dialog data and other public web documents« (Cheng/Thoppilan 2022). Etwa die Hälfte dieser Daten stammt aus öffentlichen Foren im Internet, ein weiterer großer Teil aus der Wikipedia, programmierbezogenen Dokumenten und C4-Daten, wobei letzteres für »Colossal Clean Crawled Corpus« steht, einem Hunderte von Gigabyte umfassenden Datensatz aus »sauberen« englischsprachigen Internet-Texten.3 Die zweite Stufe des Trainings, das Fine-Tuning, umfasst aufgezeichnete Interaktionen zwischen einem »demographically diverse set of crowdworkers« (Thoppilan et al. 2022: 2) und LaMDA. Diese Interaktionen dienen dazu, den Gesprächsfluss zu verbessern, aber auch problematische Äußerungen und Antworten zu kommentieren, die eine sachliche Grundlage in externen Wissensquellen oder eine zusätzliche Prüfung benötigen, weil sie als rassistisch, sexistisch oder anderweitig unangemessen identifiziert wurden. Die Zielmetriken des Trainingsprozesses sind »Quality, Safety and Groundedness«, wobei Qualität weiter differenziert wird in »Sensibleness, Specificity, Interestingness (SSI)« (ebd.: 5). Hierbei ist wichtig anzumerken, dass alle Antworten vom System generiert und nicht von den Entwickler*innen vorgegeben werden, d.h. dass z.B. bei einer Sicherheitsüberprüfung kein manueller inhaltlicher Eingriff erfolgt, sondern die identifizierten problematischen Dialogsequenzen in eine zusätzliche Prüfschleife durch algorithmische »safety discriminators« (ebd.: 7) gehen.
Nach diesen kurzen Einblicken in den Trainingsprozess möchte ich im Folgenden einen genaueren Blick auf die veröffentlichten Chat-Protokolle zwischen Blake Lemoine, einem/r zweiten ungenannten Google-Mitarbeiter*in und dem LaMDA-System werfen. Hierbei handelt es sich um die Gesprächssequenzen, die Lemoine zu der Überzeugung (oder jedenfalls der öffentlich vertretenen Position) führten, dass LaMDA als Person betrachtet und ihm ein Anwalt zur Verfügung gestellt werden sollte. In einem langen Beitrag auf Medium vom 11. Juni 2022 stellt Lemoine zunächst fest, dass das folgende »Interview« mit LaMDA aus Gründen der »fluidity and readability« bearbeitet wurde, was für die vertretene Behauptung eindeutig problematisch ist, wenn man bedenkt, dass Flüssigkeit des Gesprächsablaufs einer der Zielvektoren des Trainingsprozesses ist und daher nicht durch einen intransparent bleibenden manuellen Bearbeitungsprozess gewährleistet werden kann (Lemoine 2022b). Tatsächlich ist unbekannt, wie sich die Interaktion tatsächlich und in situ abgespielt hat, da sie in neun aufeinanderfolgenden Sitzungen Ende März 2022 über eine interne Chat-Demo-Schnittstelle durchgeführt wurde. Lemoine selbst erklärt in einem kurzen Memo an seine Google-Kolleg*innen: »The specific order of dialog pairs has […] sometimes been altered for readability and flow as the conversations themselves sometimes meandered or went on tangents which are not directly relevant to the question of LaMDA’s sentience« (Lemoine 2022c). Damit stellt sich in diesem Fall, wie in vielen anderen KI-Testszenarien, das Problem, dass gerade »das lokale Kontingenzmanagement« nur teilweise in den Blick gerät, »einschließlich der dramaturgischen Verwendung der Unterscheidung zwischen Vorder- und Hinterbühne«, sodass im Resultat die »Gefahr der Verdinglichung«