23,99 €
Die Digital Humanities verstehen sich gerne als disruptiven Einbruch in das Feld des Hermeneutischen. Die Geisteswissenschaften wiederum verdächtigen die Digital Humanities der Kolonialisierung ihrer Interpretationskunst durch szientifische Methoden. Beide verkennen jedoch, wie sehr die Formen des Digitalen in den traditionellen Kulturtechniken der Literalität vorgebildet sind. Es gibt eine embryonale Digitalität akademischer Praktiken lange vor dem Einsatz der ersten Computer. In dieser Perspektive werden die zeitgenössischen Digital Humanities zu einer sinnvollen Erweiterung der Geisteswissenschaften. Diese Einsicht setzt allerdings eine Korrektur am geisteswissenschaftlichen Selbstbild voraus, die Sybille Krämer in zwölf Thesen pointiert entfaltet.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 364
Veröffentlichungsjahr: 2025
3Sybille Krämer
Der Stachel des Digitalen
Geisteswissenschaften und Digital Humanities
Suhrkamp
Zur optimalen Darstellung dieses eBook wird empfohlen, in den Einstellungen Verlagsschrift auszuwählen.
Die Wiedergabe von Gestaltungselementen, Farbigkeit sowie von Trennungen und Seitenumbrüchen ist abhängig vom jeweiligen Lesegerät und kann vom Verlag nicht beeinflusst werden.
Zur Gewährleistung der Zitierfähigkeit zeigen die grau gerahmten Ziffern die jeweiligen Seitenanfänge der Printausgabe an.
Um Fehlermeldungen auf den Lesegeräten zu vermeiden werden inaktive Hyperlinks deaktiviert.
eBook Suhrkamp Verlag Berlin 2025
Der vorliegende Text folgt der 1. Auflage der Ausgabe des suhrkamp taschenbuch wissenschaft 2455.
© Suhrkamp Verlag GmbH, Berlin, 2025Originalausgabe
Der Inhalt dieses eBooks ist urheberrechtlich geschützt. Alle Rechte vorbehalten. Wir behalten uns auch eine Nutzung des Werks für Text und Data Mining im Sinne von § 44b UrhG vor.Für Inhalte von Webseiten Dritter, auf die in diesem Werk verwiesen wird, ist stets der jeweilige Anbieter oder Betreiber verantwortlich, wir übernehmen dafür keine Gewähr. Rechtswidrige Inhalte waren zum Zeitpunkt der Verlinkung nicht erkennbar. Eine Haftung des Verlags ist daher ausgeschlossen.
Umschlag nach Entwürfen von Willy Fleckhaus und Rolf Staudt
eISBN 978-3-518-78106-7
www.suhrkamp.de
5Für Vanja und Tristan, die nächste Generation
Cover
Titel
Impressum
Widmung
Inhalt
Informationen zum Buch
Cover
Titel
Impressum
Widmung
Inhalt
Vorwort
These 1. Der ›Stachel des Digitalen‹: Wie die notwendige Korrektur am Selbstbild der Geisteswissenschaften und die Akzeptanz der Digital Humanities als methodische Erweiterung zusammenhängen
These 2. Ein Übergang von der alphanumerischen Literalität zur digitalen Literalität? Und was die Digital Humanities dazu beitragen (können)
These 3 . Gibt es die Frühform einer ›embryonalen Digitalität‹? Warum das Digitale computerunabhängig zu begreifen ist
These 4. ›Kulturtechnik der Verflachung‹ versus ›Tiefenrhetorik der Interpretation‹: Warum ist die artifizielle Flächigkeit kulturell und vor allem epistemisch so produktiv?
These 5. Jenseits des Narrativen: Was Datenbanken mit den gelehrten Praktiken traditioneller Geisteswissenschaften gemein haben
These 6. Das Diagrammatische im Digitalen: Was Ada Lovelace’ Computerprogramm, Alan Turings Maschinentafeln und das maschinelle Lernen der Convolutional Neural Networks miteinander verbindet
These 7. Vorgeschichten der Digital Humanities: Warum es nicht nur Roberto Busa (1913-2011) als Vater, sondern auch Josefine Miles (1911-1985) als Mutter der Digital Humanities gibt und warum Max Bense (1910-1990) ein Vordenker quantifizierender, computeraffiner Geisteswissenschaften ist
These 8. Datifizierung als symbolische Form: Von der ›Lesbarkeit der Welt‹ (Hans Blumenberg) zur ›Maschinenlesbarkeit und -operierbarkeit des Datenuniversums‹
These 9. Computer als forensische Maschinen: Warum
›
Close Reading
‹
und
›
Distant Reading
‹
keine Kontrahenten sind
These 10. Epistemologie der Latenz: Wie Interpretation und Komputation zusammenspielen. Ein ›
›
Close Reading
‹
‹ zweier Beispiele guter Praxis der Digital Humanities
These 11 .
›
Large Language Models
‹
: Warum verstehen Chatbots nicht, was sie ›antworten‹?
These 12. Durch das Digitale den Blick auf das Analoge verändern: Zwischen ›Maschinenraum des Geistes‹ und Digitaler Aufklärung
Literaturverzeichnis
Fußnoten
Informationen zum Buch
3
5
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
253
9
Dieses Buch ist kein Plädoyer, Digital Humanities zu praktizieren; die Autorin ist Philosophin und arbeitet traditionell, wenn auch das Lesen, Schreiben, viele Recherchen sowie der Briefverkehr sich zumeist als Bildschirmarbeit vollziehen. Doch es ist ein Plädoyer dafür, dass die traditionellen Geisteswissenschaften, indem sie die Digital Humanities als eine legitime und fruchtbare Erweiterung ihres Methodenrepertoires anerkennen, ein Stück weit ihr Selbstbild zu revidieren haben. Interpretation und Hermeneutik sind wichtig – für die Digital Humanities wie die Geisteswissenschaften überhaupt; doch deren Verabsolutierung zu Alleinstellungsmerkmal und Krone geisteswissenschaftlicher Arbeit geht fehl. Denn dadurch wird das sublime Band verdeckt, welches die überkommenen gelehrten Praktiken mit den Digital Humanities verknüpft. Dieses Band besteht darin, immer schon mit dem Medium zweidimensionalen Darstellens, also mit beschrifteten und bebilderten Flächen zu arbeiten, sei es in Schrift und Bild, in Musiknotation, Choreographie oder Film. Meine Vermutung ist: Es gibt eine embryonale Frühform des Digitalen lange vor Einsatz des Computers und verbunden mit der Kulturtechnik einer im Buchdruck verwurzelten alphanumerischen Literalität.
Vor diesem Horizont kann ein Verständnis für die Kulturtechnik der Digitalisierung und die Methoden der Digital Humanities den Blick auf die ›analogen‹ Geisteswissenschaften ändern, die rein analog allerdings nie gewesen sind. Das zu zeigen ist Anliegen dieses Buches. Der ›Stachel des Digitalen‹ besteht in der Inspiration, wenn nicht gar Nötigung zu einer Selbstkorrektur am überkommenen Bild geisteswissenschaftlicher Tätigkeiten.
Zweierlei ist noch gut zu wissen:
(1) Dies ist keine gelehrte, sekundärliteraturauswertende Arbeit; vielmehr soll die hier unternommene Verbindung von thetischer Zuspitzung und einem umgangssprachlichen Schreibstil, welcher den Jargon – soweit es geht – vermeidet und auch kein Vorwissen in Anspruch nimmt, Denkimpulse setzen; also die Bereitschaft hervorlocken, etwas Vertrautes auf andere Weise sehen und Perspekti10ven wechseln zu können. Daher die Form des Textes, die in Thesen und deren Kommentierung besteht.
(2) Die zeitgenössische Entwicklung Künstlicher Intelligenz, der Synthetischen Medien und der ›antwortenden‹ Chatbots hat das Schreiben am Buch ›überrollt‹, wird aber insbesondere in These 11 explizit erörtert und reflektiert.
Seit zwei Jahren ist mir die Online-Arbeitsgruppe ›Philosophie der Digitalität‹, die in der Zwischenzeit in eine Arbeitsgruppe der Deutschen Gesellschaft für Philosophie überführt wurde, Inspirationsquelle und Reflexionsraum.[1]
Ich danke Mitgliedern dieser Gruppe, Patrizia Breil, Christoph Durt, Eric Eggert, Jonathan Geiger, Gabriele Gramelsberger, Regina Müller, Jörg Noller, Christiane Schöttler, Christian Schröter sowie Anna Strasser, für viele Anstöße zum Nachdenken über Digitalität.
Sybille Krämer, Verlorenwasser und Berlin, im Januar 2025
11
Der ›Stachel des Digitalen‹: Wie die notwendige Korrektur am Selbstbild der Geisteswissenschaften und die Akzeptanz der Digital Humanities als methodische Erweiterung zusammenhängen
Die Zukunft der Geisteswissenschaften (Humanities; Sciences Humaines) hängt auch davon ab, ob es ihnen gelingt, die Digital Humanities als eine ernst zu nehmende Mitspielerin auf ihren Forschungsfeldern zu akzeptieren. Dies allerdings setzt die Bereitschaft zur Korrektur des geisteswissenschaftlichen Selbstbildes voraus; eines Selbstbildes, in dessen Zentrum Hermeneutik und Interpretation gerne zu Alleinstellungsmerkmalen und Schlüsselmethodiken verabsolutiert werden. Doch auch die Geisteswissenschaften handeln von Dokumenten, Monumenten, Artefakten und den Praktiken ihres Gebrauches. Diese zu erschließen, bedarf es eines ›Handwerkes des Geistes‹, welches zur Bedingung der Möglichkeit wird, Kulturen überhaupt beschreiben und verstehen zu können. Das Profil, die Reichweite und Grenzen dieser basalen geisteswissenschaftlichen Praktiken gründen in der konstitutiven Medialität und Materialität symbolischer Artefakte und deren kombinatorischen Verbindungen. Das ›Handwerk des Geistes‹ – und wir haben später zu zeigen, in welcher Weise dies wiederum wurzelt in einer ›Kulturtechnik der Verflachung‹ – liefert genau jenes Bindeglied, welches die Tradition der Geisteswissenschaften mit den Digital Humanities verbindet.
Die Leitidee also ist: Die Digital Humanities[1] ersetzen – selbstverständlich – die Geisteswissenschaften[2] nicht, sondern erweitern ihr Methodenarsenal, und zwar dann, wenn Forschungsfragen durch empirische Arbeit mit großen Datensammlungen bearbeitet werden können. Im Panorama vielfältiger geisteswissenschaftlicher Forschungspraktiken, welche noch nie monolithisch aufgegangen sind in hermeneutischer Interpretationsarbeit, bilden empirische 12und quantifizierende Verfahren in nicht wenigen Disziplinen eine sinnvolle Ergänzung. Allerdings darf nicht vergessen werden: Die sogenannten Geisteswissenschaften umfassen etwa 45 höchst unterschiedliche Fächer und gehen an ihren Rändern über in die Jurisprudenz, in die Sozial- und die Wirtschaftswissenschaften. Diese Diversität durchkreuzt bei der Frage, ob quantifizierende Methoden in den Geisteswissenschaften eine Rolle spielen können, jedwede Erwartung, die fachspezifischen Antworten über einen Leisten schlagen zu können. Eine gewisse Reserve gegenüber unserem Sprachgebrauch ist überdies geboten: Die Rede von den Geisteswissenschaften suggeriert eine illusionäre Einheit und drängt folgerichtig die Frage auf, mit welcher Berechtigung dann überhaupt von den Digital Humanities zu sprechen sei. Wenn wir im Folgenden also von ›Geisteswissenschaften‹ oder ›Digital Humanities‹ sprechen, ist diese Reserve gegenüber Vereinfachungen im Wortgebrauch – die gleichwohl unumgänglich sind – stets mitzudenken.
Doch ein methodologischer Kern der Digital Humanities lässt sich herausschälen: Von Menschen kaum mehr überblickbare und handhabbare Datenkorpora im Umfange kollektiver Teilgedächtnisse, die Worte, Schriften, Bilder, Fotos und Filme umfassen, können mithilfe computergenerierter, zumeist statistischer Verfahren auf implizite Muster im Datenmaterial hin analysiert werden und im Horizont insbesondere der Generativen Künstlichen Intelligenz[3] auch zu neuen Mustern kombinatorisch gefügt werden.
Die Akzeptanz der Digital Humanities durch die Geisteswissenschaften kann den Anstoß geben, ein tradiertes Selbstbild zu revidieren, das – in zugegeben holzschnittartiger Zuspitzung – darin besteht, Lesen und Interpretieren zum Königsweg geisteswissenschaftlicher Erkenntnis zu hypostasieren und als ihr Alleinstellungsmerkmal zu markieren und als deren Schlüsselmethodik noch gleich dazu. Dass dies ein Weg ist, der überhaupt erst gebahnt und gangbar wird durch die sorgfältige Erschließung geisteswissenschaftlicher Objekte in ihrer verkörperten Materialität und kontextuellen Situiertheit, wird allzu gerne übersehen. Doch es gibt keine Geisteswissenschaften, ohne dass raum-zeitlich situier13te Gegenstände wie Dokumente, Monumente und Artefakte aller Art gesucht, gesammelt, datiert, ausgezeichnet, klassifiziert, ediert, verglichen, kommentiert und archiviert werden. Akademische Gelehrsamkeit, deren klassischer Fokus symbolische Welten bilden, gewebt aus Texten, Bildern oder Musik, bleibt oftmals blind für ihr Angewiesensein auf Tätigkeiten, die gemeinhin unter dem Etikett ›Hilfswissenschaften‹ klassifiziert, wenn nicht gar abgeschoben und damit ein Stück weit unsichtbar gemacht werden in ihrer Grundlegung für die gelehrte Arbeit. Denken wir an Bibliothekswissenschaften, Buch- und Editionskunde, Paläographie, Epigraphik, Numismatik, Diplomatik etc., die in ihrer Empirizität gegenüber den klassischen, ›interpretierenden‹ Geisteswissenschaften eine Art von Schattendasein führen.
Und doch geht es hier nicht um eine Legitimierung der Digital Humanities, indem diese als eine neue Form hilfswissenschaftlicher Zuarbeit gedeutet werden. Markus Krajewski der die mediale Verwandlung der personalen Figur des Dieners in den digitalen Server untersucht hat, vertritt eine solche, nicht unelegante Deutung der Digital Humanities als Serviceleistung für die Geisteswissenschaften. Doch – so jedenfalls der Ansatz dieses Buches – die Digital Humanities bilden eben keine neue Hilfswissenschaft, sondern können und sollen zum integralen, allerdings interdisziplinär angelegten Bestandteil jener geisteswissenschaftlichen Disziplinen werden, in denen zentrale Forschungsfragen gestellt werden, bei deren Beantwortung und Reflexion quantifizierende, computergestützte Operationen mit großen Datenkorpora von Bedeutung sind. Was zweifelsohne nur durch Tuchfühlung mit informatischem Wissen überhaupt möglich ist. Obwohl die Rolle und Bedeutung ebensolcher Datenkorpora im Rahmen zeitgenössischer Künstlicher Neuronaler Netzwerke und des Deep Learning sich grundständig wandeln – und genau das wird zur Bühne, auf der die Digital Humanities ihren Auftritt haben –, gilt es, auch eine Kontinuität und Tradition zu akzentuieren: Denn Fluchtpunkt und Horizont dafür, dass zählende, berechnende Verfahren auch geisteswissenschaftlich von Belang sein können, bildet die Einsicht in ein grundständiges mediales Gegebensein, welches allen geisteswissenschaftlichen Forschungsobjekten zukommt (das gilt übrigens auch für die Mathematik – bildet diese nicht die Reinform einer Geisteswissenschaft? –, die immer schon mit der Erfindung sinnlich wahr14nehmbarer Zeichensysteme zur Verkörperung ihrer noetischen Gegenstände zur Entfaltung kam). Zu verstehen, dass die Digital Humanities eine sinnvolle Ergänzung des humanwissenschaftlichen Forschungsrepertoires bilden, wird also nur gelingen, wenn zugleich anerkannt wird, dass den Geisteswissenschaften das ›Geistige‹ in Medien symbolisch-materialer Verkörperungen gegeben ist. Doch was hat diese mediale Konstitution geisteswissenschaftlicher Forschungsobjekte und -tätigkeiten zu tun mit einer Legitimation der Digital Humanities?
Wo immer raum-zeitlich gegebene Dinge oder Strukturen vorhanden sind, kann auch gezählt werden. So ist es nicht verwunderlich, dass die Zahl, das Zählen und letztlich die Datenerhebung in den Geisteswissenschaften – und zwar von jeher – eine unersetzliche Rolle spielten: sei es in Fragen der Datierung von Kulturgütern und Ereignissen, in der Anlage von Werkverzeichnissen oder Konkordanzen, in der Erstellung von Stichwortregistern, Katalogen oder bibliographischen Indizes; diese Liste ließe sich fortsetzen.
Doch angesichts genau solcher Phänomene drängt sich ein Einwand auf. Was ist das überhaupt, was da gezählt wird? Es geht doch lediglich um Buchseiten, Erscheinungsjahre, Ereignisdatierung oder um Anzahlen und Abfolgen von Werken etc. Und natürlich sind auch Wörter und Sätze, ebenso wie Buchstaben und Silben – im Prinzip – zählbar. Doch was ist mit solchen Zahlenverhältnissen gewonnen, außer dem Skelett einer (terminologisch ausgedrückt) ›Metadaten-Infrastruktur‹, deren Prototyp allerdings die mit einer Zahl versehene, gedruckte Buchseite ist?
Im Rahmen der geisteswissenschaftlichen Ehrenrettung der Zahl, um die es uns hier (auch) geht, drängt viel eher ein Verdacht sich auf: Begegnet uns ein solcher Zug zum Quantifizierbaren nicht wieder in den allgegenwärtigen Rankinglisten wissenschaftlicher Betriebsamkeit, die nicht selten als (verzerrendes) Gütesiegel akademischer Befähigung gedeutet werden? Ist es nicht genau diese problematische Erfahrung eines Reputationserwerbs durch abzählbare Forschungsleistung, welche eine geisteswissenschaftliche Reserve gegenüber jedweder Form des Aufzählens, der Berechenbarkeit und der Quantifizierbarkeit generell geboten sein lässt? Eine Einstellung zugleich, die feinsinnig die Orientierung geisteswissenschaftlicher Arbeit an dem, was jenseits des Quantifizierbaren lokalisiert ist, plausibel macht und unterstreicht?
15Überdies scheint diese kritische Distanzierung gegenüber der Abzählbarkeit und Berechenbarkeit durch eine weitere Einsicht gestützt:
Nehmen wir an, dass Geist immer auch verkörpert ist in der Exteriorität sinnlich wahrnehmbarer humaner Artefakte und damit verbundener Praktiken.[4] Erscheint es dann nicht folgerichtig, die genuine Aufgabe der Geisteswissenschaften darin zu verorten, die Inkarnationen des Geistigen zu erkennen? Verkörperungen des Geistigen, die von den Schlacken ihrer physischen Materialisierung so zu befreien sind, dass das, was geistig ist, in Reinform und unverhüllt herauszuschälen und zu verstehen ist? Alles, was mit Bedeutung, Sinn und Verstehen zu tun hat, wäre gemäß dieser Einstellung gerade nicht als ein raum-zeitlich Gegebenes zu kategorisieren, das unmittelbar wahrnehmbar ist, sondern wäre etwas, das hinter oder unter der Oberfläche des Sichtbaren situiert und also verborgen und daher durch Interpretation überhaupt erst zutage zu fördern und zu erschließen ist. Was immer die Essenz, das Wesen, das Eigentliche ist, läge jedenfalls hinter den Phänomenen. Und ›Interpretation‹ – wir sind hier immer noch im Konjunktiv – wäre dann die Antwort auf die konstitutive Unsichtbarkeit und Entzogenheit des Wesentlichen, das von seiner raum-zeitlichen Erscheinung wie eine Tiefenregion von ihrer sichtbaren Oberfläche abgespalten ist.
Doch ist diese hier kursorisch umrissene Einstellung die einzig mögliche Option in der Untersuchung und Reflexion von Bedeutung, Sinn und Verstehen?
»Man suche nur nichts hinter den Phänomenen, sie selbst sind die Lehre«, bemerkte Goethe.[5] Genau an diesen Satz – übrigens das einzige wörtliche Zitat in seinem ganzen Werk – knüpft Ludwig Wittgenstein an. Wittgensteins Philosophieren zielt auf eine Kritik am philosophischen Gestus, »Erscheinungen durchschauen« zu 16müssen, um nach dem zu graben, was »unter der Oberfläche liegt«; denn zu verstehen ist, was nicht etwa verborgen, sondern offen vor Augen liegt.[6] Phänomene – und das ist es, was Goethe und Wittgenstein verbindet – sind nur auf einer Ebene angesiedelt: Sie haben nichts unter, hinter oder über, sondern nur: neben sich. Für Goethe wie für Wittgenstein ist im Umgang mit den Phänomenen daher das Hinschauen und Anschauen zentral. Was ist, liegt immer – irgendwie und im Prinzip – vor Augen; ist sinnlich rezipierbar oder kann – falls noch unentdeckt – wahrnehmbar gemacht werden. Und das gilt erst recht für all das, was sich zu Selbstverständlichkeiten in unserem alltäglichen Tun verdichtet hat und durch seine Gewöhnlichkeit unserer Aufmerksamkeit entgeht. Es bedarf also einer methodischen Anstrengung, Zurichtung und Instrumentierung – nicht unverwandt mit Husserls Idee der Epoché, welche Vorurteile und subjektive Meinungen außer Geltung zu setzen hat[7] –, um Phänomene wahrzunehmen und in ihnen etwas erkennen zu können.
Nun ist geisteswissenschaftliches Sehen zu einem Gutteil – jedenfalls für philologisch orientierte Fächer – Lesen. Fragen wir also: Was sehen und rezipieren wir, wenn wir einen Text lesen? Im geübten muttersprachlichen Lesen sind das bedeutungsvolle Einheiten, gebildet aus Worten, Sätzen, Satzfolgen, die semantisch zumeist als Ganzheiten aufgefasst werden. Doch im Schriftbild eines Textes liegt weit mehr vor Augen; nur nehmen wir gewisse Phänomene kaum wahr, sondern übersehen sie in der verständnisorientierten Lektüre. Das, was dabei übersehen wird, ist nur einer operativen, zur Interpretation zumeist querstehenden Perspektive zugänglich. Das ist eine Perspektive, welche nicht sinnvolle Ganzheiten erfasst, sondern in umgekehrter, nichtholistischer Richtung das Gegebene in Mikrostrukturen zerlegt und dabei zwischen kleinen, bedeutungslosen Einheiten die Wahrscheinlichkeiten ihrer Kombinationen errechnet und bearbeitet. Im verständigen Lesen bleiben wir blind – und müssen das auch – etwa für die Mikro-Relationalität des Buchstabennetzes, für jenes kombinatorische Gerüst kleiner morphologischer Elemente, aus denen die Textur eines Textes gewoben ist. Die statistischen Buchstabenrelationen bleiben denen, 17die in ihrer alphabetisierten Muttersprache lesen und schreiben, unbewusst, obwohl sie diese beständig produzieren bzw. reproduzieren.
Vorhanden – wenn auch nicht zuhanden – ist dieses Gewebe der Schrifttextur zweifellos, und die Etymologie von ›texere‹ (›weben‹, ›flechten‹) erinnert daran. Es gibt eine im Prinzip mathematisch rekonstruierbare Struktur im Schriftbild alphabetischer Textualität, auch wenn just deren Unsichtbarkeit und Unzugänglichkeit zum Garanten flüssigen Lesens wird.
Der russische Mathematiker Andrej Andreevich Markov[8] hat schon 1913 Buchstabensequenzen der russischen Literatur errechnet – seine statistische Analyse von Puschkins Eugen Onegin ist dafür exemplarisch – und daraus ein Verfahren entwickelt (die sogenannten Markov-Ketten), mit dem eine noch unbestimmte Zukunft probabilistisch errechnet werden kann.[9] Alan Turing wiederum konnte die statistische Buchstabenkombinatorik kryptologisch nutzen, als er die verschlüsselten Funksprüche der deutschen Marine entzifferte und so zum Sieg über Nazi-Deutschland beitrug.[10]
Die generativen Fähigkeiten der gegenwärtigen Chatbots der Künstlichen Intelligenz sind ohne ihre statistischen Operationen mit der Zerlegung von Texten in Korpora von Token, also kurzen Buchstabenzusammenstellungen, die unserem Bewusstsein im Textumgang entgehen, nicht zu erklären. Wir kommen darauf in der elften These zurück.
Diese hier nur angerissenen Traditionslinien machen deutlich, dass es nicht einfach um Sprache, sondern vielmehr um verschriftete Sprache geht. Es ist die Schriftlichkeit, welche den Ansatzpunkt bildet und jene Kontinuität stiftet, die die Frühformen des Digitalen mit ihren zeitgenössischen Verlaufsformen verbindet. Und selbstverständlich ist die Textualität und Schriftnatur der Sprache mit allen ihren Implikationen das pulsierende Gravitationszentrum nahezu aller geisteswissenschaftlichen Arbeit. In der Schriftlichkeit begegnen sich Geisteswissenschaften und Digitalität. Eine merk18würdige und doch augenfällige Allianz, die noch allzu selten gesehen und analysiert wird.
Auch der Gedanke einer Kombinatorik, die von möglichen Anordnungen zwischen schriftlichen Zeichen aller Art handelt, kommt hier ins Spiel. Leibniz hat in seiner ars combinatoria die Vision einer universellen kalkülisierenden Kombinatorik des Denkens entwickelt.[11] In einer nichtvisionären, pragmatisch realisierbaren Variante hat er diese Idee dann auf bereichsspezifische und partikuläre Kalküle, die der Mathematik und Logik neue Perspektiven der Berechenbarkeit eröffneten, ›heruntergebrochen‹.[12] (Die Unrealisierbarkeit seiner Vision einer universellen Denkmaschine, welche automatisch über die Korrektheit jedes vorgelegten Satzes entscheidet sowie alle möglichen wahren Sätze generiert, trat mit Kurt Gödels[13] Einsicht in die Unvollständigkeit formaler Systeme zutage.) Das Technisch-Maschinenhafte an kalkülisierbaren, kombinatorischen Operationen – und das ist der springende Punkt – war Leibniz von Anbeginn klar. Deshalb hat er Reichweite und Produktivität des Kombinatorischen auf die Felder formalschriftlicher Artikulation begrenzt.[14]
Doch heute wissen wir: Die maschinelle Prozessierbarkeit des Kombinatorischen zeigt sich auch in der Verarbeitung natürlicher Sprachen. Um welche alphabetisch verschriftete Nationalsprache es sich handelt, kann anhand der Wahrscheinlichkeiten ihrer Buchstabenverkettungen maschinell mit großer Treffsicherheit ermittelt werden, ohne dass die Maschine dafür irgendeine Form von Sprachverständnis benötigt. Eine Treffsicherheit, die steigen wird mit Anzahl und Umfang der in dieser Sprache vorliegenden maschinenzugänglichen Texte. Die berechenbare Regelmäßigkeit im ›Bauplan‹ einer Schriftsprache und das Verstehen dieser Sprache treten auseinander. Buchstabenstatistik und Textinterpretation werden zu zwei unterschiedlichen Perspektiven der Betrachtung verschrifteter Sprachen.
Jorge Luis Borges hat den Gedanken, das natürlichsprachliche Universum sinnvoller Texte durch bloße Buchstabenkombinato19rik zu generieren, in seiner ›Bibliothek von Babel‹ ad absurdum geführt.[15] Eine solche, durch pure Zeichenkombinationen zu erwürfelnde Bibliothek müsste mehr Bücher enthalten, als es Atome im Universum gibt; sie müsste ›unendlich‹ sein. Und doch eröffnet die kombinatorische Perspektive einen Pfad, allerdings angewendet nicht auf alle möglichen, sondern nur auf die textuell verwendeten, empirischen Buchstabenkombinationen. Ein Pfad, den zuerst die Linguistik, dann die Künstliche Intelligenz bahnten und der heute mit den zeitgenössischen Chatbots der GPTs – den Generative Pre-trained Transformers[16] – eine erstaunliche Dynamik technischen Fortschreitens entwickelt.
Schon Wittgenstein signalisierte in seinem Bestreben, Sinn und Bedeutung aus ihrem ätherisch-immateriellen Dasein herauszulösen und in realen Sprachspielen zu lokalisieren, dass Bedeutungen nur innerhalb sich konkret vollziehenden Sprachgebrauches entstehen und zu finden sind. Die Bedeutung eines Wortes wird zum Inbegriff seiner kontextuellen Verwendungen und damit jener Wortfelder, in denen dieses Wort auftritt. Genau das ist der Ansatzpunkt eines neueren, informatisch orientierten sprachwissenschaftlichen Untersuchungsfeldes, der Distributionellen Semantik.[17] Eine Art von Linguistik übrigens, die ihre Genese aus der Schriftlichkeit nie geleugnet hat. Die distributionelle Betrachtung erschließt aus den Wortumgebungen, in denen Wörter oder Sätze platziert sind, auf deren Bedeutung. Wieder spielt hier das Prinzip der statistischen Verteilung eine Rolle – in diesem Falle von Worten oder Wortkombinationen. Dass dieses Verfahren dann in der Konstruktion von Suchmaschinen angewendet wird, die große Datenkorpora zu durchsuchen haben, liegt auf der Hand. Mit den ›Deep Learning‹-Verfahren, bei denen Künstliche Neuronale Netzwerke aus Beispielen anhand riesiger Datenkorpora lernen, spezifische Outputs mit einer gewissen Wahrscheinlichkeit zu erzeugen, entstehen Potenziale, die als Extrapolation und Radikalisierung dieser kombinatorischen – distributionellen – Perspektive verstanden werden können.
Prädiktive Algorithmen, die aus Daten der Vergangenheit auf zukünftige Ereignisse schließen und entsprechende Vorschläge machen, sind uns von der Autokorrektur des Smartphones vertraut. 20Algorithmen, die als so genannte Large Language Models zum Einsatz kommen, radikalisieren diesen Ansatz durch die unüberschaubar großen Trainingsdatensammlungen, die ihrer Modellierung zugrunde liegen.
Doch worauf es bei alldem ankommt, ist, dass die Operationsbasis die bedeutungslosen Mikro-Einheiten sind. Es geht um Relationen innerhalb kleiner Buchstabengruppen, deren Nachfolge- und Kombinationswahrscheinlichkeiten berechnet werden. Die maschinell generierten Texte werden von den Maschinen, die sie erzeugen, nicht verstanden. Alles, was in der maschinellen Bearbeitung geschieht, beruht auf errechneten Auftretenswahrscheinlichkeiten. Es geht um Statistik, nicht um Sinn oder Bedeutung. These 11 wird auf diese jüngsten Entwicklungen Künstlicher Intelligenz zurückkommen. Hier genügt es, wenn deutlich geworden ist, dass die Perspektive der Kombinatorik von hoher Aktualität und auch Produktivität ist, wenn es darum geht, mit Sprachdaten unterhalb der Schwelle des Bedeutungsverstehens zu operieren. Wenn ein großer Teil des Kulturgutes einer Gesellschaft, also der Inbegriff dessen, was in ihren symbolisch-textuellen Äußerungsformen gegeben ist, datifiziert wird – und genau das bildet einen Nukleus der Digitalisierung –, so ist zugleich klar, dass diese Datenkorpora ein empirisch bearbeitbares und in den Mikro-Relationen zu berechnendes Feld eröffnen. Für die Forschenden geht es immer um Sinnzusammenhänge, gegeben durch die jeweilige Forschungsfrage; für die Maschine geht es um Berechnungen der statistischen Tendenzen. Muss dabei noch einmal betont werden, dass Zahlen und Rechenergebnisse niemals an sich bedeutsam, sondern zu interpretieren sind, damit sie überhaupt etwas zählen und berechnen und zur Erkenntnis beitragen können?
Den bisherigen Überlegungen liegt zugrunde, dass die entscheidende Frage für eine Anerkennung der Digital Humanities ihr möglicher Beitrag zu empirisch sondierbaren Fragestellungen ist, die anhand computergenerierter Analyse menschenunüberschaubarer Datenkonvolute erforschbar sind. Jetzt zeichnet sich dabei eine erste Präzisierung ab: Dieser Beitrag wird auf dem Feld kombinatorischer, makroskopischer oder mikroskopischer Analysen liegen und wahrscheinlich auch nur auf diesem Feld. Die Hauptanstrengung der Digital Humanities wird dann darin liegen (müssen), For21schungsfragen, die in letzter Instanz mit der Erklärung und dem Verstehen humaner Praktiken zu tun haben, so zu operationalisieren, dass diese maschinenbearbeitbar werden. Und die Linie, die den Bereich, wo das möglich ist, von dem unterscheidet, wo das unsinnig wird, wird eine bewegliche Grenze sein, die nicht vorab zu ziehen oder gar zu definieren, sondern nur im forscherischen Tun praktisch auszuloten ist.
Wir sprechen vom ›Stachel des Digitalen‹, der für die traditionelle Auffassung von den Geisteswissenschaften deshalb schmerzlich sein kann, weil es ein vertrautes Bild zu verabschieden gilt, welches zutiefst verwoben ist mit dem Selbstverständnis der Geisteswissenschaften und geradezu als deren Common Sense gelten kann; und dies übrigens auch außerhalb der Geisteswissenschaften selbst. Das ist die übliche Verabsolutierung – oder sollten wir eher sagen: ›Verklärung‹? – von Interpretation und Hermeneutik zu geisteswissenschaftlichen Höhenzügen. Zweifellos geht es nicht um Ersetzung und Verdrängung der Interpretation – übrigens ist kaum ein Konzept so ungeklärt wie das der Interpretation –, sondern darum, deren Alleinvertretungsanspruch für die Charakterisierung geisteswissenschaftlicher Arbeit zu beschneiden. Dabei bleibt selbstverständlich, dass empirische Arbeit – ob innerhalb oder außerhalb der Geisteswissenschaften – niemals auskommt ohne Deutung und Interpretation, weil Zahlen und Daten per se nichts besagen.
Doch die Gelenkstelle unseres Arguments ist nicht diese – im Grunde selbstverständliche – Verschränkung von Empirizität und Interpretation, sondern ein Bewusstsein zu schaffen für die unhintergehbare Materialität symbolischer Artefakte. Denn was immer materiell ist, ist im Prinzip auch in einer quantifizierbaren Perspektive zu betrachten. Was für die Objekte der Archäologie, was für die Bilder der Kunstgeschichte und die Instrumente und Partituren in der Musikwissenschaft ziemlich unproblematisch gilt – dass sie immer auch Dinge in Raum und Zeit sind –, das bildet auch eine genuine Dimension im philologischen Umgang mit Texten.
Der Zugang zur Materialität von Texten bildet deren unhintergehbare Medialität. Texte sind nur in spezifischen Formen ihrer medialen Instantiierung zu haben – eine Medialität, die zugleich präformiert, wie mit Texten überhaupt umgegangen, was mit ihnen gemacht werden kann. Doch gerade dieser Sachverhalt, dass ein Text in variierenden Medien gegeben sein kann, befördert einen 22so naheliegenden wie auch problematischen Anschlussgedanken: Es ist die Vorstellung, der Text sei eine immaterielle Entität, gerade deshalb, weil er nur in unterschiedlichen materiellen Medien wie Handschrift, Druck, Digitalversion etc. wahrnehmbar, zugänglich, reproduzierbar und distribuierbar ist. Doch diese Vorstellung greift zu kurz. Medienkritische Studien im letzten Drittel des 20.Jahrhunderts haben gezeigt, dass Gedanken und Gehalte nicht immun oder auch nur vorgängig sind gegenüber dem Medium, in dem sie artikuliert werden. Die Medienwende, zentriert um die Entdeckung des Unterschieds von Mündlichkeit und Schriftlichkeit,[18] ist eine der nachhaltigsten paradigmatischen Neuorientierungen[19] innerhalb der Geisteswissenschaften im letzten Jahrhundert. Medien konfigurieren oder konstituieren gar in ihrem sozialhistorischen Gebrauch, was und wie etwas überhaupt denkbar, ausdrückbar, kommunizierbar ist.
Dass Medien dasjenige, was sie vermitteln, zugleich auch konturieren und prägen, kann hier nicht entfaltet werden. Gleichwohl grundiert die Annahme einer – allerdings kulturhistorisch eingebetteten – Prägekraft der Medialität symbolischer Artefakte und Operationen alles, was in diesem Buch entwickelt wird. Hier mag ein Beispiel genügen, um das Band hervortreten zu lassen, das Medium und Gehalt, Mittler und Vermitteltes verbinden. Wir greifen dabei zurück auf das Verhältnis von Sprache und Schrift, gerade weil die ›Schriftnatur‹ von Zeichen und Daten konstitutiv sein wird für unsere Überlegungen.
Was liegt näher, als davon auszugehen, dass die gesprochene Sprache aus Phonemen als kleinsten vorsemantischen Bausteinen aufgebaut ist, genauso, wie das alphabetische Schriftbild sich aus Buchstaben, also bedeutungslosen Elementareinheiten zusammensetzt? Und da wir schon sprechen, ehe wir – wenn überhaupt – schreiben lernen, drängt der Schluss sich auf, dass das Phonem zuerst vorhanden ist und dann im Nachhinein – eine alphabetische Verschriftung vorausgesetzt – graphisch als Buchstabe aufgezeichnet werden kann. Diese Auffassung von der Vorgängigkeit des Phonems 23gegenüber dem Graphem und damit der mündlichen Sprache gegenüber der Schrift wurde zur Blaupause für das, was unter Schriften überhaupt zu verstehen sei: Schriften gelten als aufgeschriebene mündliche Sprache; so jedenfalls lautet die im repräsentativen und kanonischen Handbuch Schrift und Schriftlichkeit. Writing and Its Use gegebene Schriftdefinition.[20] Diese eurozentrische, auch alphabetzentrierte Sicht, welche Schriften definitorisch an die Transkribierung des Sprechens bindet, verdeckt die mannigfaltigen Systeme und Anwendungen von Schriften, welche gerade keine Notationen der gesprochenen Sprache darstellen,[21] auch wenn sie wie bei Zahlenschriften nationalsprachlich verlautiert werden können. Denken wir an Partituren und Choreographien, an mathematische und logische Zeichensysteme, an die Formelsprachen der Naturwissenschaften, nicht zu vergessen die Programmiersprachen, die immer unaussprechliche Schriften sind, oder das Binäralphabet.
Wenn nun ein Notationssystem zur räumlichen Fixierung des Gesprochenen eingesetzt wird, somit zum Typus einer phonetischen Schrift gehört – und das ist bei den vielfältigen Versionen von Alphabeten zweifellos der Fall –, dann eröffnet diese Notationsform einen Spielraum symbolischer Kombinatorik ohne mündliches Vorbild. Die grundlegende Verdauerung flüchtiger Kommunikation durch eine phonetische Schrift ist zweifellos ein Medienumbruch ersten Ranges. Und doch gehen selbst phonetische Schriften niemals auf in ihrer Funktion der Fixierung mündlicher Rede; vielmehr entfaltet der Graphismus der Schrift einen innovativen Möglichkeitsraum des Schriftumgangs, für den es im mündlichen Sprechen kein Analogon gibt. Das kulminiert im Kreuzworträtsel. Solche innovativen Spielräume eröffnen sich erst recht für komplexe Strukturen höherstufiger Kognition: So in der Arbeit am Begriff, in der Architektur von Argumenten, beim Definitionshandwerk der Lexika oder als Übersetzungsmanual für Wörterbücher. Das Schriftmedium wird zu einer Bühne, auf der ganz neue Sprachspiele im Sinne Wittgensteins möglich sind und aufgeführt werden können.
Noch eine weitere Überlegung relativiert die Idee, dass im Verhältnis von Sprache und Schrift Letzteres nur ein Sekundärsystem 24sei. Es scheint selbstverständlich, dass Menschen eine Sprache haben. Doch Sprachen als eine Art von Gegenständen aufzufassen, kann ihrerseits als eine Folgewirkung ihrer schriftlichen Aufzeichnung gedeutet werden. Eingebettet in soziale Interaktion, ist Kommunikation ein expressives Gesamtereignis, bei welchem Gestik, Mimik, Prosodie, Deixis und Verbalität zusammenwirken, um in diesem Zusammenspiel etwas zu zeigen und zu verstehen geben. Daher kristallisiert erst die phonetische Verschriftung einen einzelnen Kommunikationskanal aus diesem Gesamtereignis heraus, indem der verbale Strang entzeitlicht und verräumlicht wird. Erst jetzt ist das Gesprochene geronnen zu einer beobachtbaren, archivierbaren und transportierbaren Quasi-Gegenständlichkeit: ›Der‹ Text ist entstanden und mit ihm eine beobachtbare, analysierbare Form von Sprache. Jacques Derridas so ingeniöse wie auch provozierende Einsicht, dass die Schrift der Sprache vorausgehe,[22] findet hierin ihr medientechnisches Fundament und eine bemerkenswerte Plausibilität. Erst die Verschriftung lässt aus dem Fluxus des Sprechens ›die‹ oder ›eine‹ Sprache als selbstständiges, solitäres Medium der Kommunikation hervortreten. Reifiziert die phonetische Schrift überhaupt erst menschliche Kommunikation zur Beherrschung ›einer‹ Sprache?
Die abendländische Schriftreflexion jedenfalls ist – mit Ausnahmen – diesen Weg der Substantivierung und Substanzialisierung der Sprache gegangen. In der Folge vollzog dann die Philosophie einen ›linguistic turn‹, bei dem sie zugleich blind bleiben konnte dafür, dass ›die Sprache‹, welche sie zum transzendental ausgezeichneten, letztbegründenden Fundament hypostasierte, genau genommen das Produkt einer spezifischen Form von Schrift ist – einer Schrift, deren Unterschied zum fluiden Sprechen ihr graphisch-kombinatorischer Anordnungscharakter ist.[23]
Worauf es bei diesem Zusammenhang zwischen Schriftlichkeit, Sprache und Textualität ankommt, ist, zu verdeutlichen, wie die kulturalistische Materialität von Texten – und übrigens aller symbolischen Artefakte, sofern sie diskretisiert werden – überhaupt zu verstehen ist. Diese Materialität des Textes gründet in räumlichen – gewöhnlich zweidimensionalen – Anordnungen in Gestalt 25der Relationen zwischen den sichtbaren Graphemen. Es geht um eine Materialität, die in wahrnehmbaren Strukturen, Relationen, Korrelationen und Koexistenzen gegeben ist. Genau deren Kombinatorik umreißt das Einsatzfeld philologisch arbeitender Digital Humanities.
Fassen wir zusammen: Die Bedingung der Möglichkeit der Digital Humanities bildet die kulturalistische Materialität, die einen Grundzug im Ökosystem sozialer Praktiken bildet. Dass diese nichtnaturalistische Materialität gerade auch die gelehrten Arbeitsweisen der Akademie ein Stück weit konturiert, dass sie viele – wenn nicht gar alle – Spielarten geisteswissenschaftlicher Interpretationstätigkeiten überhaupt erst eröffnet: Darin besteht der Stachel des Digitalen, sozusagen der ›wunde Punkt‹, der für eine das Geistige als Inkarnationszentrum hypostasierende Geisteswissenschaft mit der Anerkennung der Verfahren der Digital Humanities verbunden ist. Digitale Aufklärung heißt dann immer auch: die Unhintergehbarkeit der Materialität und Medialität kultureller Objekte offenzulegen und kritisch zu reflektieren. Für diese Offenlegung werden die Digital Humanities Schritt für Schritt immer bedeutsamer.
26
Ein Übergang von der alphanumerischen Literalität zur digitalen Literalität? Und was die Digital Humanities dazu beitragen (können)
Es ist zwischen der Kulturtechnik digitaler Literalität, die das ganze Ökosystem geisteswissenschaftlicher Arbeit betrifft, und den Digital Humanities zu unterscheiden. Die europäischen Geisteswissenschaften sind aufs Engste verwoben mit den Kulturtechniken des Alphabets und des Buchdrucks. Die zeitgenössische Digitalisierung realisiert einen kulturtechnischen Umbruch, die Fortbildung der alphanumerischen Literalität zu einer digitalen Literalität wird zum Erfordernis der Zeit. Die Digital Humanities bilden in diesem Kontext keineswegs – wie oft angenommen – ein ›großes Zelt‹, unter dem sich alles versammelt, was irgendwie mit digitalen Arbeitsformen Berührung hat. Sondern die Digital Humanities sind präziser zu bestimmen als eine informatisch durchdrungene Forschungsmethode, welche auf die Erstellung, Analyse und Visualisierung großer Datenkorpora im Kontext geisteswissenschaftlicher Fragestellungen zielt. Digital Humanities erweitern das Methodenrepertoire, aber ersetzen es – selbstverständlich – nicht. Die Gretchenfrage ist, welche Rolle quantifizierenden, berechenbaren Verfahren in geisteswissenschaftlichen Forschungen überhaupt zukommen kann. Genau diese Rolle ändert sich mit der zeitgenössischen Option einer apparativen Durchforstung von Menschen nicht mehr überblickbarer Datenbestände.
Die Unterscheidung von Zivilisation und Kultur hat gerade im deutschsprachigen Raum Tradition: ›Zivilisation‹ gilt als Inbegriff materieller Lebensbedingungen, die mit den Potenzialen von Technik und Wissenschaft verbunden sind; ›Kultur‹ dagegen wurde allzu lange assoziiert mit dem Insgesamt der immateriellen Güter und Werte einer Hoch- und Bildungskultur, an denen die Mitglieder einer Gesellschaft partizipieren – wenn auch in ersichtlich unterschiedlicher Weise. Angesichts dieser Tradition wundert es nicht, dass gerade in der deutschen Debatte um die Jahrtausendwende ein Konzept von Kulturtechnik konturiert und auch etabliert wurde, 27dessen kritische Stoßrichtung abzielte auf eine grundständige Revision eines ›vergeistigenden‹ Konzeptes von Kultur.[1]
Angeknüpft wird dabei an ein längst vergessenes Verständnis von Kultur, welches in der Etymologie von lateinischen Worten wie colere, cultor, cultura, cultura agri noch nachhallt: Ein Konzept von Kultur, das orientiert ist an dem praktischen, der Fruchtbarkeit förderlichen Umgang mit Dingen und Verhältnissen, die unsere Lebensform als eine menschliche Lebenswelt konstituieren – prototypisch ausgebildet in der landwirtschaftlichen Bodenpflege.[2]
Nun haben schon im letzten Drittel des 20.Jahrhunderts gerade poststrukturalistische Auffassungen eine Umorientierung im Kulturkonzept evoziert im Horizont ihrer Diagnose einer unhintergehbaren Textförmigkeit des Kulturellen. Die imaginäre Immaterialität der Kulturgüter wurde damit relativiert zugunsten der Einsicht in die unabdingbare, doch immer auch materiale Rolle von Kommunikationsmedien, allen voran – in einer deutlich eurozentrisch gefärbten Sicht – des Gebrauches der alphabetischen Schrift. Kultur nahm die Züge eines Textanalogons an, geradezu prototypisch ausgedrückt in Derridas Diktum, dass es nichts außerhalb von Texten gäbe.[3] Eine Diskursivierung von Kultur war die Folge, die sich feinsinnig verbinden konnte mit dem linguistic turn in der Philosophie, bei dem die Sprache – und nur die Sprache unter Ausklammerung der Bilder – zum Gravitationszentrum des menschlichen In-der-Welt-Seins stilisiert wurde. Ein textanaloges Kulturverständnis bleibt jedoch eingeschlossen in das Gravitationsfeld von Sprache, Kommunikation, Sinn und Interpretation.
Davon zu unterscheiden ist jenes in Abgrenzung zu Spielarten des Naturalismus ausgearbeitete Konzept eines ›methodischen Kulturalismus‹.[4] Im expliziten Abrücken von jedweder Diskursivierung von Kultur wird darin herausgearbeitet, dass Kultur hervorgebracht wird im alltäglichen und außeralltäglichen Handeln von Menschen, welches der Sprache bedarf, doch darin gerade nicht aufgeht. Denn das Handeln, auf welches der methodische Kulturalismus fokussiert, ist primär technisch instrumentiert. War es im Poststrukturalismus die Sprache, so wird hier die technische 28Apparatur zum Gravitationsfeld sozialen Tuns. Und dies gilt gerade auch für die akademische Praxis und das Forschungshandeln: Denn Forschungsgegenstände werden durch ihre methodisch-technische Zurichtung – das hatten bereits die ›Laboratory Studies‹ gezeigt[5] – überhaupt erst hervorgebracht.
Im Gegenzug sowohl zur diskursivierenden Vertextung von Kultur als auch zu ihrer technisch-instrumentellen Konfigurierung entsteht in der deutschen Debatte um die Jahrtausendwende also wie erwähnt ein kulturtheoretischer Ansatz, der anknüpft an den lange im Abseits stehenden Begriff der ›Kulturtechnik‹[6] und der eine beachtliche internationale Resonanz findet.
Kultur ist, was wir tun. In den vielzähligen Praktiken des Alltags folgen wir Routinen, Regeln und Ritualen, in denen Funktionskreise zwischen Menschen, Techniken und Symbolsystemen sich bilden und aufrechtzuerhalten sind. Dieses operative Zusammenwirken in der Ko-Performanz personaler, symbolischer und technischer Elemente bildet den Nährboden von Kultur. Damit erodiert die Demarkationslinie zwischen ›hoher‹ und ›niederer‹ Kultur.
Es sind vor allem drei Impulse, welche für diese kulturtechnische Perspektivierung von Kultur typisch sind; es sind zugleich die Impulse, welche auch die Überlegungen dieses Buches grundieren:
(i) Es gibt eine performative Fluidität von Kultur; diese erschöpft sich nicht in den Werken, Dokumenten und Monumenten, sondern lebt und tritt zutage in den Vollzügen und Routinen, aus denen unsere alltäglichen Lebensformen emergieren. Die Regeln, die die kulturelle Dynamik einhegen und strukturieren, gehen nicht apriorisch den Praktiken voraus, sondern sind ihrerseits Produkt ebensolcher Praktiken.
(ii) Die Medialität des historisch je situierten Weltverhältnisses ist eine Grundbedingung von Kultur und eine nahezu anthropologische Dimension der conditio humana. Zugleich ist ein Medienfundamentalismus bzw. -determinismus zu vermeiden: Medien sind nicht zu monokausalen Urhebern von Kultur, Gesellschaft oder Geschichte zu verklären.
(iii) Gegenüber einer Hypostasierung der letztbegründenden Kraft 29der Sprache für die Kultur ist nicht nur die ästhetische, sondern auch die epistemische Kraft der Bilder und der Visualisierungen anzuerkennen bzw. zu rehabilitieren. Das Sagen und das Zeigen bilden zwei miteinander interagierende Dimensionen von Kommunikation, Erkenntnis und Verständigung.
Die kritische Revision des Kulturkonzeptes führte zur Gründung des Hermann von Helmholtz-Zentrums für Kulturtechnik in Berlin.[7] Die acht Gründungsmitglieder vertraten mehrere geisteswissenschaftliche Disziplinen, so dass eine Transdisziplinarität dieser kulturtechnischen Neuakzentuierung von Anbeginn eingeschrieben war. Acht Jahre nach Gründung des Zentrums wurde ein Internationales Kolleg für Kulturtechnikforschung und Medienphilosophie an der Bauhaus Universität Weimar ins Leben gerufen.[8] Die in Berlin und Weimar entwickelten Konzepte von Kulturtechnik gehören übrigens zu den wenigen Ansätzen, die vom deutschen Diskurs international ausstrahlten und in den angelsächsischen kulturhistorischen und -theoretischen Debatten rezipiert und fortgebildet wurden.[9]
Doch was bedeutet ›Kulturtechnik‹ als ein zeitgenössisches Konzept der Beschreibung und Reflexion von Kultur? Das kann – ohne jeden Vollständigkeitsanspruch – in mindestens fünf Hinsichten akzentuiert werden, die mit den Stichworten Operativität, Medialität, Episteme, Partizipation und Rekursivität gegeben sind:[10]
Operativität: Kulturtechniken sind körperlich habitualisierte und routinisierte, lehr- und lernbare operative Verfahren, die auf dem verteilten Zusammenwirken humaner, technischer und 30symbolischer Elemente beruhen, die sich zum Funktionskreis distribuierter Akteurseigenschaften verbinden. Schon Whitehead[11] hatte festgestellt, dass der zivilisatorische Fortschritt sich auch darin zeigt, wie viele Handlungsvollzüge in einer Gesellschaft ausgeübt werden können, ohne dass darüber nachzudenken sei. Es ist nicht einfach so, dass Sinn und Bedeutung unhintergehbare Konstanten im menschlichen Tun verkörpern; vielmehr beruhen viele Operationen auf der Interpretationsneutralität, auf Entzug und Absehung von Sinn und Bedeutung.
Medialität: Die historischen Signaturen von Kulturtechniken sind immer auch – aber nicht nur – geprägt durch Medien. Dass Kommunizieren und Denken, Wahrnehmen und Erfahren konturiert sind durch die Medien, mit und in denen kommuniziert und gedacht, wahrgenommen und erfahren wird, ist eine notwendige, keineswegs jedoch hinreichende Bedingung zum Verständnis von Kultur. Mediale Innovationen, die sich in den Alltagspraktiken von Kulturen sedimentieren, spielen zwar eine ausgezeichnete, keineswegs jedoch monokausale Rolle im Entstehen, Verändern und Vergehen von Kulturtechniken. Die Evolution der Medien realisiert sich nicht als schlichter Ablöse- und Verdrängungsprozess. Neue Medien stiften oftmals eine Bühne, auf der die alten Medien ganz neue Auftrittsmöglichkeiten und Gebrauchsweisen erlangen.
Episteme: Kulturtechniken beruhen auf der Dissoziierung von Können und Wissen, auf der Abtrennung des routinisierten ›Wissens wie‹ (etwas gemacht wird) vom begründenden ›Wissen dass‹ bzw. ›warum‹ ein Verfahren überhaupt aufgeht und funktioniert. Dass etwas erfolgreich zu gebrauchen ist, ohne in seiner Funktionsweise verstanden werden zu müssen, bildet den Nukleus dessen, was eine ›Operation‹ ist. Es ist zugleich der Kern der technischen Dimension menschlicher Existenz, aber auch Ausweis der sozialen Konstitution von Wissen. Überdies gehen von Kulturtechniken wichtige Impulse aus für die Genese komplexer, ›höherer‹ Objekte und Denkformen in den Wissenschaften und Künsten. Epistemologisch gesehen greift beides ineinander: 31die kulturtechnische Fortbildung in den Alltagsroutinen und die Eroberung epistemischer Horizonte in höherer Kognition und den Wissenschaften.
Partizipation: Die Teilnahme an und die Beherrschung von Kulturtechniken bestimmen über Inklusion und Exklusion an den zivilisatorischen Potenzialen einer Gemeinschaft. In welchem Grad Kulturtechniken sich zu individuellen Kompetenzen und Fertigkeiten verdichten und ausbilden können, bedingt die ›feinen‹ und weniger feinen Unterschiede in den individuellen und sozialen Verhaltensweisen. Kulturtechniken sind keine Entitäten, die zu besitzen sind oder eben auch nicht, sondern sie bilden eine Skala, auf der in mannigfaltiger Skalierung zwischen einem Mehr oder Weniger an den kulturtechnisch erschließbaren Potenzialen einer Gesellschaft partizipiert wird.
Rekursivität: Viele – wenn auch nicht alle – Kulturtechniken, deren Kern im Herstellen und Bearbeiten von symbolischen Artefakten besteht, eröffnen die Unterscheidung einer Objekt- und Metaebene. Sie können in rekursiver Weise auf sich selbst angewendet werden: So kann über Schrift geschrieben oder im gemalten Bild das Malen eines Bildes dargestellt werden.
In dieser Liste wird eine Selektion solcher Aspekte präsentiert, die beschreiben und erklären, wie Kulturtechniken Spielräume für Wahrnehmung, Erfahrung, Kommunikation und Kognition eröffnen. Aber – um es noch einmal zu betonen – es geht um Spielräume. Welche Optionen in den historischen Praktiken einer Kultur prägnant werden, hängt ab von deren sozialer, ökonomischer und machtpolitischer Verfassung. Ein medientechnologischer Determinismus ist unangemessen.
Ein subtiles Lehrstück für die Fallstricke einer mediendeterministischen Blindheit findet sich in der Entdeckung des Unterschieds von Oralität und Literalität im letzten Drittel des vergangenen Jahrhunderts.[12] Das Ingenium dieser Entdeckung bestand darin, medienhistorische Fragen als genuine Dimensionen geisteswissenschaftlicher Forschung anzuerkennen und damit einen Paradigmenwechsel in den Geisteswissenschaften zu initiieren.[13] Eine 32Entdeckung jedoch, die – im gleichen Atemzug – eine medienfundamentalistische und zugleich eurozentrische Deutung der Kulturtechnik alphanumerischer Literalität etablierte und inaugurierte: Das Alphabet galt als Krone, als höchste Stufe aller Schriftsysteme und wurde als der Königsweg zu einem ›aufgeklärten Geist‹, zur Entwicklung von Wissenschaften und komplexen Künsten und schließlich gar zur Grundlage einer demokratischen Gesellschaft hypostasiert: Der westeuropäische Geist – geboren aus dem Medium der alphabetischen Schrift. Die Dichotomie von Mündlichkeit und Schriftlichkeit wurde so zu einer dichotomischen Klassifizierung von Denkstilen und Wissenskulturen radikalisiert:[14] In einem fast mythisch gefärbten Narrativ wurde das, was orale Gesellschaften zu charakterisieren schien, verbunden mit einem additiven, iterativen, situationalen und konkreten Denkstil, während literale Gesellschaften assoziiert wurden mit subordinierenden, analytischen, konzeptuellen und abstrakten Denkmodi. Die kommunikativen und kognitiven Errungenschaften nichtalphabetischer Schriftsysteme wurden ebenso ausgeblendet bzw. unterschätzt,[15] wie auch die sozialen und kulturellen Bedingungen übersehen wurden, die überhaupt erst die gesellschaftlich prägenden Effekte von Medien befördern oder behindern.