Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Quantifizierung macht Unterschiede zum Zweck des Messens zählbar, Digitalisierung macht Differenzen für Musterkennungen berechenbar. Da beide Methoden so erfolgreich sind, gerät zunehmend in den Hintergrund, was sich der Messung und Berechnung widersetzt: qualitative Unterschiede. Um diese geht es aber in der Philosophie. Ralf Becker stellt genau solche Qualitätsunterschiede in den Mittelpunkt seiner Untersuchungen: Farbe und Wellenlänge, Leben und unbelebte Materie, Teil und Ganzes, natürliche und kulturelle Tatsachen, Maßnehmen und Maßhalten. Die in seiner Analyse zur Anwendung kommende Kulturphänomenologie geht von der Wissenschaft als einer kulturellen Praxis aus, die in eine lebensweltliche Praxis des Unterscheidens eingebettet ist. Von diesem außerwissenschaftlichen praktischen Unterscheidungswissen bleibt auch die Naturwissenschaft methodisch abhängig. Zugleich bestimmt jedoch das Bild, das Menschen insbesondere von den Naturwissenschaften haben, das Bild, das sie sich von sich selbst und ihrer Stellung in der Welt machen. Die Rekonstruktion des methodischen Abhängigkeitsverhältnisses zwischen Wissenschaft und Lebenswelt, die Beckers Buch leistet, hat daher auch die kritische Funktion, das positivistische und szientistische Selbstmissverständnis über sich selbst aufzuklären.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 294
Veröffentlichungsjahr: 2021
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Ralf Becker
Kulturphänomenologie als kritische Theorie
Bibliographische Information der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in derDeutschen Nationalbibliographie; detaillierte bibliographischeDaten sind im Internet über ‹http://portal.dnb.de› abrufbar.
eISBN (PDF) 978-3-7873-3964-8
eISBN (ePub) 978-3-7873-4013-2
© Felix Meiner Verlag Hamburg 2021. Alle Rechte vorbehalten. Dies gilt auch für Vervielfältigungen, Übertragungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen, soweit es nicht §§ 53, 54 UrhG ausdrücklich gestatten. Konvertierung: Bookwire GmbH.Für Links mit Verweisen auf Webseiten Dritter übernimmt der Verlag keine inhaltliche Haftung. Zudem behält er sich die Verwertung der urheberrechtlich geschützten Inhalte dieses Werkes für Zwecke des Text- und Data-Minings (§ 44 b UrhG) vor. Jegliche unbefugte Nutzung ist hiermit ausgeschlossen.
Einleitung
Qualitätsunterschiede
Gegenwartsdiagnostik
Qualitätsunterschiede II
Gegenwartsarchäologie
Lebensweltapriori
Übersicht
Kapitel 1
Kulturphänomenologie als kritische Theorie
Phänomenologie der kulturellen Praxis
Kulturphänomenologie und Methodischer Kulturalismus
Kulturphänomenologie und Kritische Theorie
Wissenschaftsphilosophie als Wissenschaftskritik
Kapitel 2
Zahlen – vom Mythos zum Logos und zurück
Mythos
Vom Mythos zum Logos
Logos
Vom Logos zum Mythos
Mythos
Kapitel 3
Phänomenologie der Übergänge
Vom Bekannten zum Unbekannten: Technik im Übergang
Vom Mittel zur Norm: Ethiko-Teleologie der Technik
Von der Praxis zur Theorie: die Sinnverschiebung
Von Energie zu Information: die Mathematisierung der Kultur
Vom Selbstverständlichen zum Selbstverständnis: eine Mathematik vom Menschen
Kapitel 4
Exkurs: Kant und die Außerirdischen
Kapitel 5
Abgrenzungsprobleme zwischen Physik und Biologie
Formbeschreibung und Kausalerklärung
Zur Logik der lebendigen Form und der Lebenswissenschaften
Die Autonomie der Erscheinung: Faktor und Modal
Das Beispiel der Bierhefe
Leben als normative Qualität
Kapitel 6
Das Sinnfundament der Lebenswissenschaften
Fundierungszusammenhänge
Natur als angewandte Mathematik
Belebte Natur als angewandte Informatik
Lebensform und lebendige Form
Der Primat der Poiesis
Kapitel 7
Die Idee einer verstehenden Lebenswissenschaft
Die Berechenbarkeit des Lebens
Lebensbegriff und Lebensführung
»Leben versteht Leben«: Naturalisierung der Hermeneutik
Was ist Leben?
Was ist der Mensch?
Natur und Geist
Kapitel 8
Das Ganze und seine Teile
Der Teil und das Ganze
Element und Ingredienz
Fragment und Komponente
Moment und Stück
Emergenz und Holismus
Kapitel 9
Natürliche und kulturelle Tatsachen
Die Kulturabhängigkeit natürlicher Tatsachen
Das naturalistische Missverständnis
Das kulturrelativistische Missverständnis
Methode und Sein
Schluss
Maßnehmen und Maßhalten
Danksagung
Nachweise
Anmerkungen
Personenregister
Philosophen sind »zuständig für Qualitäten«.
PAUL VALÉRY1
Philosophie ist das Studium von Qualitätsunterschieden. Tatsachenfeststellungen haben eine andere Beschaffenheit (lat. qualitas) als ästhetische oder ethische Urteile, die ihrerseits durchaus verschieden beschaffen sind. Sätze in einem Roman und Sätze in einem Physik-Lehrbuch mögen die gleiche syntaktische Struktur haben, aber wer würde leugnen, dass sie anders geartet sind? Einen Gegenstand mit den Sinnen wahrzunehmen, ist etwas anderes, als ihn sich bloß vorzustellen; Farben haben eine ganz andere sinnliche Qualität als Töne oder Gerüche. Mensch und Affe unterscheiden sich genetisch nur geringfügig, und dennoch besteht zwischen ihren Lebensformen nicht bloß eine quantitative, sondern eine qualitative Differenz. Politische Entscheidungen sind keine wissenschaftlichen Erkenntnisse. Demokratische Gemeinwesen sind anders beschaffen als autoritäre. Die Liste dieser Beispiele aus der philosophischen Unterscheidungspraxis ließe sich beliebig verlängern. Gemeinsam ist ihnen nicht nur (1) die Form ›X ist anders beschaffen/geartet/bestimmt als Y‹, sondern darüber hinaus (2) die Begründung der Andersartigkeit durch inhaltliche Kriterien und (3) die Widersinnigkeit einer Übersetzung dieser Andersartigkeit in Zahlenverhältnisse. Demokratien sind von Diktaturen nicht durch die Anzahl von Gesetzen, Institutionen oder politischen Gewalten unterschieden; ethisch richtige Handlungen lassen sich, entgegen den Verheißungen des Utilitarismus, nicht durch Berechnung ermitteln; die ästhetische Qualität eines Kunstwerks ist nicht durch seinen Marktwert messbar usw.
Qualitätsunterschiede wie die genannten sind nicht sinnvoll quantifizierbar. Und das nicht bloß noch nicht, sondern gar nicht. Die Frage, was für eine Sache etwas ist (lat. qualis?), hat eine andere kategoriale Beschaffenheit als die Frage, wie groß etwas ist (lat. quantus?). Die Differenz zwischen Qualität und Quantität ist mithin selbst ein Qualitätsunterschied, der nicht sinnvoll quantifiziert werden kann. Außerdem sind je nach qualitativer Beschaffenheit eines Gegenstandes verschiedene Arten von Größe zu differenzieren: So können nach Kants berühmter Unterscheidung intensiver und extensiver Größen2 räumliche bzw. zeitliche Ausdehnungen in gleiche Teile zerlegt werden, während dies bei der Stärke von Sinnesqualitäten nicht möglich ist. Ein 100 Meter hoher Turm ist doppelt so hoch wie ein 50 Meter hoher Turm, eine einstündige Vorlesung ist nur halb so lang wie eine zweistündige; aber Königsblau ist nicht doppelt so blau wie Himmelblau, und Eiscreme ist nicht halb so warm wie Tee. Erst die Übersetzung intensiver in extensive Größen, durch die räumliche Ausdehnung einer Quecksilbersäule oder der Wellenlänge in einem Cartesischen Koordinatensystem, macht die Intensität von Wärme/Kälte oder Farbe messbar. Das Gleiche gilt für Lautstärke oder Schärfe (einer Speise). Weil sie sich nicht unmittelbar in eine zählbare Menge von Teilen zerlegen lassen, sondern erst sekundär, eben durch Übertragung in die Extension von Messgeräten, werden sie in der Tradition missverständlich als sekundäre Qualitäten bezeichnet. Die Differenz von primär und sekundär bezieht sich jedoch nicht auf eine natürliche Rangordnung, so dass Intensitäten aus Extensionen abgeleitet wären (ein weit verbreiteter Irrtum), sondern auf eine Reihenfolge von Handlungen: Weil man, anders als bei Strecken, an Wärme kein Metermaß anlegen kann, muß Wärme zuerst in die Ausdehnung einer Quecksilbersäule überführt werden, die dann vermessen wird. Was gemessen wird, ist jedoch die mittelbar konstruierte Temperatur und nicht die unmittelbar gegebene Wärme. Es bleibt dabei, dass intensive Größen als Intensitäten einen Grad haben, der nicht in zählbare Teile zerlegt werden kann.
Absolute Grenzen der Quantifizierung sind eine Zumutung für eine Zeit, die im Messen und Berechnen die Wissen schaffenden und Objektivität stiftenden Handlungen schlechthin sieht. Was sich nicht in Zahlen und Zahlverhältnissen ausdrücken lässt, das scheint es nicht zu geben, zumindest nicht als Gegenstand der Wissenschaft. Vielleicht hat es die Philosophie deshalb so schwer, sich als Wissenschaft nicht sinnvoll quantifizierbarer begrifflicher Qualitätsunterschiede zu behaupten. Wenn es um die spezifische Beschaffenheit unserer Gegenwart und deren qualitative Differenz zur Vergangenheit geht, so hat sie das Feld weitgehend der Soziologie überlassen. Freilich hat es auch eine Soziologie, die ihre Gegenwartsdiagnose nicht auf Zahlen und Statistiken stützt, ihrerseits nicht leicht.
Mit Blick auf das ausgehende 20. Jahrhundert und unter dem Eindruck des Reaktorunfalls in Tschernobyl wählt Ulrich Beck 1986 für die in den 1970er Jahren einsetzende zweite Moderne den Ausdruck reflexive Modernisierung. Dabei handelt es sich um eine »Rationalisierung zweiter Stufe«: Haben Wissenschaft und Technik »religiöse Weltbilder« entzaubert, »so werden heute das Wissenschafts- und Technikverständnis der klassischen Industriegesellschaft entzaubert«.3 Die Entzauberung von Wissenschaft und Technik kommt nicht von außen, sondern ist durch deren eigene Fortschritte motiviert. Sind sie im 19. Jahrhundert vor allem die Motoren der Produktion von Reichtum, so treten Wissenschaft und Technik im 20. Jahrhundert zunehmend als Produktivkräfte von Risiken auf. Als der Reaktorblock 4 des Atomkraftwerks von Tschernobyl am 26. April 1986 explodiert, hat Beck die Arbeit an seinem Buch Risikogesellschaft bereits abgeschlossen. Doch bereits vor dem größten anzunehmenden nukleartechnischen Unfall gab es genügend Anschauungsmaterial für die Risiken und Nebenwirkungen moderner Industrieproduktion.
Die Grenze wissenschaftlicher Rationalität zeigt sich gerade dort, wo die Risiken solcher Unfälle in Form von Wahrscheinlichkeiten quantifiziert werden sollen. Die Kernenergie eignet sich besonders dazu, diese Grenze zu verdeutlichen: Denn auch »eine noch so gering gehaltene Unfallwahrscheinlichkeit ist dort zu hoch, wo ein Unfall die Vernichtung bedeutet«. In Risikodiskussionen werden, so Beck, daher »Risse und Gräben zwischen wissenschaftlicher und sozialer Rationalität im Umgang mit zivilisatorischen Gefährdungspotentialen deutlich«.4 Freilich müssen auch Kernenergiegegner auf wissenschaftliche Expertise zurückgreifen, deshalb haben wir es mit einem wechselseitigen Abhängigkeitsverhältnis unterschiedlicher Rationalitätsformen zu tun: »Wissenschaftliche ohne soziale Rationalität bleibt leer, soziale ohne wissenschaftliche Rationalität blind.«5 Überdies macht die quantifizierende Risikoforschung bereits von qualitativer sozialer Rationalität durch die Definition von Risiken Gebrauch: Risiken bleiben »selbst dort, wo sie wortlos in Zahlen und Formeln gekleidet einherkommen, prinzipiell standortgebunden, mathematische Verdichtungen verletzter Vorstellungen vom lebenswerten Leben. […] Trotz aller Unkenntlichkeit kann dieser normative Horizont, in dem erst das Risikohafte des Risikos anschaubar wird, letztlich nicht wegmathematisiert oder wegexperimentiert werden. Hinter allen Versachlichungen tritt früher oder später die Frage nach der Akzeptanz hervor und damit die alte neue Frage, wie wollen wir leben? Was ist das Menschliche am Menschen, das Natürliche an der Natur, das es zu bewahren gilt?«6 In die statistische Berechnung von Risiken gehen ethische, anthropologische und politische Unterscheidungen zwischen dem Wünschenswerten und dem zu Verhindernden ein, die nicht ihrerseits statistisch erhoben oder begründet werden können.
Der von Beck eingeführte Begriff reflexiver Modernisierung bezeichnet den Selbstbezug der Moderne auf ihre eigenen Bedingungen und Effekte. Charakteristisch für die zweite Moderne ist daher auch die reflexive Verwissenschaftlichung: »Die industrielle Nutzung wissenschaftlicher Ergebnisse schafft nicht nur Probleme, die Wissenschaft stellt auch die Mittel – die Kategorien und das Erkenntnisrüstzeug – zur Verfügung, um die Probleme überhaupt als Probleme erkennen und darstellen zu können (bzw. erscheinen zu lassen) oder eben nicht. Schließlich stellt die Wissenschaft auch noch die Voraussetzungen für die ›Bewältigung‹ der selbstverschuldeten Gefährdungen zur Verfügung.«7 So führt auch in Fragen des unsere Zeit so sehr beschäftigenden Klimawandels an Wissenschaft und Technik kein Weg vorbei – weder epistemisch, z. B. durch die Erhebung von Daten und die Modellierung von Szenarien, noch strategisch, z. B. durch die Entwicklung neuer Antriebstechnologien oder Verfahren zur Speicherung atmosphärischen Kohlenstoffs.
Während Gefahren für das eigene Leben in Form von Risikoversicherungen externalisiert werden, besitzen Risikoabschätzungen auch eine »Internalisierungsmacht«.8 Das pränataldiagnostisch berechnete Risiko schwerer Erkrankungen setzt werdende Eltern unter den Entscheidungsdruck, die Schwangerschaft gegebenenfalls abzubrechen; das Risiko einer erblich bedingten Krebserkrankung hat die Schauspielerin Angelina Jolie dazu veranlasst, sich vorsorglich beide Brüste entfernen zu lassen; das Risiko irreversibler intensivmedizinischer Versorgung motiviert die Absicherung des rechtzeitigen Todes in Patientenverfügungen usw. Wir haben die Parameter der Risikogesellschaft so erfolgreich internalisiert, dass jeder als verantwortungslos gilt, der sich nicht nur nicht gegen Risiken durch entsprechende Policen absichert, sondern auch nicht durch die angemessene Lebensführung vorsorgt, d. h. sich ausgewogen ernährt, hinreichend bewegt, tief genug schläft usw. Dies ist der Hintergrund für die Figur des quantifizierten Selbst, das sich in seiner Bemühung der optimierten Lebensweise durch elektronische Schrittzähler, Puls- und Blutdruckmesser, Schlaf-Apps und vieles mehr helfen lässt. Dieser individuelle »Quantifizierungskult« ist freilich nur Symptom einer »umfassenden Quantifizierung des Sozialen«, die Steffen Mau in seinem Buch Das metrische Wir (2017) beschreibt.9
Das »Regime der Quantifizierung«10 transformiert »qualitative Unterschiede in quantitative Ungleichheiten« und verändert dadurch »unsere Ungleichheitsordnung, weil bislang Unvergleichbares miteinander vergleichbar gemacht und in ein hierarchisches Verhältnis gebracht wird«.11 Mau führt als Beispiele des Ungleichheiten produzierenden Quantifizierungsregimes Ratings und Rankings an, Scorings und Screenings, Noten für Produkte, Dienstleistungen oder Personen und nicht zuletzt im Bereich der Wissenschaft die leistungsorientierte Mittelvergabe. »Alles kann, soll oder muss vermessen werden – ohne Zahlen geht nichts mehr. Die gesellschaftliche Semantik, verstanden als die Art und Weise, wie sich die Gesellschaft selbst beobachtet und beschreibt, bezieht sich zunehmend auf die messbare Seite der Welt und des Lebens.«12 Was nicht unmittelbar messbar ist, wird messbar gemacht, so dass das Inkommensurable kommensurabel wird. Das Paradigma dieser Funktion ist Geld, das qualitatives Anderssein in ein quantitatives Mehr- oder Wenigersein transformiert. Das Gleiche leisten Punkte in einem Ranking oder arithmetisch gemittelte Bewertungen eines Hotels. Nach Maus Einschätzung befinden wir uns auf dem Weg »zu einer datengetriebenen Prüf-, Kontroll- und Bewertungsgesellschaft, die nur noch das glaubt, was in Zahlen vorliegt.«13 Dabei werden »Vergleichbarkeitsfiktionen in Bezug auf Sachverhalte« geschaffen, »die eigentlich unvergleichbar sind«.14
Im gesellschaftlichen Raum sind Zahlen nicht neutral, sondern implementieren politische Agenden. Ihre Funktion als Steuerungsinstrumente untersucht der Philosoph Oliver Schlaudt in seiner Studie Die politischen Zahlen (2018). Schlaudt erinnert an den historischen Ursprung der Zahlen und der Mathematik in Verwaltung und politischer Steuerung. »Als erste Zahlzeichen identifizierten Forscher Marken auf Lehmtafeln, die im Mesopotamien des vierten vorchristlichen Jahrtausends wohl ökonomische Transaktionen verbrieften«. Die im 17. Jahrhundert entwickelte Wahrscheinlichkeitsrechnung, »deren Anwendung ein entscheidender Schritt in der Umwandlung von ›Gefahren‹ in ›Risiken‹ darstellt, entstammt […] dem Versuch, den geschäftsmäßigen Umgang mit Gefahren durch die Entwicklung einer universellen Methode zu rationalisieren und zu ›domestizieren‹«.15 Das in der Neuzeit aufkommende Versicherungswesen ist darauf angewiesen, Gefahren als Risiken zu quantifizieren, und die Stochastik liefert dafür die Methodik. Mathematische Verfahren sind von Menschen für bestimmte Zwecke ersonnene Techniken. Auf das Abhängigkeitsverhältnis zwischen Wissenschaft und Technik, das dem weit verbreiteten Irrtum entgegensteht, Technik sei bloß angewandte Wissenschaft, wird mit Blick auf die Naturwissenschaften noch zurückzukommen sein. In Hinsicht auf ›politische Zahlen‹ steht dagegen die »›Soziotechnik‹ des Verwaltens und Regierens«16 im Mittelpunkt.
In der Covid-19-Pandemie 2020 konnte man die Dialektik politischer Zahlen gut beobachten. Einerseits waren alle Regierungen gut beraten, die frühzeitig den Rat von Epidemiologen und Virologen eingeholt haben, um möglichst schnell Maßnahmen gegen die Ausbreitung des neuartigen Coronavirus SARS-CoV-2 zu ergreifen. Andererseits erfolgte ebenso schnell eine politische Fetischisierung epidemiologischer Bezugsgrößen – wie Verdopplungszeit, Basisreproduktionszahl (»R Null«), die relative Zahl der Neuinfektionen pro Zeit oder die Kapazität verfügbarer Intensivbetten – mit zeitlich wechselnder Relevanz. Gelegentlich sahen sich medial besonders präsente Virologen genötigt, die Öffentlichkeit daran zu erinnern, dass Wissenschaftler keine politischen Entscheidungen fällen, sondern lediglich Grundlagen für dieselben bereitstellen. So boten die Wochen, in denen eine ganze Bevölkerung gebannt auf ›die neuen Zahlen‹ wartete, nicht nur eine Möglichkeit, etwas über die Logik wissenschaftlicher Forschung und die ihr inhärente epistemische Produktivität von Irrtümern zu lernen, sondern auch, sich den Qualitätsunterschied zwischen wissenschaftlichen und politischen Fragen klarzumachen. Spätestens die Mahnung des Bundestagspräsidenten, dem Lebensschutz nicht alles andere unterzuordnen, eröffnete eine Debatte über genuin politische Ziele, die nicht sinnvoll mit Zahlen geführt werden kann.
Qualitätsunterschiede spielen auch in den neuesten Gegenwartsdiagnosen von Hartmut Rosa (2018) und Andreas Reckwitz (2019) eine bedeutende Rolle. Nach Rosa ist der moderne Mensch darum bemüht, die Welt beständig in Reichweite zu bringen und in einem vierfachen Sinne verfügbar zu machen: Das Unsichtbare soll sichtbar, das Unzugängliche erreichbar, das Unbeherrschbare beherrschbar und das Natürliche nutzbar werden. Beherrschen und Berechnen verwendet Rosa durchweg als Hendiadyoin: »Verfügbarmachung der Welt bedeutet, sie berechenbar und beherrschbar zu machen«.17 Die »Effekte« einer Resonanzbeziehung, für Rosa Ausdruck eines gelingenden Selbst- und Weltverhältnisses, lassen sich dagegen »weder berechnen noch beherrschen«.18 Dieselben Mittel, die der moderne Mensch einsetzt, um sich in der Welt einzurichten, verhindern daher, dass er dieses Ziel erreicht, wenn die Mittel an die Stelle der Zwecke treten.
Für Reckwitz ist die Spätmoderne durch Singularisierung charakterisiert: »Während die industrielle Moderne […] auf der Reproduktion von Standards […] basierte und man von einer ›Herrschaft des Allgemeinen‹ sprechen konnte, ist die spätmoderne Gesellschaft an der Verfertigung von Besonderheiten und Einzigartigkeiten, sie ist an der Prämierung von qualitativen Differenzen, Individualität, Partikularität und dem Außergewöhnlichen orientiert.«19 Reckwitz zeigt damit, dass nicht nur Zahlen, sondern auch Qualitätsunterschiede einen Fetischcharakter annehmen können. Man denke nur an die Bedeutung der ›feinen Unterschiede‹ (Bourdieu) von Produkten und Ereignissen, Reisen und Wohnungseinrichtungen, Ess- und Trinkgewohnheiten, Kleidungsstilen, Film- und Musikgeschmäckern und was sie über Personen aussagen, die sich darüber unterscheiden wollen, indem sie jeweils das Besondere, Einzigartige und Außergewöhnliche suchen. Nicht selten werden aber gerade auch die solcherart zu Scheinsingularitäten fetischisierten Qualitätsunterschiede in Zahlen gemessen: sei es der höhere Preis, den man für ein Tablet auszugeben bereit ist, sei es die niedrigere Zahl der Individualreisenden im Gegensatz zur Masse der Pauschaltouristen oder sei es der Unikatstatus eines maßgeschreinerten Möbelstücks.
In seiner »Theorie der digitalen Gesellschaft« (2019)20 leitet Armin Nassehi die Quantifizierung aus einer fundamentalen Digitalisierung ab. Die Digitalisierung lässt er nicht erst mit dem Einsatz von Computertechnologie beginnen: »Nicht der Computer hat die Datenverarbeitung hervorgebracht, sondern die Zentralisierung von Herrschaft in Nationalstaaten, die Stadtplanung und der Betrieb von Städten, der Bedarf für die schnelle Bereitstellung von Waren für eine abstrakte Anzahl von Betrieben, Verbrauchern und Städten/Regionen.«21 Deshalb verortet Nassehi den Beginn der Digitalisierung der Gesellschaft in der »Frühzeit der Moderne« und sieht das »Bezugsproblem für die Entstehung einer digitaltechnischen Verarbeitung von Informationen […] weniger in dem quantitativen Aspekt einer Erhöhung von Berechnungsbedarf«, sondern »eher in der qualitativen Veränderung gesellschaftlicher Komplexitätslagen«.22 Unter Komplexität versteht Nassehi »die Musterhaftigkeit des Verhältnisses von Merkmalen zueinander«.23 Moderne Gesellschaften zeichnen sich durch eine Steigerung solcher Merkmalsbeziehungen (in Wissenschaft, Kunst, Wirtschaft, Recht, Politik, Arbeit usw.) aus, deren Muster durch Digitaltechniken wie Sozialstatistik allererst freigelegt werden müssen, um sie steuern zu können.
Nassehi macht quantifizierende Verfahren von der Digitalisierung der Gesellschaft abhängig und nicht umgekehrt. »Die digitale, statistische Entdeckung der Gesellschaft findet die quantifizierbare Form der Gesellschaft nicht einfach vor, sondern muss diese Quantifizierungen durch Kategorien erst zählbar machen.«24 Für Maus Kritik am ›metrischen Wir‹ hat Nassehi folglich nicht viel übrig: »[E]s ist ein großes Missverständnis, unter der Digitalisierung schlicht nur die Zählbarkeit und die Quantifizierung des Sozialen zu verstehen.«25 Mit anderen Worten: das ›Quantifizierungsregime‹ ist selbst ein Effekt eines tieferliegenden Qualitätsunterschieds zwischen modernen, digitalen und vormodernen, analogen Gesellschaften.
Die Differenz zwischen Quantifizierung und Digitalisierung verweist auf einen weiteren Qualitätsunterschied, der mit Blick auf die folgenden Untersuchungen begrifflich erfasst sein will. Unter Quantifizierung (von lat. quantum für ›Größe‹ und facere für ›machen‹) soll ganz allgemein das Herstellen einer zählbaren Größe verstanden werden. In einem sehr weiten Sinne kann man jeden Zählvorgang als eine Form der Quantifizierung auffassen. Es scheint jedoch etwas übertrieben, das Abzählen der im Kühlschrank befindlichen Eier als einen Akt des Quantifizierens zu beschreiben, muss hier doch die Zahlform nicht erst hergestellt werden, da jedes Ei eine von jedem anderen Ei klar abgegrenzte Einheit bildet. Etwas anderes ist es dagegen, den Wert einer Packung Eier durch ein Geldquantum, den Preis zu bestimmen. Auch die Messung einer Strecke durch die Anzahl von Schritten ist etwas anderes als die ›Messung von Wärme‹ durch die Ablesung eines Thermometers. Nicht extensive, wohl aber intensive Größen können im engeren Sinne quantifiziert werden, da für Wärme, Lautstärke, Schärfe oder Farbintensität die Zahlenförmigkeit allererst hergestellt, eben gemacht werden muss, während Ausdehnung bereits ein Quantum besitzt. Quantifizierende Handlungen verfolgen das Ziel, qualitative Unterschiede in quantitative Differenzen zu übersetzen. Es liegt hier eine echte metabasis eis allo genos, ein Übergang in eine andere Gattung vor.
Das Wort Digitalisierung leitet sich vom lateinischen digitus für ›Finger‹ ab. Die Metapher verweist auf das Abzählen diskreter Einheiten an Fingern. Kinder lernen auf diese Weise den Sinn von Zahlen kennen. Stellvertretend für unsere Finger operieren wir üblicherweise, weil es praktischer ist, mit Ziffern. Der Mathematiker Claude Shannon hat 1948 den Ausdruck binary digit eingeführt, um eine Maßeinheit für den Informationsgehalt einer Nachricht zu finden. Die kleinste Einheit ist demnach 1 Bit, das ist der elementarste Informationsgehalt, der in einem von zwei möglichen Zuständen enthalten ist, z. B. ja oder nein (siehe Kap. 3). In gewisser Hinsicht ist Digitalisierung daher die Quantifizierung von Information. Der Ursprung in der Nachrichtentechnik legt jedoch nahe, Digitalisierung als ein Phänomen sui generis zu begreifen, und dies aus mindestens zwei Gründen: Zum einen hat der Informationsbegriff im Zuge der Digitalisierung eine solche Ausdehnung erfahren, dass es nicht sinnvoll erscheint, die Reihe: intensive Größen, Wertrelationen u. dgl. einfach durch ›Information‹ zu erweitern. Vielmehr wird nun alles, das mit digitaler Technik erfasst und bearbeitet werden kann, zur Information erklärt.
Der andere Grund, Digitalisierung von Quantifizierung zu unterscheiden, liegt in der jeweiligen technischen Umsetzung. Das klassische Instrument zur Quantifizierung ist das Messgerät, in dem zuvor erwähnten Beispiel das Thermometer für die Quantifizierung von Wärme. Das Werkzeug der Digitalisierung hingegen ist der Computer, ein Hilfsmittel zur Ausführung von Berechnungen (von lat. computare für ›berechnen‹). Vereinfacht gesagt dient Quantifizieren dem Messen, während Digitalisieren dem Berechnen dient. Die Quantifizierung macht etwas (für Messungen) zählbar, die Digitalisierung berechenbar. Wenn Hannah Arendt von der »Berechenbarkeit menschlicher Angelegenheiten«26 spricht, die in der Neuzeit gestiftet wird, dann lässt sich die Herstellung dieser Berechenbarkeit daher als Digitalisierung beschreiben.
Die Idee des Computers reicht weit zurück. Bereits Gottfried Wilhelm Leibniz im 17. und Raimundus Lullus im 13. Jahrhundert formulierten Ideen für logische bzw. symbolische Maschinen, die logische Kalküle abarbeiten können. Formalisierte Anweisungen für eine endliche Abfolge von Schritten zur Lösung eines Problems, vor allem für Berechnungen, heißen Algorithmen. Der Ausdruck geht auf den latinisierten Namen des arabischen Mathematikers Al-Chwarizmi zurück, der im 8./9. Jahrhundert in Bagdad lebte. Symbolische Maschinen arbeiten mit Algorithmen. Digitalisierbar ist grundsätzlich jede Handlung, die an eine symbolische Maschine delegiert werden kann.27 Ein griffiges Beispiel dafür ist der Taschenrechner, ein Werkzeug, das so konstruiert ist, dass es menschlichen Benutzern Ergebnisse für Rechenaufgaben liefert. Computer selbst rechnen jedoch nicht. Rechnen ist ein zielgerichtetes Handeln, und Maschinen sind keine Akteure.28 Daher ist diese Bezeichnung für Maschinen irreführend, ursprünglich wurden so menschliche Rechnerinnen und Rechner (z. B. bei der NASA) genannt. Der Doppelaspekt der Formalisierung (in bloße Zeichenkombinationen) und Algorithmisierung (in programmierbare Zeichenoperationen) markiert den Eigensinn der Digitalisierung gegenüber der Quantifizierung.
Als einer der ersten hat Georg Simmel in seiner Philosophie des Geldes (1900) das historisch gewachsene Erkenntnisideal identifiziert, »alle qualitativen Bestimmtheiten der Wirklichkeit in rein quantitative aufzulösen«.29 Auch Simmel führt als Beispiel die Wärmemessung durch Thermometer an. Der paradigmatische Fall, an dem sich der »Übergang von dem qualitativ bestimmbaren zu dem quantitativ symbolischen Ausdruck«30 nachvollziehen lässt, ist jedoch das Geld. Die monetäre Symbolisierung der Wirklichkeit steht stellvertretend für eine immer umfassendere Rationalisierung des Lebens durch Zählen, Messen und Berechnen. Messen ist Wissen lautet die Parole dieses Denk- und Lebensstils. Das Geld repräsentiert das »messende, wägende, rechnerisch exakte Wesen der Neuzeit«.31 Die Geldwirtschaft »bewirkt von sich aus die Notwendigkeit fortwährender mathematischer Operationen im täglichen Verkehr. Das Leben vieler Menschen wird von solchem Bestimmen, Abwägen, Rechnen, Reduzieren qualitativer Werte auf quantitative ausgefüllt«.32 Aus der Analyse des Geldwesens gewinnt Simmel sein »Stilbild der Gegenwart«: »Die geistigen Funktionen, mit deren Hilfe sich die Neuzeit der Welt gegenüber abfindet und ihre inneren – individuellen und sozialen – Beziehungen regelt, kann man großenteils als rechnende bezeichnen. Ihr Erkenntnisideal ist, die Welt als ein großes Rechenexempel zu begreifen, die Vorgänge und qualitativen Bestimmtheiten der Dinge in einem System von Zahlen aufzufangen«.33
Von diesem Intellektualismus zeugt auch und gerade die »rechnerisch-exakte Naturdeutung«:34 Die moderne Naturwissenschaft begreift »die Erscheinungen nicht mehr durch und als besondere Substanzen, sondern als Bewegungen […], deren Träger gleichsam weiter und weiter ins Eigenschaftslose abrücken«, und löst schrittweise die Weltinhalte »in Bewegungen und Relationen« auf.35 Was sich wie eine Vorwegnahme der fünf Jahre später publizierten Einsteinschen Relativitätstheorie (bzw. von Ernst Cassirers zehn Jahre später erschienenem Werk Substanzbegriff und Funktionsbegriff) liest, lässt sich ebenso an der Definition physikalischer Größen nach dem Internationalen Einheiten-System (SI-Einheiten) unter Verwendung von Naturkonstanten belegen. So ist beispielsweise das Kilogramm als Einheit für Masse (m) durch die Plancksche Konstante mit Hilfe der Definitionen von Meter und Sekunde festgelegt. Das physikalische Maßsystem bestimmt Maßeinheiten nicht mittels Substanzen (man denke z. B. an das Pariser Urmeter), sondern durch Beziehung zu anderen Maßeinheiten. Es ist kein Zufall, dass die Bedeutungsdimension von physis als das Wesen einer Sache aus dem modernen Naturverständnis völlig herausgefallen ist. Was als natürlich gelten kann, gibt sich nicht mehr substantiell, sondern wird allein in Relation zu messenden und rechnenden Erkenntnishandlungen bestimmt. Natürlichkeit ist ein Widerstandskoeffizient, der über die rein logische Widerspruchsfreiheit hinaus den Verknüpfungsspielraum von Messgrößen begrenzt.
Die folgenden Untersuchungen beleuchten das Erkenntnisideal der ›Welt als einem großen Rechenexempel‹ von der ›rechnerischexakten Naturdeutung‹ her. Damit bewegen sie sich nicht außerhalb der zuvor skizzierten mehr oder weniger gesellschaftskritischen Gegenwartsdiagnosen. Vielmehr gründen die in diesem Buch versammelten Studien in der Hypothese, dass sich in gesellschaftlichen Verhältnissen ein Naturverhältnis des Menschen artikuliert. Diese systematische Voraussetzung ist freilich nicht neu – leitet sie doch bereits die Dialektik der Aufklärung von Horkheimer und Adorno (1944). Die beiden Autoren rekonstruieren bekanntlich die europäische Geschichte als eine Geschichte der Naturbeherrschung. Wir haben es daher nicht mit einer Alternative zu tun: entweder Gesellschaft oder Natur, sondern beide Dimensionen sind auf intrikate Weise ineinander verschlungen, die sowohl dem Kulturrelativismus als auch dem Naturalismus Hohn sprechen. Weder ist Natur bloß ein gesellschaftliches Konstrukt noch Gesellschaft ein Naturereignis. Vielmehr sind sie Aspekte der einen Welt des Menschen, die sowohl gesellschaftlich als auch natürlich verfasst ist. Mit Ernst Wolfgang Orth soll diese Welt des Menschen als Kultur bestimmt werden.36 Es mag auf den ersten Blick irritieren, Natur als Aspekt oder Dimension von Kultur aufzufassen. In einem wohlverstandenen Sinne bekenne ich mich durchaus zu einem moderaten Kulturalismus (siehe Kap. 1).
Simmels Formulierung des neuzeitlichen Erkenntnisideals, das nicht zuletzt in der Geldwirtschaft eine materielle Grundlage hat, führt von der Diagnostik der Gegenwart auf ihre Archäologie zurück. Die Idee, »alle qualitativen Bestimmtheiten der Wirklichkeit in rein quantitative aufzulösen«, ist charakteristisch für die europäische Neuzeit und Moderne. Weder in der Antike noch im Mittelalter war dies die beherrschende wissenschaftliche Weltansicht. Mit Blick auf das Naturverhältnis tauchen in der Wissenschaftsgeschichtsschreibung immer wieder zwei prominente Namen auf: Leonardo da Vinci (1452–1519) und Galileo Galilei (1564–1642). Diese beiden stehen emblematisch für einen Epochenbruch in der Naturforschung, der sich am Anfang der Neuzeit im 16. und 17. Jahrhundert vollzogen hat.
Paul Valéry erkennt in Leonardo den Vorläufer einer Wissenschaft, deren Wesen darin besteht, »das Wissen vom Können abhängen zu lassen«. Die moderne Wissenschaft definiert Valéry als »die Gesamtheit der Rezepte und Verfahren […], die immer gelingen […]: alles andere ist Literatur«. »Ihr Vertrauen beruht einzig und allein auf der Gewißheit, ein bestimmtes Phänomen mittels bestimmter wohldefinierter Handlungsschritte reproduzieren oder wiedersehen zu können.« Das Herstellen übernimmt die »Bürgschaft« für das Wissen. »Wir wissen, was wir können. Alles übrige ist nur Austausch von Worten.«37 Die Philosophie, »zuständig für Qualitäten«, mit dem Wort als »Mittel und Zweck«, wandert somit von der Seite der Wissenschaft auf die der Literatur.38 Leonardo verstand unter »echtem Wissen nur etwas, dem irgendein Handlungsvermögen entsprach. Schöpferisches Tätigsein, Konstruieren waren für ihn untrennbar von Erkennen und Verstehen.« Mit diesem Denken »schlug er einen Weg ein, auf dem unser Geist sich heute bewegt«.39 Die »Arbeit des Geistes« hat »nicht mehr eine letzte Schau zum Ziel«;40 der aktive Geist löst den kontemplativen ab, und eine seiner wesentlichen Aktivitäten ist das Experiment. Im Experiment wird das Naturphänomen mittels Apparaten hergestellt. Die Technik ist das neue Prinzip der Naturerkenntnis. Für diesen Primat des Könnens steht in Valérys Rekonstruktion der modernen Episteme Leonardo Pate: »Das Trachten nach dem Automaten, nach Erkenntnis durch Konstruktion behauptete in seinem Denken die oberste Stelle.«41
Das von Vico zugunsten der erst später sogenannten Geisteswissenschaften ins Feld geführte Axiom von der Austauschbarkeit des Wahren und des Gemachten trifft nach Valéry ebenso gut, wenn nicht noch besser auf die experimentierenden Naturwissenschaften zu: »Ich verstehe nur, was ich zu machen verstehe.«42 Aber auch die Theoretische Physik ist keine kontemplative Schau der Natur – erlauben die von ihr verwendeten mathematischen Gleichungen es doch, einen Naturvorgang durch Berechnung in Gedanken herzustellen. Das Experiment entscheidet dann über die Belastbarkeit der Formel in der äußeren Natur. Die Wissenschaft im Geiste Leonardos ist eine Wissenschaft von Handlungen.43 »›Ich kann‹, ›Wir können‹ – ist wesentlich für die Naturwissenschaften, insbesondere für die Mathematik.«44 Messen und Berechnen, Quantifizieren und Digitalisieren sind diejenigen Handlungen, die das Naturverhältnis der modernen Wissenschaften prägen. Valéry pointiert das Originelle dieser neuartigen Weltbeziehung in dem Satz: »Einzig Vermögen und Voraussicht sind also das wahre, solide Objekt der Wissenschaft und nicht die Erkenntnis, die Anschauung der Welt.«45 Es ist nicht nur der Finger (digitus), es ist die ganze Hand (manus), die zum Begreifen nötig ist. Wissenschaftliche Erkenntnis erhält somit manipulativen Charakter.
Dieses technische Naturverhältnis, das die Neuzeit prägt, ist in der Lesart Hans Blumenbergs eine Reaktion auf den Nominalismus, der für das ausgehende Mittelalter charakteristisch ist. »So sind die Begriffe nur ›nomina‹, nicht ›conceptus‹, und ›richtig‹ und ›falsch‹ drücken nur die ökonomische Funktion des innerweltlichen Sich-Einrichtens und Sich-Zurechtfindens aus. Damit aber hat unser Erkenntnisvermögen von vornherein einen Charakter erhalten, den man getrost als ›technischen‹ ansprechen kann: es ist nicht vernehmend hingegeben an das Seiende, das ihm doch verschlossen ist, sondern es ist originär schöpferisch, eine ganz und gar menschliche, nur auf die menschliche Weltaufgabe hingeordnete Einheit von Begriffen und Gesetzen produzierend.« Auch für Blumenberg ist Leonardo eine »Schlüsselgestalt der beginnenden Neuzeit«.46 Nach dieser Interpretation ist die moderne Orientierung wissenschaftlicher Theorie an der Poiesis Ausdruck einer Entfremdungserfahrung. Während das Wesen der Dinge der theoretischen Erkenntnis unerreichbar bleibt, werden sie zum Material der praktischen Verfügbarkeit.
Nicht Nominalismus, sondern gerade einen Platonismus sieht Ernst Cassirer bei Galilei am Werk, der die Platonische Unterscheidung einer Welt des Seins von einer Welt des Werdens durch Mathematik überwindet. Fortan erfassen Maß und Zahl nicht mehr nur das Unveränderliche, sondern auch den Bereich des Veränderlichen.47 Zugleich fällt die Aufteilung des Kosmos in eine sublunare, terrestrische und eine supralunare, himmlische Sphäre – das Universum lässt sich durch eine Mechanik beschreiben und deren Sprache ist die Mathematik. Außerdem verschwimmt die von Platon gezogene Grenze zwischen reiner und angewandter Mathematik.48 Es ist also gerade diese neoplatonische Mathematisierung der Natur, durch die sich nach Cassirer die Neuzeit vom Mittelalter unterscheidet.49 Die Mathematik war zwar schon lange vor der Renaissance ein Element der Kultur, aber erst durch Denker wie Leonardo oder Galilei wurde sie zu einer »neuen kulturellen Macht«. Mathematik ist fortan nicht bloß ein Feld, sondern das einzig gültige Kriterium des Wissens.50
Für die neuzeitlich-moderne, »wissenschaftsgestützte technische« Kultur hat Jürgen Mittelstraß den Ausdruck Leonardo-Welt vorgeschlagen, die als solche »Produkt« und »Werk des Menschen« ist.51 Das Neuartige dieser mit der Renaissance anhebenden neuzeitlichen Welt sieht Mittelstraß wie Valéry in der »methodische[n] Verbindung von technischem Können und theoretischer Vernunft«.52 Charakteristisch für die Leonardo-Welt, in der wir nun seit 500 Jahren leben, ist die gegenüber Antike und Mittelalter neue Form instrumenteller, hergestellter Erfahrung auf der Grundlage technischer Konstruktionen. Mittelstraß unterscheidet zugespitzt zwischen dem Aristotelischen und dem Galileischen Erfahrungsbegriff: »Kennzeichnend für den Aristotelischen Erfahrungsbegriff ist […], dass er in Form einer noch vor-theoretischen Praxis […] sowohl Basis als auch Begründungsmittel einer theoretischen Praxis, der Praxis empirischer Wissenschaften ist.«53 Die Begriffe und Lehrsätze der Physik des Aristoteles werden aus der Alltagssprache gebildet, und die alltägliche Lebenspraxis ist es auch, die sie bestätigen soll.
In der neuzeitlichen Naturwissenschaft tritt mit der systematischen Einführung des Experiments an die Stelle »der vor-theoretischen Lebenspraxis […] die technische Praxis« des Herstellens von Experimentalanordnungen, Messgeräten und letztlich auch von Erfahrung selbst. Der Galileische Erfahrungsbegriff ist im Gegensatz zum Aristotelischen »an die Bedingungen einer messenden Physik gebunden; als empirisches Wissen tritt nicht mehr auf, was sich als ein vor-theoretisches Wissen theoretisch fassen läßt, sondern was mit den Instrumentarien einer physikalischen bzw. technischen Praxis […] gewonnen wurde«.54 Angesichts dieses veränderten Verständnisses von Empirie verlieren die empirischen Wissenschaften methodologisch das »Interesse an einer vor-theoretischen Erfahrungsbasis«. Der vortheoretische Erfahrungsbegriff »gilt nunmehr als ›unwissenschaftliches‹ Pendant zur wissenschaftlichen, d. h. auf eine Theorie des Messens gegründeten Empirie«.55 Im Gegenzug wird jene Erfahrung als ›bloß subjektiv‹ abqualifiziert.
Mittelstraß versucht, den vor-messtheoretischen Aristotelischen Erfahrungsbegriff methodologisch zu rehabilitieren, und übernimmt das für diesen Zweck von Friedrich Kambartel eingeführte Konzept des »lebensweltlichen Apriori«, das seinerseits auf Edmund Husserl zurückgeht. Der Galileische Erfahrungsbegriff soll durch den Aristotelischen nicht substituiert, sondern vielmehr supplementiert werden. Das Ziel ist die »Ergänzung« der ›Galileischen‹ theoretischen Praxis »um ihre vor-theoretischen […] Voraussetzungen«.56 Zu diesen vortheoretischen Voraussetzungen zählt Mittelstraß einerseits die »sprachliche Unterscheidungs- und Orientierungspraxis«, die auch eine Argumentationspraxis einschließt, und andererseits die »technische Praxis«, die ein elementares Herstellungswissen implementiert.57 Beides lässt sich, wie wir noch sehen werden, sehr gut an Husserls Rekonstruktion der Geometrie aus der Feldmesspraxis nachvollziehen. Genauso geeignet ist aber wiederum die Messbarmachung von Wärme als Temperatur. Die Erfindung des Thermometers setzt nicht nur ein Unterscheidungswissen über die Differenz zwischen warm und kalt voraus, sondern auch ein Herstellungswissen für die Produktion von Glasröhren usw. Naturwissenschaftliche Theorie ist undenkbar ohne verlässliche Messtechnik, und Messtechnik ist undenkbar ohne die kundige Herstellung von Messgeräten. Zielgerichtetes und interessegeleitetes Herstellungshandeln mit der ihm eigenen Normativität von Gelingen und Scheitern ist jedoch kein Naturvorgang, sondern eine menschliche Praxis.
Allerdings ist festzuhalten, dass der von Mittelstraß beschriebene »Galileische Erfahrungsbegriff« beim Übergang von der Neuzeit in die Moderne eine doppelte Transformation durchlaufen hat: Mitte des 19. Jahrhunderts durch die Abkopplung des Messens vom Erleben (z. B. Wellenschreiber, sog. Kymographen) und in der zweiten Hälfte des 20. Jahrhunderts durch den Einsatz von Computersimulationen. Das vielleicht elaborierteste Beispiel für die Abkopplung des Messprozesses von jeglicher Anschauung ist heutzutage ein Teilchenbeschleuniger, der zwar ein Messgerät ist, jedoch keinerlei sinnliche Beobachtung ermöglicht. Die Forscher lesen vielmehr abstrakte Zeichen auf Computermonitoren ab. Gerade die Physik – zu denken wäre etwa an den Nachweis von Gravitationswellen durch Laserinterferometer – macht deutlich, in welch hohem Maße die moderne naturwissenschaftliche Empirie von der Ingenieurskunst abhängig geworden ist. Wer über die moderne Naturwissenschaft spricht, darf über Ingenieurswissenschaft nicht schweigen. Man könnte diesen Transformationsprozess auch als ein zunehmendes Blackboxing (Bruno Latour) der technischen Mittel beschreiben, die in empirischen Wissenschaften zum Einsatz kommen. In gewisser Hinsicht wandert die Erfahrung selbst in die Black Box der Mess- bzw. Simulationsapparatur. Die wissenschaftsgeschichtliche Fortentwicklung des »Galileischen Erfahrungsbegriffs« lässt damit fragwürdig erscheinen, wieweit in der Moderne überhaupt noch sinnvoll von Empirie als Erfahrung gesprochen werden kann.58
Die Erinnerung an das »lebensweltliche Apriori« ist zugleich eine Erinnerung an Husserl. Dessen Spätwerk Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie (1936) ist für die folgenden Untersuchungen ein wiederkehrender Bezugspunkt. In § 36 findet sich jene Bemerkung, an die Kambartel und Mittelstraß anknüpfen: Demnach ist »alles objektive Apriori« der Wissenschaften »auf ein entsprechendes lebensweltliches Apriori« notwendig zurückbezogen.59 Sämtliche in den Wissenschaften erhobenen Geltungsansprüche lassen sich letztlich nur aufgrund ihrer epistemischen Verankerung in der Lebenswelt einlösen. Die Lebenswelt definiert Husserl kurz zuvor als »die raumzeitliche Welt der Dinge, so wie wir sie in unserem vor- und außerwissenschaftlichen Leben erfahren und über die erfahrenen hinaus als erfahrbar wissen. Wir haben einen Welthorizont als Horizont möglicher Dingerfahrung.«60 Würde es Husserl bei dieser Definition belassen, wäre der Schulterschluss zwischen Konstanz und Freiburg perfekt. Schon Rüdiger Welter hat jedoch ausführlich auf die grundlegenden Differenzen zwischen den Lebensweltkonzepten des Phänomenologen und der Konstruktiven Wissenschaftstheorie hingewiesen.61 Sie müssen deshalb nicht noch einmal hervorgehoben werden. Husserls Theorie der Lebenswelt ist von ihren bewusstseinsphilosophischen Grundlagen bis zu ihren ontologischen Ambitionen ein derart anders angelegtes Projekt, dass sich die anfänglich bemerkte Nähe auf den zweiten Blick mehr als eine von Schlagworten als von Begriffen herausstellt.
Freilich stehen philosophische Begriffe nicht unter Patentschutz, und Husserl hält nicht die Rechte an dem der Lebenswelt. Ein Aspekt, der zu den zahllosen Anschlussunternehmungen beigetragen hat, liegt gerade in der Unschärfe des Husserlschen Lebensweltbegriffs, dessen Bestimmung als »Welthorizont« zudem den Charakter einer absoluten Metapher im Sinne Blumenbergs hat. Prägnanz gewinnt er am ehesten durch die Angabe dessen, was Lebenswelt nicht ist. Sie fällt zum einen nicht mit dem zusammen, was Husserl (historische) Umwelt nennt und was wir heute am ehesten als Kultur im Plural bezeichnen würden.62 Zum anderen ist sie die Welt der Dinge, so wie wir sie in unserem vor- und außerwissenschaftlichen Leben erfahren. Damit markiert das universale Lebensweltapriori methodologisch eine Grenze zum Kulturrelativismus wie zum Positivismus. Lebenswelt ist das Korrelat zu einer Erfahrung, die weder durch einen spezifischen kulturellen Kontext einfach hintergangen noch durch die Wissenschaften übertroffen werden kann.
Die letztgenannte Grenze wird durch den bereits genannten praktischen Fundierungszusammenhang zwischen theoretischer und vortheoretischer Erfahrung deutlich, die erstgenannte durch die Möglichkeit der Übersetzung und der Verständigung zwischen verschiedenen Sprachen und kulturellen Praxisformen sowie durch die Ausbreitung technischer Erfindungen über Ländergrenzen hinweg. Auch wenn es zweifellos Wechselwirkungen zwischen der in Europa entstandenen modernen technisch-wissenschaftlichen Kultur und der lebensweltlichen Erfahrung gibt, so wird die Lebenswelt doch so lange nicht zu einer Kolonie jener Kultur, wie eine Verständigung über deren Eigensinn noch möglich ist. Die Tatsache des Redens über die Leonardo-Welt belegt die Gültigkeit des lebensweltlichen Apriori. Anders gewendet, das Faktum der Vermittlung impliziert die Vermittelbarkeit in einem seinerseits unmittelbar gegebenen Raum der Unterscheidung und Orientierung. Wenn im Folgenden von der Lebenswelt die Rede ist, dann im Sinne dieses intersubjektiv geteilten Raums von Erfahrungsweisen und Praxisformen (die Poiesis eingeschlossen), die zwar vor- und außerwissenschaftlich gewachsen, aber gleichwohl universalisierbar sind.
