Die 4. Revolution - Luciano Floridi - E-Book

Die 4. Revolution E-Book

Luciano Floridi

0,0
29,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.

Mehr erfahren.
Beschreibung

Eine Philosophie für das Internetzeitalter

Unsere Computer werden immer schneller, kleiner und billiger; wir produzieren jeden Tag genug Daten, um alle Bibliotheken der USA damit zu füllen; und im Durchschnitt trägt jeder Mensch heute mindestens einen Gegenstand bei sich, der mit dem Internet verbunden ist. Wir erleben gerade eine explosionsartige Entwicklung von Informations- und Kommunikationstechnologien. Luciano Floridi, einer der weltweit führenden Informationstheoretiker, zeigt in seinem meisterhaften Buch, dass wir uns nach den Revolutionen der Physik (Kopernikus), Biologie (Darwin) und Psychologie (Freud) nun inmitten einer vierten Revolution befinden, die unser ganzes Leben verändert.

Die Trennung zwischen online und offline schwindet, denn wir interagieren zunehmend mit smarten, responsiven Objekten, um unseren Alltag zu bewältigen oder miteinander zu kommunizieren. Der Mensch kreiert sich eine neue Umwelt, eine »Infosphäre«. Persönlichkeitsprofile, die wir online erzeugen, beginnen, in unseren Alltag zurückzuwirken, sodass wir immer mehr ein »Onlife« leben. Informations- und Kommunikationstechnologien bestimmen die Art, wie wir einkaufen, arbeiten, für unsere Gesundheit vorsorgen, Beziehungen pflegen, unsere Freizeit gestalten, Politik betreiben und sogar wie wir Krieg führen. Aber sind diese Entwicklungen wirklich zu unserem Vorteil? Was sind ihre Risiken?

Floridi weist den Weg zu einem neuen ethischen und ökologischen Denken, um die Herausforderungen der digitalen Revolution und der Informationsgesellschaft zu meistern. Ein Buch von großer Aktualität und theoretischer Brillanz.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 444

Veröffentlichungsjahr: 2015

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Unsere Computer werden immer schneller, kleiner und billiger; wir produzieren jeden Tag genug Daten, um alle Bibliotheken der USA damit zu füllen; und im Durchschnitt trägt jeder Mensch heute mindestens einen Gegenstand bei sich, der mit dem Internet verbunden ist. Wir erleben gerade eine explosionsartige Entwicklung von Informations- und Kommunikationstechnologien. Luciano Floridi, einer der weltweit führenden Informationstheoretiker, zeigt in seinem meisterhaften Buch, dass wir uns nach den Revolutionen der Physik (Kopernikus), Biologie (Darwin) und Psychologie (Freud) nun inmitten einer vierten Revolution befinden, die unser ganzes Leben verändert.

 Die Trennung zwischen online und offline schwindet, denn wir interagieren zunehmend mit smarten, responsiven Objekten, um unseren Alltag zu bewältigen oder miteinander zu kommunizieren. Der Mensch kreiert sich eine neue Umwelt, eine »Infosphäre«. Persönlichkeitsprofile, die wir online erzeugen, beginnen in unseren Alltag zurückzuwirken, sodass wir immer mehr ein »Onlife« leben. Informations- und Kommunikationstechnologien bestimmen die Art, wie wir einkaufen, arbeiten, für unsere Gesundheit vorsorgen, Beziehungen pflegen, unsere Freizeit gestalten, Politik betreiben und sogar, wie wir Krieg führen. Aber sind diese Entwicklungen wirklich zu unserem Vorteil? Was sind ihre Risiken? Floridi weist den Weg zu einem neuen ethischen und ökologischen Denken, um die Herausforderungen der digitalen Revolution und der Informationsgesellschaft zu meistern. Ein Buch von großer Aktualität und theoretischer Brillanz.

Luciano Floridi

Die 4. Revolution

Wie die Infosphäre unser Leben verändert

Aus dem Englischen von Axel Walter

Suhrkamp

Die Originalausgabe erschien 2014 unter dem Titel The 4. Revolution. How the Infosphere is Reshaping Human Reality bei Oxford University Press

Bibliografische Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

eBook Suhrkamp Verlag Berlin 2015

Der vorliegende Text folgt der Erstausgabe, 2015

© dieser Ausgabe Suhrkamp Verlag Berlin 2015

© Luciano Floridi 2014

Alle Rechte vorbehalten, insbesondere das des öffentlichen Vortrags sowie der Übertragung durch Rundfunk und Fernsehen, auch einzelner Teile.

Kein Teil des Werkes darf in irgendeiner Form (durch Fotografie, Mikrofilm oder andere Verfahren) ohne schriftliche Genehmigung des Verlages reproduziert oder unter Verwendung elektronischer Systeme verarbeitet, vervielfältigt oder verbreitet werden.

Für Inhalte von Webseiten Dritter, auf die in diesem Werk verwiesen wird, ist stets der jeweilige Anbieter oder Betreiber verantwortlich, wir übernehmen dafür keine Gewähr.

Rechtswidrige Inhalte waren zum Zeitpunkt der Verlinkung nicht erkennbar.

Satz: Satz-Offizin Hümmer GmbH, Waldbüttelbrunn

Umschlaggestaltung: Hermann Michels und Regina Göllner

Umschlagabbildung: shutterstock

Inhalt

Vorwort

Danksagung

 1. ZEIT Hypergeschichte

 2. RAUM Infosphäre

 3. IDENTITÄT Onlife

 4. SELBSTVERSTÄNDNIS Die vier Revolutionen

 5. PRIVATSPHÄRE Informationelle Reibung

 6. INTELLIGENZ Die Welt einschreiben

 7. HANDELN Die Welt umhüllen

 8. POLITIK Der Aufstieg der Multiakteurssysteme

 9. UMWELT Das digitale Gambit

10. ETHIK E-Umweltschutz

Anmerkungen

Vorwort

Dieses Buch handelt von den Auswirkungen, die unsere digitalen IKT (Informations- und Kommunikationstechnologien) darauf haben, wie wir uns selbst verstehen, wie wir miteinander in Beziehung treten und wie wir unsere Welt gestalten und mit ihr interagieren. Nanotechnologie, das Internet der Dinge, Web 2.0, Semantisches Web, Cloud Computing, Computerspiele mit Bewegungserfassung, Smartphone-Apps, Tabletcomputer und Touchscreens, GPS, Augmented Reality, künstliche Begleiter, unbemannte Drohnen, fahrerlose Autos, Wearables, 3-D-Drucker, Identitätsdiebstahl, Onlinekurse, soziale Medien, Cyberkrieg … Technophile und Technophobe stellen sich dieselbe Frage: Was kommt als Nächstes? Der Philosoph fragt sich, was steckt dahinter. Gibt es eine verbindende Perspektive, aus der sich all diese Phänomene als Aspekte eines einzigen makroskopischen Trends interpretieren lassen? Schwer zu beantworten ist diese Frage auch deshalb, weil wir nach wie vor gewohnt sind, in den IKT Werkzeuge zur Interaktion mit der Welt und mit uns selbst zu sehen. In Wahrheit sind aus ihnen umweltgestaltende, anthropologische, soziale und interpretative Kräfte geworden. Sie schaffen und prägen unsere geistige und materielle Wirklichkeit, verändern unser Selbstverständnis, modifizieren, wie wir miteinander in Beziehung treten und uns auf uns selbst beziehen, und sie bringen unsere Weltdeutung auf einen neuen, besseren Stand, und all das tun sie ebenso tief greifend wie umfassend und unablässig.

Dies ist also ein philosophisches Buch, aber keines nur für Philosophen. Mir geht es mit ihm darum, einige der grundlegenden technologischen Kräfte, die sich auf unser Leben, unsere Überzeugungen und alles uns Umgebende auswirken, zu identifizieren und zu erklären, gleichwohl ist es keine technische oder wissenschaftliche Abhandlung. Wie Sie bei einem schnellen Blick auf das Inhaltsverzeichnis feststellen können, bin ich der Überzeugung, dass wir den Beginn einer tief greifenden revolutionären Umwälzung erleben, einer Kulturrevolution, die zum größten Teil von den IKT ausgeht. Mir ist bewusst, dass sich jede Generation für besonders hält, einfach nur, weil sie am Leben ist und sich infolgedessen auf die Einzigartigkeit ihres Platzes zwischen den Toten und den noch Ungeborenen berufen kann. Darum teile ich die Ansicht, dass es wichtig ist, die Dinge nüchtern zu betrachten und nicht unnötig zu dramatisieren. Doch stellen Sie sich vor, Sie wären Zeuge der Ereignisse gewesen, die sich am 16. Dezember 1773 in Boston zugetragen haben, oder dessen, was am 14. Juli 1789 in Paris geschah. Dass wir ein neues Jahrtausend schreiben und uns in der Infosphäre befinden, ist ein Fakt, und das ist es auch, was ich in diesem Buch herausstellen möchte.

Die Informationsrevolution, die ich erörtere, ist eine große Chance für unsere Zukunft. Dies ist also auch ein moderat optimistisches Buch. Ich sage »moderat«, denn die Frage ist, ob es uns gelingen wird, das Beste aus unseren IKT zu machen und dabei ihre schlimmsten Folgen zu vermeiden. Wie lässt sich sicherstellen, dass wir den Nutzen aus ihnen haben? Was könnten wir tun, um die besten technologischen Transformationen zu erkennen, zu koordinieren und zu fördern? Welche Risiken birgt die Umwandlung der Welt in eine immer IKT-freundlichere Umwelt? Werden unsere IKT uns beflügeln und ermächtigen oder werden sie unseren materiellen und begrifflichen Spielraum einengen und uns leise zwingen, uns ihnen anzupassen, weil darin die beste oder mitunter die einzige Möglichkeit besteht, die Dinge zum Laufen zu bringen? Können IKT uns helfen, unsere drängendsten sozialen und ökologischen Probleme zu lösen, oder werden sie sie nur verschärfen? Dies sind nur einige der herausfordernden Fragen, die die Informationsrevolution aufwirft. Ich hoffe, dieses Buch kann etwas dazu beitragen, dass die umfangreicheren Bemühungen, die zu ihrer Behandlung und Klärung im Gange sind, vorankommen; und dass ein fruchtbarerer und effektiverer Umgang mit den Problemen und Chancen der IKT möglich wird, wenn wir ein tieferes Verständnis ihrer Auswirkungen auf unser heutiges und zukünftiges Leben gewinnen.

Die große Chance, die sich mit den IKT bietet, geht mit einer riesigen intellektuellen Verantwortung einher, sie so zu verstehen und uns zunutze zu machen, wie es richtig wäre. Auch deshalb ist dies kein Buch für Spezialisten, sondern für jeden und jede, der oder die ein Interesse an der Entwicklung unserer IKT hat und daran, wie sie sich auf uns und die absehbare Zukunft der Menschheit auswirken. Das Buch setzt kein Vorwissen zu den Themen voraus, wenngleich es sich nicht um einen Grundlagentext für Einsteiger handelt. Komplexe Phänomene lassen sich begrifflich vereinfachen, jedoch nicht beliebig, und jenseits einer gewissen Schwelle wird die Vereinfachung eine unzutreffende und daher nutzlose Verzerrung. Ich habe versucht, mich so nah wie möglich an dieser Schwelle entlangzubewegen, ohne sie zu überschreiten. Sie werden meine Bemühungen, wie ich hoffe, wohlwollend aufnehmen.

Als ein Buch für Nichtfachleute könnte es auch als Einführung dienen. Denn es ist Teil eines umfassenderen Projekts zu den Grundlagen der Informationsphilosophie, bei dem es darum geht, unsere Philosophie auf den neuesten Stand zu bringen und sie für unsere Zeit und außerhalb akademischer Mauern relevant zu machen.1 Angesichts der beispiellosen Neuheiten, die den Anbruch des Informationszeitalters begleiten, überrascht es nicht, dass viele unserer grundlegenden, so fest in der Geschichte und vor allem im Industriezeitalter verwurzelten philosophischen Ansichten überarbeitet und ergänzt, wenn nicht sogar ganz ersetzt werden müssen. Mag sein, dass es in den Akademien, den Think-Tanks, den Forschungszentren oder in den Forschungs- und Entwicklungsbüros noch anders ist, auf den Straßen und online aber herrscht eine Atmosphäre konfuser Erwartung, gemischt mit Sorge; eine Wahrnehmung, dass sich in unseren Ansichten über die Welt, über uns und unsere Interaktionen mit der Welt und untereinander aufregende Veränderungen vollziehen, die im Kleinen beginnen und immer weitere Kreise ziehen. Diese Atmosphäre und diese Wahrnehmung sind nicht das Resultat von Forschungsprogrammen oder von Förderanträgen, die sich schließlich ausgezahlt hätten. Viel wirklichkeitsnäher und eindringlicher, aber auch unübersichtlicher und vorläufiger, sind die Änderungen in unseren Ansichten über die Welt das Resultat unserer täglichen geistigen Angleichungen und Verhaltensanpassungen an eine im ständigen Fluss befindliche Wirklichkeit, die sich vor unseren Augen immer schneller verändert. Wir stürzen in die Zukunft und finden dabei ein neues Gleichgewicht, indem wir neue Bedingungen gestalten und uns auf sie einstellen, obwohl sie noch keineswegs endgültig ausgereift sind. Es ist nicht länger so, dass Neues zunächst die althergebrachten Abläufe stört, bis es nach gewisser Zeit »eingepreist« ist und alles nach fast dem gleichen Schema weitergeht. Denken Sie beispielsweise an die Autoindustrie oder die Buchindustrie und die Stabilität, die sie nach einer Phase anfänglicher Störungen und rascher Anpassungsmaßnahmen gewonnen haben. Klar scheint, dass eine neue Geschichtsphilosophie, die unser Zeitalter als das Ende der Geschichte und den Beginn der Hypergeschichte (mehr zu dieser Auffassung im 1. Kapitel) plausibel zu machen versucht, eine Aufforderung darstellt zur Entwicklung einer neuen Naturphilosophie, einer neuen philosophischen Anthropologie, eines synthetischen Umweltschutzes als einer Brücke zwischen uns und der Welt und einer neuen Philosophie der Politik unter uns. »Cyberkultur«, »Posthumanismus«, »Singularität« und andere ähnliche modische Ideen lassen sich allesamt als Versuche ihrer Vertreter verstehen, unserer komplizierten hypergeschichtlichen Lage Sinn zu geben. In dieser Hinsicht sind sie bezeichnend, sie mögen mitunter auch anregend sein, letztlich aber überzeugen sie mich nicht. »O buraco é mais embaixo«, wie man in Brasilien sagt: Das Loch ist weit tiefer, das Problem viel tiefgründiger. Wir kommen nicht umhin, uns auf ernsthafte philosophische Tiefenschürfungen einzulassen. Aus diesem Grund kommt die Aufforderung, Gegenwart und Zukunft in einer zunehmend technologisierten Welt neu und anders zu denken, der Forderung nach einer neuen Informationsphilosophie gleich, die auf jeden Aspekt unserer hypergeschichtlichen Lage Anwendung finden kann. Wir müssen die Wurzeln unserer Kultur sorgfältig in Augenschein nehmen und sie pflegen, gerade weil wir wollen, dass sie wächst und gedeiht.

Wir wissen, dass die Informationsgesellschaft ihre weit zurückreichenden Wurzeln in der Erfindung der Schrift, des Drucks und der Massenmedien hat. Realität wurde sie jedoch erst vor kurzer Zeit, als sich die Aufzeichnungs- und Übertragungsmöglichkeiten der IKT zu Verarbeitungsfähigkeiten entwickelten. Mit den von den IKT bewirkten tief greifenden und umfassenden Wandlungen vermochten wir begrifflich nicht annähernd Schritt zu halten. So entstand ein enormes Defizit, das es aufzuarbeiten gilt. Wir können es uns zweifellos nicht leisten, auf die Philosophie und ihre Mitwirkung zu verzichten, denn die vor uns liegenden Aufgaben sind schwierig. Wir brauchen sie, um besser zu verstehen, wie Information eigentlich beschaffen ist. Wir brauchen sie, um die ethischen Auswirkungen der IKT auf uns und unsere Umwelt zu antizipieren und zu kanalisieren. Wir brauchen sie, um die ökonomischen, sozialen und politischen Informationsdynamiken zu verbessern. Und wir brauchen sie zur Entwicklung des richtigen geistigen Rahmens, der uns dazu dienen kann, unsere neue schwierige Lage zu semantisieren (ihr Bedeutung zu geben und Sinn abzugewinnen). Kurz gesagt brauchen wir eine Informationsphilosophie als eine Philosophie über unsere Zeit für unsere Zeit.

Ich mache mir keine Illusionen, vor uns liegt eine gigantische Aufgabe. In diesem Buch skizziere ich lediglich ein paar Ideen für eine Philosophie der Information, in Form einer Philosophie der Hypergeschichte; für eine Philosophie der Natur, in Form einer Philosophie der Infosphäre; für eine philosophische Anthropologie, in Form einer vierten Revolution in unserem Selbstverständnis, nach der kopernikanischen, der darwinschen und der freudschen; und für eine Philosophie der Politik, in Form der Entwicklung von Multiakteurssystemen, die sich der Aufgabe, globale Probleme zu bewältigen, gewachsen zeigen könnten. All dies sollte zu einer Ausweitung der ethischen Sorge um und für alle Umwelten führen, einschließlich der künstlichen, digitalen oder synthetischen. Eine solche neue »e-kologische« Ethik oder »E-Umweltethik« sollte auf einer Informationsethik für die ganze Infosphäre und sämtliche ihrer Komponenten und Bewohner gründen. In den folgenden Kapiteln streife ich solche Ideen bloß und reiße das Problem notwendiger ethischer Infrastrukturen, die mit ihnen im Einklang stehen könnten, lediglich an. Viel mehr Arbeit wartet auf uns. Ich hoffe sehr, dass sich viele andere bereitfinden werden, ihre Kräfte zu bündeln.

Schließlich werden Sie bei der Lektüre dieses Buches feststellen, dass es eine Menge nur vorläufiger oder versuchsweise verwendeter Begriffe und Termini enthält, zusammen mit Neologismen, Akronymen und Fachausdrücken. Dergleichen Versuche zur Umgestaltung unserer Sprache können ärgerlich sein, sie lassen sich jedoch nicht immer vermeiden. Mein Ringen um eine Balance zwischen Lesbarkeit und Genauigkeit ist offensichtlich und ich habe mich entschlossen, es nicht zu verbergen. Genau wie ein guter Schwimmer – einer anschaulichen Analogie des Philosophen Friedrich Waismanns (1896-1959) zufolge, der seinerzeit dem Wiener Kreis angehörte – in der Lage ist, stromaufwärts zu schwimmen, sollte ein guter Philosoph die schwierige Kunst beherrschen, »sprachaufwärts« zu denken, gegen den Strom sprachlicher Gewohnheiten.2 Ich teile diese Ansicht unbedingt, bin mir jedoch auch darüber im Klaren, dass meine Bemühungen um die Erfassung des umfassend und tief greifend Neuen, mit dem wir es in geistiger Hinsicht zu tun haben, unzureichend bleiben. Dem Fluss alter Ideen zu widerstehen, stellt eine große und wichtige Herausforderung dar, weil wir ohne ein besseres Verständnis der Zusammenhänge schwerlich zu besseren politischen Strategien gelangen. Wir müssen unsere Begrifflichkeit und ebenso unsere Arten, der Welt Bedeutung zu geben und ihr Sinn abzugewinnen (unsere Semantisierungsprozesse und -praktiken), überdenken und gegebenenfalls neu konzipieren, wenn wir unser Zeitalter besser begreifen und dadurch unsere Chance erhöhen wollen, es auf die bestmögliche Art zu gestalten und seine Schwierigkeiten erfolgreich zu bewältigen. Dies ist kein Freibrief zum Verzicht auf Klarheit und Vernunft, auf nötige Belege und schlüssige Argumente, plausible Erklärungen und darauf, offen einzuräumen, dass man in Bezug auf die Dinge unsicher oder unwissend ist. Gegen den Strom zu schwimmen, hat nichts mit panischem Herumstrampeln zu tun. Im Gegenteil verlangt es erst recht Disziplin. Wir müssen weiter an unserer geistigen Verfassung arbeiten und dürfen unsere intellektuellen Bemühungen nicht einstellen. Darum lassen Sie mich vielleicht bei dem Bild des Wassers bleiben und Otto Neurath (1882-1945) paraphrasieren, einen anderen Philosophen, der dem Wiener Kreis angehörte:3 Wir haben nicht einmal ein Floß, doch in Unklarheiten zu ertrinken, stellt keine Option dar.4 Träges Denken wird unsere Probleme nur verschärfen. Wir müssen unseren Verstand anstrengen und ein Floß bauen, während wir schwimmen. Ich hoffe, die folgenden Kapitel halten dafür genug Baumaterial bereit.

Danksagung

So viele Menschen haben mir beim Schreiben dieses Buches auf so vielfältige Weise und bei so vielen Gelegenheiten geholfen, dass ich bei dem Versuch, sie alle namentlich aufzuführen, mit Sicherheit doch jemand Wichtigen vergessen könnte, wie lang die Liste auch werden würde. Darum werde ich mich darauf beschränken, nur denen meinen Dank auszusprechen, die im letzten Abschnitt des Forschungs- und Schreibmarathons eine größere Rolle gespielt haben.

Ungemein dankbar bin ich Latha Menon, der verantwortlichen Lektorin bei Oxford University Press, für ihre Ermutigung, mich auf dieses ambitionierte Projekt einzulassen, für ihre Anregungen in verschiedenen Stadien der Arbeit und für ihre Unterstützung über die Jahre, selbst dann noch, als ich ein ums andere Mal um eine weitere Verlängerung der Abgabefrist bat. Sie las den vorletzten Entwurf und machte ihn bemerkenswert leserfreundlich.

Viele Gespräche mit Anthony Beavers, Terry Bynum, Massimo Durante, Charles Ess, Amos Golan, Mireille Hildebrandt, Hosuk Lee-Makiyama, Marco Pancini, Ugo Pagallo, Mariarosara Taddeo, Matteo Turilli, Menno van Doorn und Marty J. Wolf zu unterschiedlichen Teilen dieses Buches haben wesentliche Verbesserungen bewirkt. Wir haben unseren Wein nicht vergeudet, ich bin ihnen allerdings noch einige Drinks schuldig. Speziell Massimo Durante, Federico Gobbo, Carson Grubaugh, Ugo Pagallo und Marty J. Wolf haben den, wie ich dachte, letzten Entwurf gelesen und ihn dank ihrer äußerst aufschlussreichen Anmerkungen wieder in den Stand eines vorletzten zurückversetzt.

Meiner Frau Anna Christina (Kia) De Ozorio Nobre verdanke ich nicht nur ein Leben voller Liebe, sondern auch die ursprüngliche Idee, der »vierten Revolution« mehr Aufmerksamkeit zu schenken, und ein grenzenloses Vertrauen in die Fähigkeiten ihres Gatten, ihren hohen Erwartungen und Maßstäben gerecht zu werden. Sie hat mich so oft darüber klagen hören, wie schwierig es sei, dieses Buch abzuschließen, dass ich mich fast schäme, nun, da es mir tatsächlich gelungen ist. Wenige Dinge wirken so motivierend wie die völlige Gewissheit einer geliebten und geschätzten Person, man selbst werde seine gesteckten Ziele erreichen. Kia machte zahlreiche grundlegende und verständnisvolle Vorschläge zu dem letzten Entwurf, den ich ihr im Laufe einiger wunderbarer Abende vor unserem Kamin vorgelesen habe.

Im Jahr 2012 hatte ich das Vergnügen und das Privileg, eine von der Europäischen Kommission organisierte Forschungsgruppe zu leiten, die Onlife Initiative, die sich mit dem Einfluss der IKT auf die in der europäischen Gesellschaft vor sich gehenden Wandlungen befassen sollte. Nicole Dewandre, Beraterin des Generaldirektors der Generaldirektion für Kommunikationsnetze, -inhalte und -technologien der Europäischen Kommission, hatte das ganze Projekt angestoßen und unterstützte es nach Kräften, und ich bin ihr und Robert Madelin zutiefst dankbar für eine solch wunderbare Herausforderung, in der wirklichen Welt Philosophie zu treiben. Das Resultat unserer Bemühungen bildet das Onlife Manifesto.1 Ich empfand es als große Ehre, dass die Gruppe und das Manifest nach einigen der Ideen benannt wurden, die ich in diesem Buch darlege. Teil der Gruppe zu sein, war eine frappierende intellektuelle Erfahrung. Durch sie habe ich viele Aspekte der Informationsrevolution schließlich besser verstanden, was mir ohne die Anregungen und Gespräche so vieler außergewöhnlicher Kollegen wohl nicht möglich gewesen wäre. Darum bedanke ich mich vielmals bei meinen Mit-»Onlifern«: Franco Accordino, Stefana Broadbent, Nicole Dewandre, Charles Ess, Jean-Gabriel Ganascia, Mireille Hildebrandt, Yiannis Laouris, Claire Lobet, Sarah Oates, Ugo Pagallo, Judith Simon, May Thorseth und Peter Paul Verbeek.

Das Buch in seiner vorliegenden Form ist das Ergebnis des sehr fruchtbaren Zusammenspiels mit der Lektoratsmannschaft von Oxford University Press, insbesondere mit Emma Ma. Die von OUP hinzugezogenen anonymen Gutachter haben mich auf dem rechten Weg gehalten. Penny Driscoll, meine Assistentin, hat das Manuskript hervorragend lektoriert und viel für seine bessere Lesbarkeit getan. Ihr verdanke ich auch manche äußerst nützliche philosophische Hinweise zur letzten Fassung des Buches. Ich muss an dieser Stelle nochmals bekräftigen, was ich zuvor schon einmal geschrieben habe: Ohne ihre außergewöhnliche Unterstützung und ihr ausgeprägtes Vermögen, die Fäden in der Hand zu behalten, hätte ich dieses Projekt unmöglich zum Abschluss bringen können.

Abschließend gilt mein Dank der Universität von Hertfordshire, Brendan Larvor und Jeremy Ridgman für die Unterstützung während der letzten Jahre mit allem, was ich für meine Forschung in verschiedenen Stadien brauchte; dem British Arts and Humanities Research Council und Google für drei Forschungszuschüsse während der akademischen Jahre 2010 ‌/ ‌2011 und 2011 ‌/ ‌2012, die einigen der Forschungsvorhaben für dieses Buch zugutekamen; Amos Golan, der so freundlich war mich einzuladen, als außerplanmäßiger Professor am Infometrics Institute im Wirtschaftsdepartment der American University (AU) in Washington zu lehren; und meinem neuen akademischen Zuhause, dem Oxford Internet Institute. Voraussetzung für den letzten Kraftakt bis zur Fertigstellung war eine Zeit stiller, konzentrierter und planvoller Beschäftigung, die ich 2013 an der AU verbringen durfte.

1ZEITHypergeschichte

Die drei Zeitalter der menschlichen Entwicklung

Nie zuvor in der Geschichte lebten so viele Menschen auf der Erde wie heute. Und nie zuvor lebten die Menschen länger als viele von uns heute. Die Lebenserwartung steigt (Abbildung 1; siehe auch Abbildung 19) und die Armut nimmt ab (Abbildung 2), auch wenn die Ungleichheit auf der Welt nach wie vor skandalös ist. Infolgedessen werden nun körperliche Gebrechen zur größten gesundheitspolitischen Herausforderung für die Menschheit.

Der positive Trend der Entwicklung, der sich an den Linienverläufen der Abbildungen 1 und 2 ablesen lässt, ist in hohem Maße unseren Technologien geschuldet, zumindest ihrer intelligenten, friedlichen und nachhaltigen Entwicklung und Verwendung.

Manchmal vergessen wir, wie viel wir Feuersteinen und Rädern, Funken und Pflügen, Motoren und Computern verdanken, wie tief wir der Technologie gegenüber in der Schuld stehen. Wir werden jedes Mal daran erinnert, wenn wir das Leben der Menschheit in die Vorgeschichte und die Geschichte unterteilen. Eine solch signifikante Schwelle nötigt uns anzuerkennen, dass die Erfindung und Entwicklung der IKT (der Informations- und Kommunikationstechnologien) den ganzen Unterschied ausmacht zwischen den Menschen, die wir waren, denen, die wir sind, und, wie ich in diesem Buch argumentieren werde, den Menschen, die wir sein und werden könnten. Erst als Systeme zur Verfügung standen, mit denen sich Ereignisse aufzeichnen ließen und somit Informationen zur zukünftigen Verwendung gesammelt und übertragen werden konnten, begannen die Einsichten und Erkenntnisse, zu denen frühere Generationen gelangt waren, sich auf weiche oder Lamarck'sche1 Weise exponentiell zu entwickeln, und so trat die Menschheit in die Geschichte ein.

Abb. 1: Lebenserwartung bei der Geburt, weltweit und mit Bezug auf die Hauptgruppierungen der Entwicklung, 1950-2050.

Quelle: Population Division of the Department of Economic and Social Affairs of the United Nations Secretariat (2005), World Population Prospects: The 2004 Revision Highlights, New York: United Nations.

Geschichte ist darum gleichbedeutend mit dem Informationszeitalter. Nach diesen Überlegungen hätte die Menschheit mindestens seit der Bronzezeit in Informationsgesellschaften unterschiedlicher Art gelebt, seit dem Zeitalter also, das durch die Erfindung der Schrift in Mesopotamien und anderen Weltgegenden gekennzeichnet ist (4. Jahrtausend v. Chr.). Im 3. Jahrtausend v. Chr. war mit Ur in Sumer (Irak) tatsächlich ein mesopotamischer Stadtstaat der am stärksten entwickelte und zentralisierte Verwaltungsstaat auf der Welt. Noch vor dem Golfkrieg (1991) und dem Irakkrieg (2003-2011) waren wir im Besitz einer Bibliothek von Hunderttausenden von Tontafeln. Diese enthalten weder Liebesbriefe noch Urlaubsgeschichten, sondern hauptsächlich Inventare, Geschäftsvorgänge und Verwaltungsangelegenheiten. Und doch entspricht Ur nicht den gängigen Vorstellungen von einer Informationsgesellschaft. Dafür ließen sich viele Erklärungen anführen, eine aber scheint überzeugender als alle anderen: Während Fortschritt und Wohlergehen der Menschheit noch bis vor ganz kurzer Zeit mit dem erfolgreichen und effizienten Management des Lebenszyklus der Information nur verbunden waren, sind sie von ihm mittlerweile weitestgehend abhängig geworden. Ich werde im Laufe des Kapitels mehr zu einem solchen Zyklus sagen, lassen Sie uns jedoch zunächst der Frage nachgehen, warum eine solche Abhängigkeit dazu geführt hat, dass wir jüngst in die Hypergeschichte eingetreten sind (Abbildung 3).

Abb. 2: Armut auf der Welt, definiert als die Zahl und der Anteil der Menschen, die ihren Lebensunterhalt mit weniger als 1,25 Dollar pro Tag (auf der Grundlage der Preise von 2005) bestreiten, von 1981-2008.

Quelle: Word Bank © The Economist Newspaper Limited, London (29. Februar 2012).

Vorgeschichte und Geschichte funktionieren wie Adverbien: Sie sagen uns, wie Menschen leben, nicht, wann oder wo sie leben. So gesehen erstrecken sich die menschlichen Gesellschaften derzeit über drei Zeitalter und zugleich Lebensweisen. Laut Berichten über eine nicht näher bestimmte Zahl unkontaktierter Stämme im Amazonasgebiet2 gab es zu Beginn des dritten Jahrtausends immer noch einige Gesellschaften, die vorgeschichtlich lebten, ohne Schriftzeugnisse. Falls, oder vielmehr, wenn solche Stämme eines Tages verschwinden, wird das erste Kapitel des Buches unserer Entwicklung fertiggeschrieben sein.

Abb. 3: Von der Vorgeschichte zur Hypergeschichte.

Heute leben die allermeisten Menschen nach wie vor geschichtlich, in Gesellschaften, die sich zur Aufzeichnung, Übertragung und Verwendung von Daten aller Art auf IKT verlassen. In solchen geschichtlichen Gesellschaften haben die IKT den anderen Technologien, allen voran den energierelevanten, noch nicht den Rang abgelaufen. Dann aber gibt es weltweit manche Menschen, die bereits hypergeschichtlich leben, in Gesellschaften und Lebenswelten, wo die IKT und ihre Möglichkeiten der Datenverarbeitung nicht bloß wichtige, sondern essenzielle Voraussetzungen für die Erhaltung und weitere Förderung des Wohlstands aller und jedes Einzelnen sowie der gedeihlichen Entwicklung insgesamt sind. So dürfen etwa sämtliche Mitglieder der G7 – also Deutschland, Frankreich, Großbritannien, Italien, Japan, Kanada und die USA – als hypergeschichtliche Gesellschaften gelten, weil das Bruttoinlandsprodukt (der Wert der Waren und Dienstleistungen in einem Land) dort jeweils zu mindestens 70 Prozent von immateriellen Gütern, die mit Information zusammenhängen, getragen wird und entsprechend weniger von den materiellen Produktionsgütern der Landwirtschaft und der Industrie. Die Wirtschaft in diesen Ländern ist stark angewiesen auf informationsbasierte Ressourcen (die Wissensökonomie), informationsintensive Dienstleistungen (speziell die Unternehmens- und Immobiliendienste, der Kommunikationsbereich, die Finanz-, die Versicherungs- und die Unterhaltungsbranche) und auf eine informationsorientierte öffentliche Hand (speziell der Ausbildungssektor, die öffentliche Verwaltung und die medizinische Versorgung).

Die Art der Konflikte erlaubt einen, freilich traurigen Test auf die Belastbarkeit der angenommenen Dreiteilung der menschlichen Evolution. Nur eine Gesellschaft, die hypergeschichtlich lebt, kann informationstechnisch bedroht werden – durch einen Cyberangriff. Nur die, die vom Digit leben, können durch das Digit sterben, wie wir im 8. Kapitel sehen werden.

Kehren wir zu Ur zurück. Der Grund, weshalb wir den Stadtstaat nicht als Informationsgesellschaft betrachten, ist demnach der, dass er sich, wenngleich in der Geschichte, noch nicht in der Hypergeschichte befand. Seine Abhängigkeit von Agrartechnologien etwa war größer als die von Tontafeln. Die sumerischen IKT lieferten die Aufzeichnungs- und Übertragungsinfrastruktur, von der aus die technologische Entwicklung weiter voranschreiten konnte, mit der Folge, dass jede neue technologische Schicht unsere Abhängigkeit vergrößerte. Zur Evolution der Verarbeitungsvermögen aus den Aufzeichnungs- und Übertragungsfähigkeiten kam es jedoch erst Tausende Jahre später, in den wenigen Jahrhunderten zwischen Johannes Gutenberg (um 1400-1468) und Alan Turing (1912-1954). Und erst die jetzige Generation erlebt die von den IKT bewirkten radikalen Wandlungsprozesse, die die neue Schwelle zwischen Geschichte und Hypergeschichte markieren.

Dass die Evolution der IKT lange brauchte, um die hypergeschichtlichen Informationsgesellschaften hervorzubringen, muss einen nicht wundern. Der Lebenszyklus der Information (siehe Abbildung 4) umfasst in der Regel die folgenden Phasen:

Abb. 4: Ein typischer Lebenszyklus der Information.

Zustandekommen (Vorfinden, Gestalten, Erstellen), Aufzeichnen, Übertragen (Vernetzen, Verbreiten, Zugreifen, Abrufen etc.), Verarbeiten (Erfassen, Überprüfen, Zusammenfügen, Modifizieren, Strukturieren, Indexieren, Unterteilen, Filtern, Aktualisieren, Einsortieren, Speichern etc.) und Verwenden (Verfolgen, Modellieren, Auswerten, Erläutern, Planen, Prognostizieren, Entscheiden, Unterweisen, Anlernen, Aneignen, Spielen). Stellen wir uns jetzt die Abbildung 4 wie eine Uhr vor und denken uns dazu eine Historikerin, die in der Zukunft schreibt, sagen wir in einer Million Jahren. Sie könnte es ganz normal finden oder sogar eine elegante Symmetrie darin erkennen, dass es rund 6000 Jahre dauerte, bis die landwirtschaftliche Revolution ihre volle Wirkung entfaltet hatte, von ihrem Beginn im Neolithikum (10. Jahrtausend v. Chr.) bis zur Bronzezeit, und dann noch einmal 6000 Jahre, von der Bronzezeit bis zum Ende des zweiten nachchristlichen Jahrtausends, bis die Informationsrevolution ihre eigentlichen Früchte trug. Vielleicht würde sie es sinnvoll finden, die menschliche Evolution als eine Dreistufenrakete zu veranschaulichen: In der Vorgeschichte gibt es keine IKT; in der Geschichte gibt es sie, sie zeichnen Informationen auf und übertragen sie, die menschlichen Gesellschaften aber hängen in der Hauptsache von Technologien anderer Art ab, die mit Primärressourcen und Energie zu tun haben; und in der Hypergeschichte gibt es IKT, sie zeichnen Informationen auf, übertragen sie, vor allem aber verarbeiten sie sie, wobei sie immer selbstständiger agieren, und das führt dazu, dass die menschlichen Gesellschaften auf sie und auf die Information als eine Grundressource zunehmend angewiesen sind, wollen sie sich erfolgreich entwickeln. Daraus könnte die Dame in der Zukunft schließen, dass sich Innovation, Wohlstand und Wertschöpfung ungefähr zu Beginn des dritten Jahrtausends von Größen mit IKT-Verbundenheit zu solchen mit IKT-Abhängigkeit wandelten. Sie könnte vermuten, dass eine solche Umstellung noch nie dagewesene Level der Verarbeitungsleistung und riesige Datenaufkommen voraussetzte. Und sie könnte es für möglich halten, dass es bei Speicherkapazität und Konnektivität in irgendeiner Form zu Engpässen gekommen sein muss. Mit beidem hätte sie Recht, wie wir im Laufe des Kapitels noch sehen werden.

Instruktionen

Betrachten wir die Diagramme von Abbildung 5 und 6. Abbildung 5 ist berühmt, fast schon Kult. Man kennt sie als Moore'sches Gesetz und sie illustriert, dass sich in der Entwicklungszeit der Digitalrechner die Zahl der Transistoren auf integrierten Schaltkreisen ungefähr alle zwei Jahre verdoppelt hat.

Abbildung 6 ist weniger berühmt, aber nicht minder erstaunlich. Sie erzählt uns eine ähnliche Geschichte, nur dass diese hier von sinkenden Preisen der Rechenleistung handelt. 2010 reichte die Rechenkraft eines iPad, des iPad2, zur Ausführung von 1600 Millionen Instruktionen pro Sekunde (MIPS). Indem sie den Preis einer solchen Rechenkraft auf 100 Dollar festsetzt, zeigt die Darstellung, was es in den vergangenen Jahrzehnten gekostet hätte, die Rechenleistung eines iPad2 einzukaufen. Beachten Sie, dass die vertikale Skala logarithmisch in Zehnerpotenzschritten absteigt, weil der Preis der Rechenleistung dramatisch fällt. Das alles bedeutet, dass die 1600 MIPS, die Sie in den Händen halten – oder vielmehr, 2010 gehalten haben, denn drei Jahre später lief das iPad4 bereits mit 17 ‌056 MIPS –, Sie in den 1950ern 100 Billionen Dollar gekostet hätten. Das ist eine Zahl, die nur Banker und Generäle verstehen. Ziehen wir zum Beispiel das BIP von Katar zum Vergleich heran. 2010 rangierte das Land an 57. Stelle von 190 Ländern weltweit und sein BIP hätte auch nicht annähernd genügt, um damit in den 1950ern das Äquivalent eines iPad2 zu erwerben, schließlich belief es sich auf schlappe 98 Milliarden.

Abb. 5: Moore'sches Gesetz.

Quelle: Wikipedia.

Ob man die eine oder die andere dieser beiden Abbildungen 5 und 6 zwingender findet, das Fazit ist dasselbe: Immer mehr Menschen steht bei sinkenden Preisen zunehmend mehr Leistung zur Verfügung, und das in Größenordnungen und in einem Tempo, die schier unglaublich sind. Der Rechenleistung scheinen vorwiegend physische Grenzen gesetzt – abhängig davon, wie gut unsere IKT Wärme ableiten und sich von unvermeidlichen Hardwarefehlern wieder erholen können, derweil sie kleiner und kleiner werden. Das ist sie, die Rakete, die die Menschheit auf die Reise aus der Geschichte in die Hypergeschichte geschickt hat, um in dem zuvor erwähnten Bild zu bleiben. Das wiederum auch verdeutlicht, warum die IKT noch immer die gewohnten Verhältnisse umwälzen und sich nicht sedimentiert haben: Die neuen Generationen müssen den älteren weiterhin beibringen, wie man sie benutzt, dafür aber lernen sie nach wie vor von diesen, wie man eine Mikrowelle in Gang setzt und benutzt.

Abb. 6: Die Kosten der einem iPad2 entsprechenden Rechenleistung.

Quelle: Das Hamilton-Projekt an der Brookings Institution.

An dieser Stelle drängt sich die Frage auf, wohin diese ganze Rechenkraft führt. Es ist ja nicht so, dass wir mit unseren Smartphones und Tablets regelmäßig Menschen auf den Mond bringen würden. Die Antwort ist mit einem Wort gegeben: Interaktionen, und zwar sowohl von Maschinen untereinander als auch zwischen Mensch und Computer.

Abb. 7: Wert in Dollar der in Autos durchschnittlich verbauten Halbleiter. P ‌= ‌Prognose.

Datenquelle: IC Insights, 2012.

In Maschine-zu-Maschine-Interaktionen verfolgt und erfasst ein IKT-System, zum Beispiel ein Messinstrument oder ein Sensor, ein Geschehen, wie etwa die Veränderung des Fahrbahnbelags, und gibt die anfallenden Daten über ein Netzwerk an eine Anwendungssoftware weiter, die die Daten verarbeitet und entsprechend agiert, indem sie beispielsweise den Bremsvorgang bei Bedarf automatisch anpasst. Sie haben vielleicht gehört, dass in einem durchschnittlichen Neuwagen heute mehr Rechenleistung steckt, als die NASA zur Verfügung hatte, um Astronauten auf den Mond zu befördern (Apollo-Programm, 1969). Das ist wirklich so. In einem gewöhnlichen Auto gibt es mehr als 50 IKT, die alles kontrollieren, von der Satellitennavigation bis zum hochauflösenden Display, vom ABS (den Antiblockierbremsen) bis zu den elektrischen Schlössern, von den Unterhaltungssystemen bis zu all den Sensoren, die im Motor verbaut sind. Das ist ein Wachstumsmarkt in der Automobilindustrie, wie Abbildung 7 verdeutlicht. Laut Intel folgt das vernetzte Auto unter den am schnellsten wachsenden technologischen Geräten nach Telefonen und Tabletcomputern bereits an dritter Stelle. Es ist nur eine Frage der Zeit, und es wird nicht mehr lange dauern, bis alle Neuwagen mit dem Internet verbunden sind und zum Beispiel einen günstig gelegenen Parkplatz finden, andere Fahrzeuge aufspüren oder preiswertere Tankstellen entlang der Route ausfindig machen werden. Und natürlich werden Elektrofahrzeuge mehr und mehr »Berechnung« nötig haben: Schon jetzt sind in ihnen doppelt so viele Halbleiter verbaut wie in herkömmlichen Autos. Aus Mechanikern werden Computertechniker.

Bei Mensch-Computer-Interaktionen (MCI) kommen IKT zum Einsatz, um zwischen menschlichen Benutzern und Rechensystemen Kommunikation herzustellen, zu erleichtern und zu optimieren. Wenn von IKT die Rede ist, wird leicht vergessen, dass Rechner nicht rechnen und Telefone nicht telefonieren, um es etwas paradox auszudrücken. Was Computer, Smartphones, Tablets und all die anderen Inkarnationen von IKT tun, ist, Daten bearbeiten. Wir stützen uns weit weniger auf sie und auf ihre Fähigkeiten zur Bewältigung riesiger Mengen an MIPS, um Zahlen zu addieren oder unsere Freunde anzurufen, als dazu, unseren Facebook-Status zu aktualisieren, die neuesten E-Books online zu bestellen und zu lesen, eine Rechnung auszustellen, ein Flugticket zu kaufen, eine elektronische Bordkarte zu scannen, einen Film zu schauen, ein Geschäft von innen zu begutachten, einen bestimmten Ort anzusteuern – die Liste ließe sich ohne Übertreibung fast beliebig erweitern. Darum ist die MCI so wichtig. Wobei sie seit Mitte der 1990er Jahre nicht einmal mehr auf Tastaturen und Bildschirme angewiesen ist. Sie kann auch über neuroprothetische Geräte, die ins Gehirn implantiert werden, ablaufen. Natürlich gilt für alle Mensch-Computer-Interaktionen, je besser der Prozess, desto mehr Rechenleistung wird die betreffende IKT wohl verschlingen. Reibungsloses Funktionieren erfordert eine Menge MIPS. Aus diesem Grund können neue Betriebssysteme in den seltensten Fällen auf alten Computern laufen.

Abb. 8: Zunahme der Weltbevölkerung und der Zahl der vernetzten Geräte. P ‌= ‌Prognose.

Datenquelle: Evans (2011).

Wir wissen, dass das, was wir mit unseren Augen sehen können – das sichtbare Regenbogenspektrum –, bloß ein sehr kleiner Teil des elektromagnetischen Spektrums ist, das sich aus Gammastrahlen, Röntgenstrahlen, Ultraviolett, Infrarot, Mikrowellen und Radiowellen zusammensetzt. Genauso verhält es sich auch mit dem Datenverarbeitungs-»Spektrum«, das wir wahrnehmen können: Es ist fast vernachlässigbar gering verglichen damit, was bei Maschine-zu-Maschine-Interaktionen und bei Mensch-Computer-Interaktionen wirklich abläuft. Immens viele IKT-Anwendungsprogramme führen jede Millisekunde unseres Lebens unübersehbar viele Befehle aus, um die hypergeschichtliche Informationsgesellschaft am Laufen zu halten. IKT verbrauchen die meisten ihrer MIPS für den Austausch untereinander, für ihre Zusammenarbeit und zur Koordination ihrer Schritte, und sie nehmen uns so angenehm und so bequem wie möglich in ihre Schleifen hinein oder an sie heran oder platzieren uns außerhalb, wenn es sein muss. Laut einem neueren White Paper von CISCO IBSG,3 einem multinationalen Unternehmen, das eigenen Angaben zufolge Netzwerkkomponenten entwirft, herstellt und verkauft, wird die Zahl der mit dem Internet verbundenen Geräte in diesem Jahr die 25-Milliarden-Marke erreichen und 2020 soll es 50 Milliarden davon geben (siehe Abbildung 8).

Abb. 9: Der Gesamtraum der Konnektivität im Verhältnis zur Zunahme der Weltbevölkerung und der Zahl der vernetzten Geräte. P ‌= ‌Prognose.

Datenquelle: Evans (2011).

Die Zahl der vernetzten Geräte pro Person, die 2003 bei 0,08 lag und 2010 schon bei 1,84, wird auf 3,47 in diesem Jahr und bis 2020 auf 6,58 steigen. Unserer Historikerin in der Zukunft wird die weltweite Kommunikation auf der Erde wie ein weitgehend nicht- oder außermenschliches Phänomen vorkommen, wie Abbildung 9 veranschaulicht.

Abb. 10: Das Anwachsen von Big Data.

Quelle: Auf der Grundlage des IDC(International Data Corporation)-White-Papers »The Diverse and Exploding Digital Universe« vom März 2008 und des IDC-White-Papers »Worldwide Big Data Technology and Service 2012-2015 Forecast« vom März 2012.

Für uns sind nahezu sämtliche MIPS unsichtbar wie der Sauerstoff, den wir atmen, allerdings sind sie gerade dabei, ebenso unverzichtbar zu werden, und sie nehmen exponentiell zu. Rechengeräte aller Art produzieren eine gigantische Menge an Daten, viel mehr Daten, als die Menschheit in ihrer Geschichte je gesehen hat (Abbildung 10). Dies ist die andere Ressource, die die Hypergeschichte möglich gemacht hat: Zettabytes.

Daten

Vor einigen Jahren schätzten Forscher der Berkeley School of Information,4 dass die Menschheit im Laufe ihrer Geschichte bis zur Kommodifizierung des Computers ungefähr 12 Exabyte5 an Daten zusammengetragen habe, dass es bis zum Jahr 2006 jedoch bereits 180 Exabyte gewesen seien. Einer jüngeren Studie6 zufolge wuchs die Gesamtmenge zwischen 2006 und 2011 auf über 1600 Exabyte an und passierte damit die Zettabyte-Marke (1000 Exabyte). Erwartet wird, dass sich diese Zahl etwa alle drei Jahre vervierfacht, so dass wir in diesem Jahr einen Wert von über 8 Zettabyte an Daten erreichen werden. Mit den an jedem einzelnen Tag produzierten Daten ließen sich alle US-amerikanischen Bibliotheken acht Mal ausfüllen. Natürlich sind Massen von IKT-Geräten permanent damit beschäftigt, uns über Wasser zu halten und durch einen derartigen Datenozean zu steuern. Dies alles sind Zahlen, die auf absehbare Zeit schnell und kontinuierlich weiter wachsen werden, zumal ebenjene Geräte zu den Hauptquellen von noch weiteren Daten gehören, die wiederum mehr IKT nötig machen oder einfach ermöglichen. Wir haben es hier mit einem sich selbst verstärkenden Kreislauf zu tun und es wäre geradezu unnatürlich, würde man von den Dimensionen nicht überwältigt sein. Es ist dies ein Gefühl, in dem sich, zumindest in der Regel, Befürchtungen wegen der Risiken, Begeisterung angesichts der Möglichkeiten und Erstaunen über die Leistungen mischen, wie wir in den folgenden Kapiteln sehen werden.

Dank der IKT sind wir ins Zeitalter des Zettabyte eingetreten. Unsere Generation macht als erste die Erfahrung einer Zettaflut, um hier ein neues Wort zur Bezeichnung des Datentsunamis einzuführen, der unsere Lebenswelten überschwemmt. In anderen Zusammenhängen wird diesbezüglich auch gern von »Big Data« gesprochen (Abbildung 10).

So wichtig das Phänomen ist, so unklar bleibt, was der Ausdruck »Big Data« genau meint. Während manche ihm zuneigen, machen sich andere eine Haltung zu eigen, für die einst Potter Stewart Pionierarbeit leistete – aufgefordert zu sagen, was er unter Pornografie verstehe, meinte der Richter am Obersten Gerichtshof der USA: schwer zu definieren, aber »wenn ich es sehe, weiß ich Bescheid«. Andere Strategien waren viel weniger erfolgreich. In den Vereinigten Staaten beispielsweise haben die National Science Foundation (NSF) und die National Institutes of Health (NIH) Big Data zu einem Programmschwerpunkt erklärt. Eine ihrer ressortübergreifenden Hauptinitiativen widmet sich der Frage notwendiger Kerntechniken und -technologien, mit denen sich Wissenschaft und technische Planung von Big Data voranbringen lassen. Die beiden Institutionen führen dann allerdings näher aus:

Der Ausdruck »Big Data« in dieser Anfrage bezieht sich auf umfangreiche, breit gefächerte, komplexe, longitudinale und/oder verteilte Datenmengen, die von Instrumenten, Sensoren, Internettransaktionen, E-Mails, Videos, Clickstreams und/oder allen anderen heute und in der Zukunft verfügbaren digitalen Quellen erzeugt werden.7

Man muss kein Logiker sein, um das sowohl unklar als auch vage zu finden. Wikipedia ist hier ausnahmsweise auch keine Hilfe. Nicht, weil der entsprechende Eintrag unzuverlässig wäre, sondern weil er mit der üblichen Definition aufwartet, nach der es sich bei »Big Data« um eine Ansammlung so umfangreicher und komplexer Datenmengen handelt, dass sich ihre Verwertung mit den vorhandenen Bearbeitungswerkzeugen oder der herkömmlichen Anwendungssoftware zur Datenverarbeitung zunehmend schwierig gestaltet. Abgesehen von dem Problem, »big« (also »groß«) durch »large« (»umfangreich«) und damit zirkulär zu definieren (NSF und NIH scheint das nicht zu stören) – »Big Data« von »kleinen Werkzeugen« her zu verstehen, legt den Schluss nahe, dass Daten lediglich in Relation zu unserer gegenwärtigen Rechenleistung zu groß oder zu umfangreich sind. Das ist jedoch irreführend. Ohne Zweifel ist »big«/»groß«, wie viele andere Bezeichnungen auch, ein Relationsprädikat: Schuhe, die Ihnen vielleicht zu groß sind, könnten mir passen. Eine ebenso triviale Feststellung ist die, dass wir Dinge tendenziell dann nicht in Relation beurteilen, in diesem Fall als absolut groß, wenn der Bezugsrahmen deutlich genug ist, dass er unausgesprochen bleiben kann. Ein Pferd ist ein großes Tier, ganz gleich, wie Wale das sehen mögen. Dennoch könnten diese beiden simplen Punkte den Eindruck entstehen lassen, »Big Data« sei ein nicht weiter problematischer lose definierter Ausdruck, der sich auf die Tatsache bezieht, dass unsere jetzigen Computer nicht in der Lage sind, so exorbitante Datenmengen effizient zu bearbeiten. Und an dieser Stelle scheinen sich offenbar zwei Missverständnisse einzuschleichen. Erstens, dass das epistemologische (das heißt, mit dem Wissen zusammenhängende) Problem mit Big Data darin besteht, dass es zu viel davon gibt (das ethische Problem betrifft die Frage, wie wir die Daten verwenden, mehr dazu in Kürze). Und zweitens, dass die Lösung für das epistemologische Problem eine technologische ist: mehr und bessere Techniken und Technologien, die Big Data auf eine überschaubare Größe »zurückschrumpfen« werden. Das epistemologische Problem ist jedoch ein anderes und es verlangt eine epistemologische Lösung.

Wenden wir uns zunächst dem Problem zu. Der Ausdruck »Big Data« kam auf, als andere Schlagwörter wie »infoglut« (»Informationsschwemme«) oder »information overload« (»Informationsüberflutung«) allmählich verblassten, an der Vorstellung hat sich allerdings nichts geändert. Sie bezieht sich auf ein überwältigendes Gefühl, dass wir uns übernommen haben, dass wir wie Gänse gestopft werden, dass unsere intellektuellen Lebern explodieren. So ist es aber nicht. Ja, es hat sich gezeigt, dass es eine offenkundig exponentielle Zunahme an Daten zu immer zahlreicher werdenden Themen gibt, doch über solch eine Überfülle zu lamentieren ist in etwa so, als würden wir uns über ein Bankett beklagen, dessen üppiges Angebot unsere tatsächlichen Aufnahmemöglichkeiten übersteigt. Daten bleiben eine Bereicherung, eine Ressource, die wir uns zunutze machen können. Niemand zwingt uns, jedes verfügbare Byte im Geiste zu verdauen. Mit jedem Tag vermehrt sich unser Datenreichtum; dies kann unmöglich das Grundproblem sein.

Weil das Problem nicht in der zunehmenden Fülle an verfügbaren Daten besteht, muss die Lösung zweifellos überdacht werden: Es kann nicht allein darum gehen, wie viele Daten wir technologisch verarbeiten können. Wie die Erfahrung zeigt, werden weitere und bessere Techniken und Technologien eher nur noch mehr Daten erzeugen. Wäre das Problem ein Zuviel an Daten, würde es durch ein Mehr an IKT bloß verschärft. Was uns demnach nicht weiterbringt, sind sozusagen größer werdende Verdauungssysteme.

Das wirkliche epistemologische Problem mit Big Data sind die kleinen Muster. Gerade weil heute so viele Daten so schnell, so billig und zu praktisch allem erzeugt und verarbeitet werden können, dürfte der Druck auf den Neureichen der Datenwelt – wie Facebook oder Walmart, Amazon oder Google – und auf ihrem alten Geldadel – wie der Genetik oder der Medizin, der Experimentalphysik oder der Neurowissenschaft – dafür sorgen, dass man dort herausfindet, wo in ihren riesigen Datenbeständen die neuen Muster liegen, die einen echten Mehrwert haben, und wie sie sich wohlstandsbildend, lebensverbessernd und erkenntnisfördernd verwerten lassen. Dies ist ein Problem, bei dem es eher auf die Kraft des Denkens als auf Rechenkraft ankommt.

Kleine Muster spielen deshalb eine große Rolle, weil sie in der Hypergeschichte die neue Innovations- und Wettbewerbsgrenze markieren, und das von der Wissenschaft bis zu den Unternehmen, von der Staatsführung bis zur Sozialpolitik, von der Sicherung und Gefahrenabwehr bis zur Sicherheit. Wenn sich auf einem freien und offenen Ideenmarkt jemand anderes die kleinen Muster schneller und erfolgreicher zunutze machen kann als Sie, dann könnten Sie schnell aus dem Geschäft raus sein, eine grundlegende Entdeckung verpassen und den entsprechenden Nobelpreis dazu oder Ihr Land in ernsthafte Gefahr bringen.

Kleine Muster sind aber auch mit Risiken verbunden, weil sie die Grenze des vorhersehbaren Geschehens oder Verhaltens nach vorn verschieben und sich folglich vorauskalkulieren lassen. Target, ein amerikanisches Einzelhandelsunternehmen, vertraut auf die Auswertung der Erwerbsmuster von 25 Produkten, um jeder Kundin einen »Schwangerschaftsprognose«-Wert zuzuordnen, ihren erwarteten Geburtstermin abzuschätzen und ihr zu bestimmten, zeitlich festgelegten Phasen ihrer Schwangerschaft Gutscheine zukommen zu lassen. In einem berüchtigten Fall8 hat diese Firma ein paar schwerwiegende Probleme verursacht dadurch, dass sie einer Familie Gutscheine schickte, in der die jugendliche Tochter ihre Eltern nicht über ihren neuen Zustand informiert hatte. Ich werde im 3. und 4. Kapitel auf Probleme dieser Art zurückkommen, wenn es um die Identität der Person und die Privatsphäre geht.

Signifikant sind kleine Muster bedauerlicherweise nur dann, wenn sie fachgerecht aggregiert, korreliert und integriert werden – etwa im Hinblick auf Treuekarten und Kaufempfehlungen –, wenn sie entsprechend verglichen werden, wie etwa von Banken, die Big Data im Kampf gegen Betrüger auswerten, und wenn sie rechtzeitig verarbeitet werden, wie das auf den Finanzmärkten der Fall ist. Und weil keine Information auch eine ist (das Fehlen einzelner Daten kann als solches ebenfalls aufschlussreich sein), ist auch das Ausbleiben kleiner Muster unter Umständen signifikant. Sherlock Holmes konnte einen seiner berühmten Fälle lösen, weil ihm auffiel, dass der Hund keinen Laut von sich gegeben hatte, wo er hätte anschlagen sollen. Wenn die Big Data nicht »anschlagen«, wo sie es sollten, dann ist etwas im Gange, wie zum Beispiel die Wachhunde der Finanzwirtschaft wissen (sollten).

Big Data wird weiter wachsen, dafür ist es da. Es gibt nur eine Möglichkeit, den Hebel bei den Daten anzusetzen: Man muss wissen, wonach man auf der Suche ist oder vielleicht auf der Suche ist. Wissenschaft, wie wir sie betreiben, ist nicht das bloße Zusammentragen von Daten, und auch Wirtschaft und Politik sollten mehr sein als das. Derzeit liegen die Lehre und Anwendung der nötigen epistemologischen Kompetenzen in den Händen einer Schwarzen Kunst genannt Analytik. Nicht gerade der übliche Universitätsabschluss. Aber weil unser Wohlergehen in so hohem Maße an ihr hängt, wäre es doch vielleicht an der Zeit, eine methodologische Untersuchung von ihr auszuarbeiten. Wer weiß, es könnte doch sein, dass Philosophen nicht bloß einiges zu lernen haben, sondern auch das eine oder andere zu sagen und zu vermitteln. Platon würde dem zustimmen. Worüber er vielleicht enttäuscht gewesen wäre, ist die Tatsache, dass Erinnerung keine Lösung mehr darstellt. Wie wir im 7. Kapitel sehen werden, kann das digitale Gedächtnis die Intelligenz hinter sich lassen, aber bloß Daten zu horten und derweil auf leistungsfähigere Computer, smartere Software und neue menschliche Fähigkeiten zu warten, das wird nicht funktionieren, nicht zuletzt deshalb, weil uns einfach der nötige Speicherplatz fehlt. Denken wir wieder an unsere Historikerin in der Zukunft: Dies ist der erste Engpass, den sie in der Entwicklung der Hypergeschichte erkannte, die an digitalem Gedächtnisverlust leidet.

Gedächtnis

Die Hypergeschichte lebt von Big Data, es gibt allerdings zwei Mythen über die Verlässlichkeit des digitalen Gedächtnisses, die in diesem 1. Kapitel aufgedeckt werden sollen.

Der erste Mythos handelt von der Qualität des digitalen Gedächtnisses. Ihm zufolge haben IKT ein sozusagen vergessliches Gedächtnis. Sie veralten schnell, sie sind flüchtig und sie sind wiederbeschreibbar. Alte digitale Dokumente können vielleicht nicht länger benutzt werden, weil die entsprechende Technologie, zum Beispiel Floppy-Laufwerke oder alte Verarbeitungssoftware, nicht mehr erhältlich ist. Es gibt eine Unzahl aufgegebener Seiten im Internet, die erstellt und dann nicht aktualisiert oder verändert wurden. Anfang 1998 betrug die Lebensdauer eines Dokuments, das nicht aufgegeben worden war, durchschnittlich 75 Tage. Mittlerweile liegt sie bei geschätzten 45 Tagen. Das hat dazu geführt, dass der so genannte link decay (Links zu Online-Quellen, die nicht mehr funktionieren) gängige Erfahrung ist. Am 30. April 1993 verkündete die Europäische Organisation für Kernforschung (CERN), dass das World Wide Web, das sie erschaffen hatte, jedermann gebührenfrei offenstehen würde. Zwanzig Jahre später sah sich ein Team am CERN im Vorfeld der Jubiläumsfeier gezwungen, die erste Webseite neu einzurichten (mit ihrer ursprünglichen URL usw.), weil sie nicht mehr existierte. Unser digitales Gedächtnis scheint so flüchtig zu sein, wie es unsere mündliche Kultur war, ja es wirkt vielleicht sogar noch unbeständiger dadurch, dass es uns den gegenteiligen Eindruck vermittelt. Dieses Paradox einer digitalen »Vorgeschichte« – es ist durchaus nicht so, dass die IKT die Vergangenheit zur zukünftigen Verwendung bewahren würden, sie bewirken vielmehr, dass wir in einer immer währenden Gegenwart leben – wird sich in der nahen Zukunft immer dringlicher bemerkbar machen. Gedächtnis ist nicht bloß eine Frage der Speicherung und effizienten Handhabung; es geht dabei ebenso um die sorgfältige Erhaltung des signifikant Verschiedenen und folglich um die beständige Sedimentierung der Vergangenheit als eine geordnete Abfolge von Veränderungen – zwei geschichtliche Prozesse, die heute ernstlich gefährdet sind. Während beispielsweise Ted Nelson, ein Wegbereiter der IKT, der die Begriffe »Hypertext« und »Hypermedien« geprägt hat, Xanadu so entwarf, dass es niemals ältere Dateifassungen löschen würde, ist eine fortwährend aktualisierte Webseite dagegen eine Seite ohne Erinnerung an die eigene Geschichte. Und das gleiche dynamische System, das es einem erlaubt, ein Dokument tausendfach umzuschreiben, macht es unwahrscheinlich, dass irgendeine Erinnerung an frühere Fassungen für zukünftige Einsichtnahmen überdauert. Durch Auslösen des Befehls »Speichern« wird die alte Dokumentfassung ersetzt, und jedes irgendwie geartete digitale Dokument lässt sich in einen solchen Zustand der Geschichtslosigkeit überführen. Die Gefahr ist dabei die, dass Differenzen gelöscht, alternative Varianten verschmolzen werden, die Vergangenheit immerfort neu geschrieben und die Geschichte auf ein dauerndes Hier und Jetzt reduziert wird. Wenn unser Wissen diesem vergesslichen Gedächtnis erst einmal größtenteils überlassen ist, könnten wir uns in einer ewigen Gegenwart eingeschlossen wiederfinden. Darum sind Initiativen, die sich die Bewahrung unseres zunehmend digitalen kulturellen Erbes für zukünftige Generationen zum Ziel gesetzt haben – wie etwa die National Digital Stewardship Alliance (NDSA) und das International Internet Preservation Consortium (IIPC) –, unverzichtbar. Die Arbeit eines Informationskurators wird immer wichtiger werden.

Dazu besteht die potenzielle Gefahr, dass sich eine zeitgleiche Erzeugung riesiger Datenmengen katastrophal auswirkt. Wir haben gesehen, dass die meisten, ja fast alle unsere Daten innerhalb von ein paar Jahren erzeugt worden sind. Sie werden alle miteinander älter und irgendwann erreichen sie zusammen die Systemausfallgrenze, gleich einer Generation von Babyboomern, die zur selben Zeit in den Ruhestand tritt. Rufen wir uns zum besseren Verständnis des Problems die alte Diskussion über unsere gesammelten Musik-CDs in Erinnerung, die sich um die Frage drehte, wodurch sie im Unterschied zu unseren Schallplatten innerhalb eines Jahrzehnts alle unbenutzbar sein würden. Laut OSTA, einem Branchenverband für optische Speichertechnologien, beträgt die Lebensdauer neuer, unbespielter CDs und DVDs vorsichtig geschätzt zwischen 5 und 10 Jahren. Und laut der National Archives and Records Administration9 haben einmal bespielte CDs und DVDs eine Lebenserwartung von 2 bis 5 Jahren, auch wenn in den offiziellen Verlautbarungen häufig von 10, 25 oder mehr Jahren die Rede ist. Das Problem besteht darin, dass das Material nach ein paar Jahren zu stark abbaut, um die Benutzbarkeit noch gewährleisten zu können. Das Gleiche gilt für unsere heutigen digitalen Träger, Festplatten und Speicher unterschiedlicher Art. Der Mean-Time-Before-Failure-Wert (MTBF), also der durchschnittlichen Zeit bis zum Ausfall, gibt die erwartete Lebensdauer eines Systems an.10 Je höher er ist, desto länger dürfte das System Bestand haben. Für eine Standardfestplatte sind 50 ‌000 Stunden (5,7 Jahre) ein üblicher Wert. Diese kurze Lebensdauer stellt schon jetzt ein Problem dar. Das eigentliche Thema aber, um das es mir hier geht, ist noch ein anderes. Anders als in der Vergangenheit erlebt, laufen unsere Datenträger, was ihre Lebensdauer betrifft, heute gefährlich synchron. Das ist auch der Grund, weshalb man in diesem Zusammenhang von einer Art Babyboom sprechen könnte: Big Data wird altern und seine Daten werden miteinander zu Dead Data werden, zu toten Daten. Natürlich wird es nötig sein, riesige Datenmengen in regelmäßigen Abständen erneut aufzuzeichnen und auf neue Träger zu überspielen. Das passiert ja auch schon. Doch welche Daten werden es sein, die es auf die andere Seite eines jeden technologischen Übergangs schaffen? Nehmen wir nur etwa den Übergang vom Stummfilm zu neuen Trägerarten oder den der aufgezeichneten Musik von Vinyl zur CD. Riesige Datenmengen sind zurückgelassen worden, gingen verloren, waren nicht länger verfügbar oder zugänglich.

Einem Bericht des Marktforschers IBISWorld zufolge verzeichnete die Datenrettungsindustrie in den fünf Jahren bis 2012 einen Rückgang ihrer Gesamterlöse um jährlich 0,9 Prozent auf 1 Milliarde, wobei das Ergebnis 2012 um 0,6 Prozent schlechter ausfiel.11 Die Zahlen scheinen der Intuition zu widersprechen. Big Data wächst und so sollte man meinen, dass auch die Probleme bezüglich beschädigter, defekter oder unzugänglicher Dateien und Speichermedien zunehmen. Die Industrie, die sich um solche Probleme kümmert, müsste eigentlich florieren. Die Einbußen erklären sich damit, dass Cloud- oder Onlinespeicherung die Möglichkeiten der Datenrettung und des Schutzes vor Datenverlust erweitert haben. Wer beispielsweise Dropbox, Google Docs, Apple iCloud oder Microsoft Skydrive nutzt, hat im Fall eines Schadens an seinem Computer online dennoch Zugriff auf seine Dateien und kann problemlos wieder an sie herankommen, so dass er keinen Datenrettungsdienst brauchen wird. Ja, dies scheint lediglich eine Frage des Übergangs und mithin der Zeit zu sein. Cloud Computing hat eine auf Computer der Endverbraucherebene spezialisierte Industrie unter Druck gesetzt. Je mehr unsere Geräte zu reinen Benutzerendgeräten werden, desto weniger müssen wir uns selbst um die Daten kümmern. Doch die Speicherung ebendieser Daten stützt sich nach wie vor auf physische Infrastrukturen und die wiederum werden immer mehr Instandhaltungs- und Wartungsarbeiten erforderlich machen. Die Datenrettungsindustrie wird verschwinden, doch eine neue, auf die Behebung von Störungen beim Cloud Computing konzentrierte Industrie ist bereits im Entstehen. Was nicht heißt, dass wir auf die rohe Kraft der Datenredundanz bauen könnten (das heißt darauf, dieselbe Datei in mehr als einer Ausfertigung zu haben). Diese Strategie lässt sich auf globaler Ebene nicht umsetzen, was mit dem zweiten Mythos über die Verlässlichkeit des digitalen Gedächtnisses zu tun hat, dem von seiner Quantität.

Die Welt hat seit 2007 mehr Daten produziert, als Speicher zur Verfügung stand.12 Und das, obwohl die Speicherdichte von Festplatten nach Kryders Gesetz sogar noch schneller zunimmt als das Moore'sche Gesetz, so dass man davon ausgeht, dass eine 14-Terabyte-Festplatte im Jahr 2020 6,35 cm groß sein und um die 40 Dollar kosten wird. Leider wird das nicht ausreichen, weil sogar die nach Kryders Gesetz prognostizierte Zunahme langsam ist verglichen mit der Geschwindigkeit, mit der wir neue Daten erzeugen. Denken Sie an Ihr Smartphone, das, weil Sie zu viele Bilder gemacht haben, an seine Kapazitätsgrenzen stößt, und stellen Sie sich das Problem dann global vor. In der Geschichte bestand das Problem in der Frage, was gesichert wird: Welche Gesetze oder Namen sollten in Ton gebrannt oder in Stein geritzt werden, welche Texte per Hand auf Papyrus oder Pergament geschrieben werden, welche Nachrichten waren es wert, dass man sie auf Papier druckte. In der Hypergeschichte ist das Sichern die Standardoption. Zum Problem entwickelt sich die Frage, was gelöscht wird. Weil es nicht genug Speicher gibt, muss etwas getilgt, mehrfach beschrieben oder darf gar nicht erst aufgezeichnet werden. In der Regel sticht das Neue das Alte automatisch aus und verdrängt es nach dem Prinzip »zuerst herein, zuerst hinaus«: Aktualisierte Webseiten tilgen alte, neue Bilder lassen alte entbehrlich wirken, neue Mitteilungen werden aufgenommen und alte damit überspielt, neue E-Mails werden auf Kosten der Mails vom letzten Jahr behalten.

Der Hypergeschichte ist der Speicherplatz ausgegangen, auf dem sie vor vielen Jahren ihre Daten abgeladen hat. Es gibt keinen Namen für dieses »Gesetz« über die zunehmende Verknappung der Speicherkapazität, es sieht jedoch so aus, dass sich der Abstand jedes Jahr verdoppelt. Falls es bei der physischen Speicherung oder der Softwarekomprimierung zu keinem signifikanten technologischen Durchbruch kommt, wird sich die Entwicklung in quantitativer Hinsicht verschärfen. Die gute Nachricht ist, dass es in qualitativer Hinsicht nicht so schlecht bestellt sein muss, wie es aussieht.