15,99 €
Dass sich vor unser aller Augen eine dramatische Veränderung vollzieht, zeigen schon die Anglizismen, die sich in unserer Sprache eingenistet haben: Wir mailen, googeln, skypen und twittern. Die digitale Revolution, so die These von Mercedes Bunz, könnte ebenso dramatische Folgen haben wie die industrielle im 19. Jahrhundert. Denn ähnlich wie die Maschinen damals die Tätigkeit der Arbeiter veränderten, transformieren nun die Algorithmen den professionellen Alltag der Mittelschicht. Zudem schaffen sie eine neue digitale Öffentlichkeit und verändern grundlegend, wie wir uns als Masse versammeln.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 205
Veröffentlichungsjahr: 2012
Dass sich vor unser aller Augen eine dramatische Veränderung vollzieht, zeigen schon die Anglizismen, die sich in unserer Sprache eingenistet haben: Wir mailen, googeln, skypen und twittern. Die digitale Revolution, so die These von Mercedes Bunz, könnte ebenso dramatische Folgen haben wie die industrielle im 19. Jahrhundert. Denn ähnlich wie die Maschinen damals die Tätigkeit der Arbeiter veränderten, transformieren nun die Algorithmen den professionellen Alltag der Mittelschicht. Zudem schaffen sie eine neue digitale Öffentlichkeit und verändern grundlegend, wie wir uns als Masse versammeln.
Mercedes Bunz promovierte über die Geschichte des Internets und gilt als Vordenkerin der Digitalisierung. Sie war Chefredakteurin von Tagesspiegel Online und Technologiereporterin des Guardian und leitet das Hybrid Publishing Lab der Leuphana Universität. 2010 wurde sie mit dem Deutschen Fachjournalistenpreis ausgezeichnet.
Die stille Revolution Wie Algorithmen Wissen, Arbeit,Öffentlichkeit und Politik verändern,ohne dabei viel Lärm zu machenMercedes Bunz
Suhrkamp
Die edition unseld wird unterstützt durch eine Partnerschaft mit dem Nachrichtenportal Spiegel Online. www.spiegel.de
eBook Suhrkamp Verlag Berlin 2012
Originalausgabe
© Suhrkamp Verlag Berlin 2012
Suhrkamp Taschenbuch Verlag
Alle Rechte vorbehalten, insbesondere das der Übersetzung, des öffentlichen Vortrags sowie der Übertragung durch Rundfunk und Fernsehen, auch einzelner Teile.
Kein Teil des Werkes darf in irgendeiner Form (durch Fotografie, Mikrofilm oder andere Verfahren) ohne schriftliche Genehmigung des Verlages reproduziert oder unter Verwendung elektronischer Systeme verarbeitet, vervielfältigt oder verbreitet werden.
Umschlaggestaltung: Nina Vöge und Alexander Stublić
eISBN978-3-518-76060-4
www.suhrkamp.de
Die stille Revolution
Inhalt
Vorwort
1 Als die Algorithmen schreiben lernten
2 Ersetzt die Automatisierung des Wissens den Experten?
3 Die zweite Natur
4 Von Massen und ihrer Herstellung
5 Digitale Öffentlichkeit
6 Die stille Revolution
Dank
Literatur
Vorwort
Die Digitalisierung hat unsere Gesellschaften in ähnlichem Maße verändert wie die Industrialisierung. Aber was heißt das konkret? Dieses Buch hat das Anliegen, sich in dieser Frage vorzutasten. Denn ähnlich wie der Einsatz von Maschinen im Zuge der Industrialisierung hat die Verbreitung digitaler Algorithmen dazu geführt, dass zu Beginn des 21. Jahrhunderts viele Bereiche unseres Lebens fundamental umstrukturiert worden sind: Wissen spielt nun eine neue gesellschaftliche Rolle. Das hat wiederum den Bereich der Arbeit verändert, leben wir doch in einer Expertengesellschaft. Zugleich hat sich durch die Algorithmen die mediale Öffentlichkeit für jedermann weit geöffnet und damit auch den politischen Handlungsmöglichkeiten einen neuen Rahmen gegeben. Die massiven Veränderungen und neuen gesellschaftlichen Optionen, die das mit sich bringt, werden hier mit den Mitteln der dichten Beschreibung und eines punktuellen Rückblicks auf den Beginn der Industrialisierung zurückverfolgt, auch um zu verstehen, welche Rolle wir Menschen in diesem historischen Vorgang spielen. Einem solchen Vorhaben sei nachzusehen, dass dabei Algorithmen – Handlungsvorschriften, die nach einem bestimmten Schema Zeichen umformen – nicht streng in ihrer informatischen Bedeutung gefasst werden. In diesem Buch werden sie vielmehr in einem weiteren Sinne verstanden. Sie sind das Prinzip, das der Digitalisierung zu Grunde liegt: Computer und digitale Geräte, Internetprotokolle und Softwareanwendungen, Datenbanken und Suchverfahren, all diese verschiedenen Dinge, Phänomene und Hilfsmittel eint, dass sie von Algorithmen getrieben werden. Ihre Anwendung ist eine Kulturtechnik, welche unsere Gesellschaften massiv umformt. Wie diese tektonischen Verschiebungen unser gesellschaftliches Gefüge zum Knirschen bringen, warum wir oft viel zu passiv reagieren und auf welche Weise wir stattdessen Verantwortung übernehmen sollten, darum geht es in diesem Buch. Die Frage, die ihm die Richtung weist, lautet daher: Was für eine gesellschaftliche Kraft entfaltet die Digitalisierung?
Wissen Suchmaschinen schon in naher Zukunft mehr als wir? Wird die Welt ein besserer Ort, wenn es mehr Wissen gibt? Ist Wissen bald ein Produkt, das man auch im Supermarkt kaufen kann? Sind wir noch kreativer, wenn wir Computer benutzen? Können wir uns der Umorganisation des Wissens entziehen?
1 Als die Algorithmen schreiben lernten
Die Digitalisierung verändert, was und wie wir wissen. Doch was genau das bedeutet – darüber wissen wir bei Weitem nicht genug. Dass Algorithmen einmal zu schreiben lernen würden hat beispielsweise niemand erwartet und im Grunde auch niemand bemerkt. Erst ein halbes Jahr, nachdem Algorithmen einen Spielbericht über ein kleines Baseball-Team aus Illinois, die Northwestern Wildcats, verfasst hatten, wird der Medienkolumnist der New York Times, David Carr, auf die neue technische Entwicklung aufmerksam und schreibt: »Die Roboter kommen. Oh, sie sind schon da!« So verhielt es sich in unserer Geschichte oft mit Innovationen: Wenn endgültig klar ist, dass wir bestimmte Dinge von nun an mit anderen Augen betrachten müssen, sind alle schockiert; doch bevor sich die neuen Erfindungen in unserem Alltag durchsetzen, nehmen wir häufig gar nicht wahr, dass etwas passiert. Von der Gesellschaft unbemerkt, werden seit Jahrhunderten weltverändernde Neuerungen in Hinterzimmern ersonnen. Ob nun Autos oder Computer: In vergangenen Tagen waren Garagen die Orte, an denen neue Maschinen konzipiert oder alte perfektioniert wurden; die ersten Produkte von Apple und Microsoft waren beispielsweise noch das Ergebnis dieses Bastelns in Garagen. Für digitale Innovationen ist jedoch nicht einmal mehr eine Garage vonnöten: Algorithmen brauchen kein Dach über dem Kopf. Ohne dass von ihnen groß Notiz genommen wird, entstehen sie als Seminararbeit oder Universitätsprojekt, wie zum Beispiel die Suchmaschine Google – und wenig später verändern sie dann den Lauf der Dinge.
Auch der Anfang der industriellen Revolution kam für die Zeitgenossen überraschend: »Der Kapitalismus kam unangekündigt«, schreibt der Wirtschaftshistoriker Karl Polanyi.1 Alles beginnt mit einer scheinbar unspektakulären Erfindung, dem »Schnellschützen«, einem von einer Kordel gehaltenen Weberschiffchen, das sich der Engländer John Kay 1733 patentieren lässt. Dieses »fliegende Schiffchen« beschleunigt das Weben enorm, denn beim Schnellschusswebstuhl wird das Garn quer durch die Webfäden von einer Seite zur anderen transportiert, »in einer Geschwindigkeit, die man sich nicht vorstellen kann«,2 wie ein beeindruckter Zeitgenosse bemerkt. Dank der Einführung des Schnellschützen verdoppelt sich die Produktivität der Weber. Die Spinner, die das Garn zuliefern, geraten unter Innovationsdruck. Der sogenannte »Garnhunger« führt dann 1764 zur Erfindung einer Maschine namens »Spinning Jenny«, die es einem Arbeiter erlaubt, an acht Spulen gleichzeitig zu spinnen. Anschließend macht sich die industrielle Revolution von England aus auf den Weg, das Leben der Menschen rund um den Globus zu verändern. Steht uns nun eine ähnliche Entwicklung bevor? Sind die von Computernerds in Büros und Seminarräumen perfektionierten Algorithmen die digitalen Nachkommen der »Spinning Jenny«?
Ein Beispiel für den tief greifenden Wandel, der uns bevorsteht, ist das eingangs erwähnte Programm Stats Monkey. Es wurde von vier Studenten der Northwestern University in Illinois entwickelt und entstand aus einer Zusammenarbeit der Fachbereiche für Journalismus und Informatik. Die Studenten hatten es sich zum Ziel gesetzt, eine Antwort auf die für den Journalismus problematische Entwicklung zu finden, dass sich im Zuge der Digitalisierung immer mehr Menschen online informieren. Die traditionellen Medien müssen ihren Lesern ins Netz folgen und dort neue Einnahmequellen erschließen. Besonders die Lokalberichterstattung steht nach der Abwanderung der Kleinanzeigen ins Internet unter finanziellem Druck. An dieser Stelle wollten die Studenten Abhilfe leisten: Sie entwickelten ein Programm, das es lokalen Medien ermöglichen sollte, mehr Inhalte anzubieten, indem es selbständig Spielberichte erstellt. Diese könnten, so die Überlegung der Studenten, die überlasteten Reporter in den immer kleineren Redaktionen von der lästigen Pflicht befreien, Texte über unwichtige Baseballspiele in unteren Ligen zu verfassen. Dank der fleißig schreibenden Algorithmen sollen sie sich auf Hintergrundanalysen und Interviews konzentrieren können. Stats Monkey vereint dabei zwei digitale Techniken: Im ersten Schritt eignet sich der Algorithmus im Netz veröffentlichte Spielstände an; im zweiten ermittelt er aus diesen Spielständen durch einen sogenannten algorithmischen »Entscheidungsbaum« die wichtigsten Akteure und den Spielverlauf. Das Ergebnis fügt er dann mithilfe vorgeschriebener Bausteine zu einem Textfragment zusammen: »Team X ging früh in Führung und war nicht mehr einzuholen« oder »Team Y versuchte, sich wieder zu fangen, aber vergebens«. Auf diese Weise entsteht mit einem Klick ein knochentrockener, aber informativer Sportbericht – schneller als ein Mensch je einen einzigen Satz schreiben könnte. Das Ergebnis liest sich dann wie folgt:
»South Bend, Indiana – Im Frank-Eck-Stadion nahm diesen Sonntag Tony Bucciferro die Michigan State Spartans Huckepack und führte sie zu einem 3:0-Sieg über die Notre Dame Fighting Irish. Werfer Bucciferro sorgte dafür, dass die Fighting Irish über alle neun Innings ohne Punkt blieben und entschied damit das Spiel für Michigan State. Er eliminierte fünf gegnerische Spieler mit seinen Würfen und ließ nur drei zurück ins Feld geschlagene Bälle des Gegners zu. Nur einmal gelang ihm kein guter Wurf, so dass der Gegenspieler zur ersten Base gelangte. Matt Grosso, der Senior der Fighting Irish, vergab im neunten und letzten Inning eine große Chance für sein Team.«
Zwar lässt sich über die Qualität des nüchternen Textes streiten, nicht jedoch über die Tatsache, dass hier eine Kulturtechnik automatisiert wird, über die wir Menschen bislang exklusiv verfügten: das Verfassen eines Textes und damit auch das Erzählen einer Geschichte. Nachdem Rechner, Suchmaschinen und mit ihnen die Algorithmen schleichend unseren Alltag infiltriert haben, markiert der schreibende Algorithmus Stats Monkey einen weiteren historischen Entwicklungspunkt der Digitalisierung, die unsere Welt fundamental transformieren wird: Während die Maschinen der industriellen Revolution die menschliche Arbeit automatisierten, assistieren die Algorithmen der digitalen Revolution uns Menschen beim Wissen: Stats Monkey kann selbständig Informationen erfassen und prozessieren. Zwar mögen wir versucht sein, trotzig auf dem Standpunkt zu beharren, die Dinge folgten auch weiterhin der alten, lieb gewonnenen Ordnung, nach der sich auf Rechnern Informationen finden, während erst wir Menschen daraus Wissen machen. Doch wie der amerikanische Publizist und Co-Autor des Cluetrain Manifests David Weinberger in seinem Buch über Wissen im Zeitalter der Digitalisierung bemerkt: »Wissen ist nicht mehr, was es einst gewesen ist. Nicht für die Wissenschaft, nicht für die Wirtschaft, nicht für die Bildung, nicht für die Politik, für niemanden von uns.«3 Halten wir uns an hergebrachte Verständnisse von Wissen und Information, ist die Ordnung des Wissens in der Tat durcheinandergeraten: Das Oxford English Dictionary grenzt »Informationen« beispielsweise als »gelieferte Fakten über etwas oder jemanden« von »Wissen« ab, das als »durch Erfahrung oder Erziehung angeeignete Fakten, Informationen oder Fähigkeiten« definiert wird; und auch der Duden definiert Wissen als »Kenntnis von etwas«. Wissen, könnte man also sagen, besteht aus prozessierten Informationen, und Algorithmen wie Stats Monkey haben mittlerweise gelernt, nicht nur Fakten zu liefern, sondern diese auch weiter zu prozessieren. Vorsichtig könnte man behaupten, dass Algorithmen nicht mehr einfach nur Wissen reproduzieren, sondern Informationen klassifizieren, sie neu zusammenstellen und Daten und Fakten zu dem weiterverarbeiten, was wir gewöhnlich als »Wissen« bezeichnen.
Ähnlich wie die Maschinen, welche die industrielle Revolution einleiteten, vereinfachen sie damit Arbeitsabläufe und ersetzen dadurch Arbeitskraft. Gleichzeitig eröffnen sie neue Möglichkeiten – die Spielberichterstattung über untere Ligen, auf die sich der schreibende Algorithmus Stats Monkey und sein Konkurrenzprogramm Stat Sheet spezialisiert haben, ist ja kein Themengebiet, über das bezahlte oder gar fest angestellte Sportjournalisten schreiben. Algorithmen können in diesem Bereich die Arbeit übernehmen und Texte produzieren, die zwar gelesen werden, an denen das Interesse jedoch nicht sehr groß ist und deren Veröffentlichung kaum Profit abwirft. Doch genau wie die Weber während der industriellen Revolution vor ihnen, sind auch die Journalisten alles andere als begeistert darüber, dass Teile ihrer bisherigen Arbeit nun von Algorithmen übernommen werden sollen. Sie haben nicht das Gefühl, entlastet, sondern vielmehr Angst davor, ersetzt zu werden. Anders als die Weber zerstören sie die Maschinen zwar nicht – was daran liegen mag, dass sich ein Algorithmus nicht so ohne Weiteres zerlegen lässt (er lässt sich höchstens vorübergehend in die Irre führen, »hacken«) –, doch grundsätzlich ist die Haltung der Journalisten mit jener der Weber vor 277 Jahren durchaus vergleichbar: Statt darüber erleichtert zu sein, lästige und stupide Tätigkeiten mithilfe der digitalen Technik loszuwerden und sich auf die kreativen Perlen der Arbeit konzentrieren zu können, herrscht aufgeregte Entrüstung. Nachdem die Entwicklung anfangs ignoriert wurde, ist man sich plötzlich von Russland bis nach Indien, von Großbritannien bis nach Deutschland und Belgien darüber einig, dass etwas Bahnbrechendes im Gange ist. Viele Redaktionen schreiben gleich das Ende des von Menschen betriebenen Journalismus herbei: »Werden Sportjournalisten wirklich gebraucht?«, fragt das amerikanische Wochenmagazin Businessweek sorgenvoll; als »von intelligenter Software« »belagert« sieht die italienische La Stampa die schreibende Zunft; die Pariser Tageszeitung Le Monde glaubt gar: »Die Ära der Roboter-Journalisten hat begonnen.«
Dieses Unbehagen unter den Journalisten verdeutlicht uns das Ausmaß der kommenden Entwicklungen: Sie wirken sich nicht nur auf die journalistische Arbeit aus, sondern transformieren ganz grundlegend große Bereiche unserer Arbeit und unserer Gesellschaft. Weit über den Journalismus hinaus können Algorithmen auch in anderen Arbeitsbereichen online verfügbare Informationen zusammensuchen und neu strukturieren. Überall dort, wo Mitarbeiter Übersichten erstellen, die auf Fakten basieren, sehen sie sich nun von Algorithmen herausgefordert. Das automatische Auffinden und Umwandeln statistischer Fakten in einen Text verspricht, ein lukratives Geschäft zu werden. Kein Wunder also, dass aus dem einstigen Studentenprojekt des Sportberichte schreibenden Algorithmus schließlich ein Start-up-Unternehmen namens »Narrative Science« wurde. Viele der Gutachten, Recherchen und Einschätzungen, auf die unsere Dienstleistungsgesellschaft angewiesen ist, können an Algorithmen delegiert werden. Im Zuge dieser Neuerungen gerät daher ganz allgemein eine Sozialfigur der Gegenwart unter Druck: der Experte.4 Im Gegensatz zum Spezialisten, der »über ein aufgabenbezogenes, relativ gut abgegrenztes Teilwissen innerhalb eines Sonderwissensbereichs« verfügt, bezeichnet man in der Soziologie jenen Typus eines Wissenden als Experten, »der einen Überblick über einen Sonderwissensbereich hat; der also weiß, was die jeweiligen Spezialisten auf dem von ihm vertretenen ›Wissensgebiet‹ wissen«,5 und dieses Überblickswissen des Experten lässt sich zum Teil automatisieren. Genau das ist der Grund, weshalb die Digitalisierung so tief greifende soziale Auswirkungen haben wird wie die Industrialisierung: Algorithmen liefern Überblicke, sie können Daten zusammenfassen und ein einheitliches Bild vermitteln und so eigenständig Arbeiten übernehmen, die bislang allein den Menschen vorbehalten waren. Egal ob Anwalt oder Ingenieur, Arzt oder Finanzexperte, Lehrer oder Chefkoch, Autor oder Automechaniker, Manager oder Mikrochip-Designer: Wir alle sind von der Digitalisierung betroffen, kein Schreibtisch wird von ihr verschont, schließlich ist unsere Gegenwartsgesellschaft eine »Expertengesellschaft«.6 Journalisten werden nur als eine der ersten Berufsgruppen von der digitalen Umwälzung erfasst.
Im Zuge der vermeintlichen Transformation unseres Wissens und Umgangs mit Informationen tritt eine Sorge hervor, die uns Menschen schon lange beschäftigt. Die Digitalisierung stellt nicht einfach hergebrachte Organisationsmuster unserer Arbeit infrage, sondern ganz fundamental das Verhältnis von Mensch und Maschine: Werden uns die Maschinen dank der neuen Fähigkeiten der Algorithmen bald hinter sich lassen? Oder verfügen wir Menschen über intellektuelle Vermögen, die Maschinen nicht erreichen können? Diese Fragen können zwar nicht umgehend und abschließend beantwortet werden, aber das heißt nicht, dass sie sich uns nicht dringend stellen würden – und das Fragen, hat Heidegger im Kontext seiner Technikphilosophie einmal treffend formuliert, baut an einem Weg.7
Doch liegen wir wirklich im Wettkampf mit den Maschinen? Ist die von der Industrialisierung ausgeborgte Vorlage – der darwinistische Überlebenskampf, bei dem es um die Frage geht: Wer ist stärker, Mensch oder Maschine? – der richtige begriffliche Rahmen für ein Verständnis der neuen digitalen Technologien? Natürlich besteht eine Bedrohung – die Journalisten, die das Zeitalter der Roboter-Reporter an die Wand malen, artikulieren ihre Besorgnis in den alarmierenden Zeitungsüberschriften ja klar und deutlich. Aber sind es wirklich die Maschinen, die uns Menschen bedrohen? Technologie ist nie nur bloßes Mittel, sie zwingt uns stets ihre Funktionslogik auf, doch das bedeutet nicht, dass wir unsere Verantwortung für das, was geschieht, auf sie abwälzen könnten. Nach allem, was wir wissen, sind Maschinen nicht daran interessiert, irgendetwas zu beherrschen – im Gegensatz zu uns Menschen verfügen sie nicht über Interessen. Ist also der Reflex, die Technologie zu fürchten oder zu beschuldigen, die richtige Reaktion auf die digitale Revolution? Die Logik der Digitalisierung entfaltet sich, aber man kann sie auf viele verschiedene Weisen interpretieren – ein Spannungsverhältnis, das unserem Technikverständnis von jeher tief eingeschrieben ist und mit dem wir seit Jahrhunderten ringen. Wir sollten deshalb versuchen, unserer ablehnenden Haltung auf den Grund zu gehen: Woher kommt unsere Angst, von den Maschinen beherrscht zu werden?
Von fundamentalen Beziehungsproblemen
Seit die Maschinen zu rechnen lernten, wurden sie behandelt als erfüllten sie zumindest das Attribut sapiens in dem Ausdruck Homo sapiens. Diese Vorstellung einer »künstlichen Intelligenz« war bereits fester Bestandteil unseres Denkens, als die Computer das Rechnen von den mechanischen Maschinen übernahmen. Zugegeben, die Idee einer vermeintlichen Intelligenz der Maschinen verfügt über eine besondere Anziehungskraft. Die Entwicklung eines intelligenten Agenten, der die anfälligen Menschen ersetzen kann, war nicht nur eine militärische Hoffnung, in welche die US-Armee Millionen investierte. Auch auf die Kunst hatte sie einen produktiven Effekt. Das Ende des Homo sapiens wurde in Filmen wie 2001: A Space Odyssey, Terminator, Matrix oder der Serie Battlestar Galactica zwar vorläufig abgewendet, doch 2011 besiegte IBMs Supercomputer Watson in der Quizshow Jeopardy seinen menschlichen Kontrahenten und räumte eine Million US-Dollar Preisgeld ab, auch wenn er bei kurz gehaltenen Fragen ein wenig ins Stottern geriet. Die Frage nach dem Verhältnis von Geist und Maschine hat also inzwischen eine Tradition, die weit zurückreicht. Auf die Idee, sich das Funktionieren unseres Geistes analog zu den Vorgängen im Inneren eines Automaten vorzustellen, kamen die Philosophen schon im Zeitalter der Aufklärung. Damals, so muss man wissen, hielt man den Geist für ein Werkzeug des Denkens, Forschens und Überlegens. Als solcher stellte er nur einen Teil der vielen menschlichen Fähigkeiten dar: Der Mensch galt der Aufklärung auch, nicht aber ausschließlich als ein rationales Tier. Doch war insbesondere der rationale Teil des Menschen von entscheidender Bedeutung für die Aufklärung. Sie versuchte sich mit neuen Auffassungen von unserem kognitiven Vermögen vom hergebrachten Verständnis unseres Geistes zu lösen – und eine dieser neuen Auffassungen war eine Art axiomatisches Verständnis des Geistes. Gottfried Wilhelm Leibniz etwa verfocht damals die These, dass sich in mathematischen Sprachaxiomen abbilden lässt, was in unserem Geist vor sich geht – Geist, wohlgemerkt, nicht Gehirn. Er ging der Frage nach, ob es möglich sei, mit einer künstlichen Sprache jene Axiome nachzubilden, auf denen unser logisches Denken beruht, und sie mit einer Maschine zu prozessieren:
»Wären die Worte gemäß einem Kunstgebilde gemacht – was ich für möglich halte, worauf jedoch diejenigen nicht gekommen sind, die Universalsprachen erdacht haben –, so könnte man zu diesem Erfolg durch die Worte selbst gelangen, was von einem unglaublichen Wert für das menschliche Leben sein würde.«8
Inspiriert vom Rechenapparat des französischen Erfinders Blaise Pascal, der gerade mit seiner »Pascaline« am französischen Hof für Aufsehen gesorgt hatte, machte sich der Universalgelehrte daran, einen mechanischen Vorläufer einer digitalen Maschine zu bauen, eine quasi künstliche Intelligenz. Dieser Holzcomputer war eine Rechenmaschine, die auf dem Prinzip der Staffelwalze basierte. Leibniz präsentierte sie am 1. Februar 1673 vor der Royal Society in London und erntete, obwohl sie noch nicht einwandfrei funktionierte, große Bewunderung, schließlich markierte sie anschaulich das Aufkommen eines neuen Diskurses: Der menschliche Geist galt nun nicht mehr als Wunderwerk, sondern als etwas, das seine Tätigkeiten nach geordneten Gesetzmäßigkeiten verrichtete.
Die Idee, dass der menschliche Geist wie eine Maschine funktioniert, ist also zunächst mit der Bewegung der Aufklärung verknüpft – in ihr zeigt sich ein entmystifizierendes Verständnis des menschliches Geistes. Doch ist diese Vorstellung natürlich auch problematisch. Deutlich wurde das spätestens dann, als die zunächst noch langsamen Rechenmaschinen schneller zu arbeiten begannen. Die elektronischen Rechner ließen die menschlichen Gehirne allmählich hinter sich, und das sorgte für Unmut. Entsprechend wurden die Auseinandersetzungen um das Verhältnis von Geist und Maschine unter neuen Vorzeichen geführt: Es entwickelte sich eine heftige Diskussion unter den Experten, die in einer Vielzahl von Veröffentlichungen zum Thema »Was Computer nicht können« ausgetragen wurde – denken zum Beispiel, so Hubert L. Dreyfus, der amerikanische Philosoph und Autor des gleichnamigen Bandes aus dem Jahr 1972.9 Dreyfus trat damals eine heftige Debatte über den Mythos künstliche Intelligenz vom Zaun. Knapp zehn Jahre später versetzte sein Kollege John Searle mit dem Gedankenexperiment des »Chinesischen Zimmers«10 der Hoffnung auf eine vollständig entwickelte künstliche Intelligenz dann einen heftigen Schlag. Er zeigte auf, wieso künstliche Intelligenz etwas anderes ist als menschliche Intelligenz, selbst wenn beide zu denselben Ergebnissen gelangen. Der Grundgedanke von Searles Überlegungen ist folgender: In einem Raum sitzt eine Person, die nur Englisch spricht. Ihr wird nun ein Stapel Karten gereicht, auf denen chinesische Sätze stehen, außerdem ein Zettel mit Fragen zu diesen Sätzen, ebenfalls auf Chinesisch, und ein in englischer Sprache verfasstes Handbuch mit Regeln für den Umgang mit chinesischen Zeichen. Dank der englischen Anleitung kann die Person die ihr auf Chinesisch gestellten Fragen beantworten und vermittelt so den Eindruck, als sei sie tatsächlich des Chinesischen mächtig. De facto hat sie allerdings lediglich Regeln befolgt. Dasselbe gilt nach Searle auch für Computer: Sie verstehen nicht, sondern wenden Regeln an. Anders als wir Menschen sind Computer syntaktische, nicht aber semantische Maschinen. Die geistige Überlegenheit des Menschen schien damit vorerst gerettet.
Searles und Dreyfus’ Kritik an verbreiteten Vorstellungen künstlicher Intelligenz sorgte natürlich für Unmut unter den Computerwissenschaftlern, aber sie befreite uns von der Idee, unser Geist befinde sich in einer Art Wettlauf mit den Maschinen, und zugleich auch von der Angst, die Maschinen könnten uns überholen oder schachmatt setzen. Man mag sich an dieser Stelle über die Ironie der Geschichte wundern, dass zu Beginn des 21. Jahrhunderts der Großteil der produzierten Computer von chinesischen Arbeitern nach englischen Regeln zusammengebaut wird (genauer: nach Vorgaben von Computerentwicklern, die wahrscheinlich nur Englisch sprechen). Wichtiger ist jedoch, was wir lernen können, wenn wir betrachten, wie Leibniz’ Idee einer künstlichen Intelligenz im Zuge der Weiterentwicklung der Maschinen zu einer Bedrohung für die Menschen wird, bis schließlich die beiden amerikanischen Philosophen das Grundkonzept des technischen Diskurses korrigieren: Es waren nicht die Rechenmaschinen, die das menschliche Denken in Bedrängnis brachten, sondern unsere Vorstellung von ihnen. Sie wären auch nicht in der Position gewesen, ihre Stärke zu behaupten. Noch Mitte des 20. Jahrhunderts waren die gigantischen Supercomputer so anfällig, dass sogar den Programmierern der Zugang zu ihnen verwehrt wurde – nur technisches Wartungspersonal durfte in staubfreier Kleidung Hand an sie anlegen. Und noch heute weiß jeder, der versehentlich einmal Cola über einen menschlichen Arm und eine Computertastatur gegossen hat, was von beiden anfälliger ist. Wenn wir aufgeregt darüber spekulieren, ob Algorithmen Sportjournalisten ersetzen können, richtet sich dieser Diskurs nicht in erster Linie gegen die Maschinen, sondern wir verunsichern vor allem uns selbst. Um das zu verhindern, sollten wir uns von Michel Foucault eine Portion Misstrauen ausborgen und »den Diskurs als eine Gewalt begreifen, die wir den Dingen antun« bzw. als »eine Praxis, die wir ihnen aufzwingen«11 – in diesem Fall sind wir Menschen selbst das »Ding«, wir bedrängen uns selbst. Wir sollten also aus der Geschichte lernen, die wir mit den Maschinen teilen, um einer folgenreichen Verwechselung zu entkommen: Die Maschinen waren niemals die Mächtigen, sie bedrohen uns nicht. Dennoch transformieren Algorithmen unsere Welt und induzieren neue Bedeutungen, je stärker sie unsere Welt durchdringen. Für ein Verständnis der Digitalisierung ist der begriffliche Rahmen eines Wettkampfes oder einer Konkurrenz zwischen Menschen und Maschinen jedoch nicht geeignet. Algorithmen reorganisieren das Wissen, und dadurch verändern sie unsere Vorstellung davon, was es heißt, zu denken – genau wie die Maschinen im Zuge des 19. Jahrhunderts unser Verständnis von »Arbeit« revolutionierten. Doch ist das noch lange kein Grund, sich aus technophobem Horror verzweifelt die Haare zu raufen. Angst mag in der Evolution eine wichtige Rolle gespielt haben, aber sie ist nicht prinzipiell die beste menschliche Reaktion. Wir können Ereignisse nicht ungeschehen machen, doch können wir versuchen, sie in bestimmte Bahnen zu lenken. Und dass sich unser Denken und damit auch unsere Idee davon, was es heißt, etwas zu wissen, wandelt, ist zudem nichts Neues.
Wie sehr technische Neuerungen schon in der Vergangenheit unser Grundverständnis der menschlichen Fähigkeiten und Möglichkeiten verändert haben, lässt sich am Beispiel der Bildung verdeutlichen, schließlich finden sich in der Geschichte ganz unterschiedliche Konzepte davon, was man sich unter Lernen vorzustellen habe. Entscheidend war in frühen Zeiten das Auswendiglernen, selbstständiges Denken war irrelevant. Erst mit der Aufklärung setzte sich in unserer Kultur die Auffassung durch, es sei erstrebenswert, die Fakten zu einem Themengebiet selbstständig erfassen und bewerten zu können. In Deutschland war es Friedrich der Große, der 1770 durch den Erlass seines Ministers von Fürst den preußischen Universitäten einen »geschärften Befehl zum Selbstdenken« erteilen ließ.12 Mit der Digitalisierung verändert sich die Struktur des Wissens und damit auch die des Lernens ein weiteres Mal, allerdings nicht auf Befehl: In einer Welt, in der sie ständig aktualisiert werden, rücken die Fakten immer weiter in den Hintergrund – im zweiten Kapitel wird diese Entwicklung genauer untersucht. Doch schon jetzt bleibt festzuhalten: Nach wie vor sind Fakten von großer Bedeutung, wenn es um Wissen geht, doch sind sie nicht länger die einzigen Faktoren; nun gilt es, die Struktur und Dynamik eines Themengebietes zu begreifen.
Lernen und Denken gehen mit der Zeit, sie verändern sich, und die Kulturtechniken der Zeichenmanipulation – Schreiben und Rechnen – haben darauf großen Einfluss. Der Zeichengebrauch beginnt mit der Ausbreitung des anatomisch modernen Menschen – die weltweit ältesten Höhlengemälde, die in der französischen Chauvet-Höhle gefunden wurden, sind 32000 Jahre alt. Der französische Anthropologe André Leroi-Gourhan, der zu solchen Gemälden geforscht hat, bezeichnet das Schreiben neben der DNA und dem Gehirn als das dritte Gedächtnis der menschlichen Spezies.13
