18,99 €
In seiner erstaunlichen Sozialgeschichte begibt sich Pasquinelli auf die Suche nach den Wurzeln der Künstlichen Intelligenz (KI) und entdeckt sie in der Entwicklung der Arbeitsteilung, in der raumbezogenen Berechnung industrieller Fertigung, in der Kontrolle kollektiven Verhaltens. Seine Demontage des Mythos von der Künstlichen Intelligenz könnte die Wogen glätten, die der – oft sehr kontrovers geführte – Diskurs über ihre Gefahren aufgeworfen hat. In jedem Fall ist es heilsam und entlastend, sich zu vergegenwärtigen, dass KI nur die Automatisierung von Arbeit auf höchstem Niveau ist, aber keine Intelligenz an sich. Denn die Antwort auf die Frage, was künstliche Intelligenz eigentlich ist, findet sich weder in der verborgenen Logik des Geistes noch in der komplexen neuronalen Physiologie des Gehirns. Auch die Vorstellung, KI könne eines Tages autonom denken oder gar Gefühle entwickeln, bleibt reine Fantasie. »Wir sind umgeben von Geschichten über KI, die Arbeitsplätze bedroht, als wäre sie eine Macht, die die Arbeit von außen und von oben verfolgt. Das Auge des Meisters stellt eine solche Sichtweise radikal in Frage. Matteo Pasquinelli zeigt, dass die Arbeit die Wurzel der historischen Entwicklung der KI ist. Geschichten von Enteignung und Widerstand, Automatisierung und Kampf durchziehen die Seiten dieses leidenschaftlichen Buches, das zugleich eine beachtliche akademische Leistung und eine politische Waffe ist, um die Politik der KI neu zu überdenken.« – Sandro Mezzadra
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 442
Veröffentlichungsjahr: 2024
Matteo Pasquinelli ist Professor für Wissenschaftsphilosophie am Institut für Philosophie und Kulturerbe der Universität Ca’ Foscari in Venedig. Seine Arbeiten sind unter anderem in den Zeitschriften AI and Society, e-flux, Multitudes, Radical Philosophy und South Atlantic Quarterly erschienen.
Matteo Pasquinelli
Das Auge des Meisters
Eine Sozialgeschichte Künstlicher Intelligenzaus dem Englischen von Karina Hermes
Bibliografische Information der Deutschen Bibliothek
Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar
Matteo Pasquinelli:
Das Auge des Meisters
1. Auflage, Juli 2024
eBook UNRAST Verlag, Oktober 2024
ISBN 978-3-95405-199-1
© UNRAST Verlag, Münster
www.unrast-verlag.de | [email protected]
Mitglied in der assoziation Linker Verlage (aLiVe)
Alle Rechte, insbesondere das Recht der Vervielfältigung und Verbreitung sowie der Übersetzung, vorbehalten. Kein Teil des Werkes darf in irgendeiner Form ohne schriftliche Genehmigung des Verlags reproduziert oder unter Verwendung elektronischer Systeme vervielfältigt oder verbreitet werden.
Titel der Originalausgabe:
The Eye of the Master. A Social History of Artificial Intelligence
Verso, London & New York 2023
© Matteo Pasquinelli 2023
Alle Rechte vorbehalten
Mit freundlicher Unterstützung durch die
Umschlag: UNRAST Verlag, Münster
Satz: Andreas Hollender, Köln
Abbildungen
Einleitung: KI als Arbeitsteilung
1 Die materiellen Werkzeuge algorithmischen Denkens
Teil I – Das Industriezeitalter
2 Babbage und die Mechanisierung mentaler Arbeit
3 Die Maschinen-Frage
4 Die Ursprünge von Marx’ »general intellect«
5 Die Abstraktion von Arbeit
Teil II – Das Informationszeitalter
6 Die Selbstorganisation des kybernetischen Geistes
7 Die Automatisierung der Mustererkennung
8 Hayek und die Epistemologie des Konnektionismus
9 Die Erfindung des Perzeptrons
Fazit: Die Automatisierung der Allgemeinen Intelligenz
Danksagung
Personenregister
Anmerkungen
1.1
Darstellung des Feueraltars im Agnicayana-Ritual. Frits Staal, »Griechische und vedische Geometrie«, Journal of Indian Philosophy 27, Nr. 1 (1999): 111 (Bild gedreht).
1.2
Die reflexive Struktur der Abstraktion. Peter Damerow, Abstraction and Representation, Berlin: Springer, 2013, 379.
1.3
Die Allegorie der Arithmetik. Gregor Reisch,
Margarita Philosophica
, 1503.
2.1
Schema zur Implementierung von de Pronys Algorithmus als Arbeitsteilung. Lorraine Daston, »Calculation and the Division of Labor, 1750–1950«, Bulletin of the German Historical Institute 62 (Frühjahr 2018): 11.
2.2
Design zur Implementierung von de Pronys Algorithmus in einen Mechanismus. Charles Babbage, On the Economy of Machinery and Manufactures, London: Charles Knight, 1832, 161.
2.3
Babbages
Difference Engine
. Charles Babbage, Passages from the Life of a Philosopher, London: Longman, Roberts & Green, 1864, Vorderseite Einband.
4.1
William Heath, »The March of Intellect [Der Marsch des Intellekts]«, ca. 1828, Druck, British Museum.
6.1
Skizze künstlicher Neuronen. Warren McCulloch und Walter Pitts, »A Logical Calculus of the Ideas Immanent in Nervous Activity«, Bulletin of Mathematical Biophysics 5, Nr. 4 (1943): 105.
6.2
Ausführender Arm des
Universal Constructor
. John von Neumann, Theory of Self-Reproducing Automata (editiert von Arthur Burks), Urbana, II: University of Illinois Press, 1966, 371.
6.3
Darstellung von Tierfellmustern und Kalkulationen. Alan Turing, ca. 1950. Blatt AMT/K3/8, Turing Archive, King’s College Cambridge, Auszug.
7.1
Darstellung der colliculi superiores des Mittelhirns. Warren McCulloch und Walter Pitts, »How We Know Universals: The Perception of Auditory and Visual Form«, Bulletin of Mathematical Biophysics 9, Nr. 3 (1947): 141.
9.1
Beispiele für Zielklassifizierung. Albert Murray, »Perceptron Applications in Photo Interpretation«, Photogrammetric Engineering 27, Nr. 4 (1961): 633.
9.2
Beispiele für Zielklassifizierung. Albert Murray, »Perceptron Applications in Photo Interpretation«, Photogrammetric Engineering 27, Nr. 4 (1961): 634.
9.3
Mark I Perceptron. Frank Rosenblatt, Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms, Buffalo, NY: Cornell Aeronautical Laboratory, 1961, iii.
9.4
Darstellung des Aufbaus des Mark I Perzeptrons. Frank Rosenblatt, Mark I Perzeptron Operators’ Manual. Buffalo, NY: Cornell Aeronautical Laboratory, 1960.
9.5
Rosenblatts Skizze des einfachen Perzeptrons. Frank Rosenblatt, »Audio Signal Pattern Perception Device«, US-Patent US3287649A, 1963 (ausgelaufen 1983).
»Das Detailgeschick des individuellen, entleerten Maschinenarbeiters verschwindet als ein winzig Nebending vor der Wissenschaft, den ungeheuren Naturkräften und der gesellschaftlichen Massenarbeit, die im Maschinensystem verkörpert sind und mit ihm die Macht›des Meisters‹ bilden.«[1]
»[Alle Menschen sind Intellektuelle, […] [Das bedeutet,] daß man zwar von Intellektuellen reden kann, nicht aber von Nicht-Intellektuellen, weil es Nicht-Intellektuelle nicht gibt […]. Es gibt keine menschliche Tätigkeit, aus der man jeglichen intellektuellen Beitrag ausschließen kann, der homo faber lässt sich nicht vom homo sapiens trennen.«[2]
Im 20. Jahrhundert hätten nur wenige Menschen LKW-Fahrer:innen jemals als »kognitive Arbeiter«, als Intellektuelle, bezeichnet. Doch in den frühen Jahren des 21. Jahrhunderts hat die Anwendung von künstlicher Intelligenz (KI) in selbstfahrenden Fahrzeugen und weiteren Artefakten die Wahrnehmung von manuellen Fähigkeiten wie Autofahren verändert. Dies offenbart, dass allgemein die wertvollste Komponente von Arbeit nie ausschließlich manueller, sondern schon immer kognitiver und auch kooperativer Natur war. Dank der KI-Forschung, man muss es einräumen, haben LKW-Fahrer:innen das Pantheon der Intelligenzija erreicht. Es ist ein Paradoxon – und eine bittere politische Offenbarung –, dass die hartnäckige Automatisierung gezeigt hat, wie viel »Intelligenz« durch Aktivitäten und Aufgaben zum Ausdruck kommt, die üblicherweise als körperlich und ungelernt gelten, ein Aspekt, der sowohl von Arbeitnehmerorganisationen als auch von der Kritischen Theorie oftmals vernachlässigt worden ist. Tatsächlich haben sich im gegenwärtigen digitalen Zeitalter nur wenige Soziolog:innen wie Richard Sennett die Mühe gemacht, zu betonen, dass »Machen Denken ist«, eine Dimension, die Wissenschaftshistoriker:innen wie Lissa Roberts und Simon Schaffer in ihrem eleganten Bild der »achtsamen Hand« aufgegriffen haben. Diese Hand hat genauso in den Werkstätten der Renaissance wie in jenen des Industriezeitalters nicht nur Muskelkraft bewiesen, sondern auch Ausgestaltung, Erfindungen und wissenschaftliche Durchbrüche inspiriert.[3] Wird heute noch die Intelligenz körperlicher Arbeit und sozialer Aktivität verleugnet, so scheint dies ein Symptom für eine überwuchernde digitale Sphäre und die Dematerialisierung menschlicher Aktivitäten zu sein; beides hat zu einer geheimnisvollen Aura beigetragen, die letztlich rund um KI herumgesponnen wurde.
Was ist KI? Eine vorherrschende Sichtweise beschreibt KI als das Streben danach, »Intelligenz zu entschlüsseln« –, wobei angenommen wird, dass diese Lösung in der geheimen Logik des Geistes oder in der tiefen Physiologie des Gehirns verborgen sei, zum Beispiel in seinen komplexen neuronalen Netzwerken. Konträr dazu vertrete ich in diesem Buch die Auffassung, dass der innere Code von KI nicht durch die Imitation biologischer Intelligenz erzeugt wird, sondern durch die Intelligenz der Arbeit und die sozialen Verhältnisse. Ich denke, es sollte heutzutage klar sein, dass KI ein Projekt ist, mit dem jenes Wissen vereinnahmt wird, welches in individuellen und kollektiven Verhaltensweisen zu Tage tritt; dieses Wissen soll dann in algorithmische Modelle kodiert werden, um so die vielfältigsten Aufgaben zu automatisieren: von Bilderkennung und Objektmanipulation zur Sprachübersetzung und Entscheidungsfindung. Wie es so häufig der Fall bei Ideologien ist, haben wir die »Lösung« des Rätsels von KI direkt vor unseren Augen, doch niemand kann – oder will – sie sehen.
Kehren wir zurück zum umstrittenen Projekt der selbstfahrenden Autos. Welche Art von Arbeit leisten Fahrer:innen? Und bis zu welchem Grad kann KI eine solche Aktivität automatisieren? Mit einem beträchtlichen Anteil an Schätzung und Risiko ist ein selbstfahrendes Auto so entworfen, dass es all die Mikroentscheidungen imitiert, die ein:e Fahrer:in auf einer vielbefahrenen Straße trifft.[4] Seine künstlichen neuronalen Netzwerke »erlernen« die Zusammenhänge zwischen der visuellen Wahrnehmung der Umgebung und der mechanischen Steuerung des Fahrzeugs (Lenken, Beschleunigen, Bremsen) gemeinsam mit ethischen Entscheidungen, die bei Gefahr innerhalb weniger Millisekunden gefällt werden müssen. Autofahren erfordert hohe kognitive Fähigkeiten, die man nicht durch Improvisation ausgleichen kann, aber auch rasche Problemlösung, die nur durch Gewohnheit und Übung möglich ist, also Aspekte, die nicht vollkommen bewusst ablaufen. Autofahren bleibt grundlegend eine soziale und kooperative Aktivität, die sowohl kodifizierten Regeln folgt (mit rechtlichen Vorgaben) und spontanen Regeln, einschließlich eines stillschweigenden kulturellen Gesetzes, das sich von Ort zu Ort unterscheidet. Es gilt als schwierig, eine solch komplexe Aktivität zu kodieren; selbst der Unternehmer Elon Musk hat eingeräumt, nach einigen tödlichen Unfällen mit Tesla-Autos, dass »generalisiertes autonomes Fahren ein schwieriges Problem darstellt«[5]. Jedoch hat das Industrieprojekt der selbstfahrenden Fahrzeuge in all seinen problematischen Aspekten verdeutlicht, dass die Aufgabe »Autofahren« nicht bloß »mechanisch« ist. Wenn es überhaupt möglich ist, die Fähigkeit des Autofahrens in ein algorithmisches Modell zu übertragen, dann nur, weil es sich beim Autofahren um eine logische Aktivität handelt – weil letzten Endes alle Arbeit logisch ist.[6]
Wie sieht also die Beziehung zwischen Arbeit, Regeln und Automatisierung aus, beispielsweise bei der Erfindung neuer Technologien? Diese Verwicklung ist das Kernproblem von KI und Untersuchungsgegenstand dieses Buches. Dabei handelt es sich jedoch nicht um eine völlig neue Perspektive zur theoretischen Herangehensweise an KI. Die Wissenschaftshistorikerin Lorraine Daston beispielsweise hat dieses Problem bereits anhand der großen Rechenprojekte der Aufklärung veranschaulicht, die den automatischen Rechenprozessen vorausgingen. Um die sehr ausufernden logarithmischen Tabellen zu erstellen, die für die Modernisierung Frankreichs zur Zeit der Revolution notwendig waren, hatte der Mathematiker Gaspard de Prony im späten 18. Jahrhundert die Idee, die industrielle Methode der Arbeitsteilung (zum Standard erhoben durch Adam Smith in The Wealth of Nations[7]) auf das Rechnen von Hand anzuwenden.[8] Zu diesem Zwecke erstellte de Prony einen sozialen Algorithmus, eine hierarchische Anordnung aus drei Gruppen von Angestellten, die sich die Arbeit aufteilten, wobei jede Gruppe einen Teil der langen Berechnungen durchführte, sodass am Ende ein Ergebnis festzustellen war. Einige Jahre später, im England des Industriezeitalters, übernahm Charles Babbage die Idee der Arbeitsteilung als internes Prinzip der Difference Engine, womit er den ersten Prototyp des modernen Computers entwarf. Entscheidend ist, dass Babbage begriff, dass Arbeitsteilung nicht nur ein Prinzip zum Entwerfen von Maschinen ist, sondern sich auch zum Kalkulieren der Produktionskosten eignet (seither bekannt als Babbage-Prinzip).
Im Industriezeitalter oblag die Aufsicht über die Arbeitsteilung gewöhnlich dem Meister der Fabrik.[9] Das Auge des Meisters in Betriebsstätten genauso wie in Lagern und Plantagen hatte schon seit langem die Arbeiter:innen überwacht und diszipliniert, die Pläne der Fließbänder und die Schichtpläne für Zwangsarbeiter:innen entworfen. Lange bevor es Industriemaschinen gab, waren die urbanen Betriebe und kolonialen Anwesen bereits »mechanisch« in ihrem Regime der körperlichen Disziplin und Sichtbarkeit.[10] Wie der Philosoph Michel Foucault zeigte, bereitete das Auferlegen derartiger Disziplinartechniken, basierend auf der Segmentierung von Zeit, Raum und Verhältnissen, die kapitalistische Herrschaft der Ausbeutung vor.[11] Parallel dazu trug eine rationalistische Sicht auf die Welt dazu bei, die Bewegungsabläufe des menschlichen Körpers noch detaillierter zu beschreiben und so ihre Mechanisierung zu entwerfen. Der Historiker Sigfried Giedion setzte sich in seinem berühmten Band Mechanisation Takes Command intensiv mit diesem Prozess auseinander. Ihm zufolge nimmt die Mechanisierung »mit dem Konzept der Bewegung« ihren Anfang, dann ersetzt sie Handarbeit und schließlich zeigt sie ihre volle Blüte am »Fließband, der Ort, an dem sich die gesamte Fabrik als ein synchroner Organismus verdichtet«.[12]
Diese mechanische Mentalität fand ihren Höhepunkt im Taylorismus – einem System des »wissenschaftlichen Managements«, welches bestrebt war, die Bewegungen der Arbeiter:innen bis ins kleinste Detail zu ökonomisieren. Tatsächlich, wie der Ökonom Harry Braverman einmal anmerkte, »verstand Taylor das Babbage-Prinzip besser als jeder andere seiner Zeit und es wurde bei seinen Kalkulationen immer priorisiert«[13]. Um die kleinsten Gesten der Arbeiter:innen überwachen zu können, verschaffte sich das Tayloristische System sogar cinematographische Augen: Der Meister der Fabrik wurde zu einer Art Filmdirektor, der die Arbeiter:innen filmte, um so ihre Produktivität erfassen und steigern zu können. Dadurch setzte er gleichsam das um, was der Medienwissenschaftler Jonathan Beller als den »cinematographischen Modus der Produktion«[14] bezeichnet hat. Taylorismus trieb die Disziplin der »Zeit- und Bewegungsstudien« voran, welche in den gleichen Jahren sowohl vom sowjetischen Revolutionär Aleksei Gastev und den US-amerikanischen Ingenieur:innen Frank und Lillian Gilbreth, die vergleichbare photographische Techniken einführten wie das Zyklogramm einerseits den Chronozyklograph andererseits.[15] Dieses Buch geht diesen analytischen Studien des Arbeitsprozesses durch das Industriezeitalter bis hin zum Aufkommen von KI nach, um darzulegen, wie die »Intelligenz« technologischer Innovation oftmals ihren Ursprung darin nahm, diese abstrakten Diagramme menschlicher Praxis und kollektiven Verhaltens zu imitieren.
Als industrielle Maschinen wie Web- und Drehmaschinen erfunden wurden, war dies tatsächlich nicht einem einsamen genialen Ingenieur zu verdanken, sondern durch die Imitation des kollektiven Arbeitsschemas gelungen: Indem die Muster der Handbewegungen und Werkzeuge erfasst wurden, die zugrundeliegende Kreativität des Knowhows der Arbeiter:innen, und man diese Muster in mechanische Artefakte umwandelte. Dieser Theorie der Erfindungen folgend, über die sich bereits Smith, Babbage und Marx im 19. Jahrhundert einig waren, findet sich in diesem Buch die These, dass die hochentwickeltsten »intelligenten« Maschinen ebenfalls entstanden sind, indem sie die Gliederung der kollektiven Arbeitsteilung imitieren. Im Verlauf dieses Buches werde ich diese Theorie der technologischen Entwicklung umbenennen in die Arbeitstheorie der Automatisierung oder Arbeitstheorie der Maschine, welche ich dann auf die Untersuchung der gegenwärtigen KI ausweiten und zur Arbeitstheorie maschineller Intelligenz verallgemeinern möchte.[16]
Schon bei Marx ist der Meister nicht mehr als Individuum zu verstehen, sondern, wie im ersten Zitat dieser Einleitung erwähnt, als integrierte Macht aus »der Wissenschaft, den ungeheuren Naturkräften und der gesellschaftlichen Massenarbeit, die im Maschinensystem verkörpert sind«. Nach der Ausweitung der »Arbeitsteilung in der Gesellschaft«, wie Émile Durkheim zum Ende des 19. Jahrhunderts festhielt, entwickelte sich das Auge des Meisters ebenso in neue Technologien der Überwachung weiter, wie die Statistik und die globalen »Operationen des Kapitals« (um Sandro Mezzadras und Brett Neilsons geschickte Formulierung zu nutzen).[17] Sodann hat die Verwaltung der Arbeit seit dem Ende des 20. Jahrhundert die gesamte Gesellschaft in eine »digitale Fabrik« verwandelt; dieses Management taucht auf in Form von Suchmaschinensoftware, online Karten, Benachrichtigungsapps, sozialen Netzwerken, Arbeitsplattformen für Kleinaufträge, Mobilitätsdienstleistungen und schließlich KI-Algorithmen, die verstärkt dazu genutzt werden, all die vorgenannten Dienstleistungen zu automatisieren.[18] Es ist nicht schwierig, KI heutzutage als eine weitere Zentralisierung der digitalen Gesellschaft und als Orchestrierung der Arbeitsteilung innerhalb der gesamten Gesellschaft zu betrachten.
Die These, dass das Design von Berechnungen und »intelligenten Maschinen« dem Schema der Arbeitsteilung folgt, ist nicht weit hergeholt, sondern wird durch die Gründungstheorien der Computerwissenschaft bestätigt, in welchen weiterhin ein Subtext kolonialer Fantasien und Klassentrennung aus dem Industriezeitalter enthalten ist. Selbst das berühmte Genie automatisierter Berechnung, Alan Turing, bestätigte erneut eine hierarchische und autoritäre Denkweise. In einem Vortrag aus dem Jahr 1947 stellte sich Turing eine Automatic Computing Engine (ACE) vor, einer der ersten digitalen Computer, als ein zentralisierter Apparat, der seine Rechenvorgänge als eine Hierarchie aus Meister und Diener aufeinander abstimmte:
»Grob gesagt werden diejenigen, die mit der ACE arbeiten, in seine Meister und in seine Diener unterteilt. Seine Meister werden die Anweisungstabellen für die Maschine in allen Einzelheiten planen und sich immer scharfsinnigere Möglichkeiten für ihren Gebrauch ausdenken. Die Diener der ACE werden sie mit Karten versorgen, so wie sie es verlangt. Sie werden alle Teile richtigstellen, die fehlerhaft sind. Sie werden die Daten, die die Maschine benötigt, zusammentragen. Tatsächlich übernehmen die Diener die Rolle der Gliedmaßen. Mit fortschreitender Zeit wird der Rechner eigenständig die Funktionen von Meister und Dienern übernehmen. Die Diener werden durch mechanische und elektrische Gliedmaßen sowie Sinnesorgane ersetzt. Zum Beispiel kann man dann Kurvenleser bereitstellen, um direkt Daten aus Kurven zu entnehmen, statt dass man Mädchen Werte ablesen und in Karten lochen lässt. Die Meister müssen ausgetauscht werden, denn sobald eine Technik überhaupt stereotypisiert wird, wird es möglich, ein System aus Anweisungstabellen zu entwerfen, mit dem der elektronische Computer dies selber ausführen kann. Es könnte vorkommen, dass die Meister sich weigern. Womöglich lehnen sie es ab, ihre Arbeit auf diese Weise an die Maschine zu verlieren. In einem solchen Fall werden sie ihre gesamte Arbeit mit Geheimnistuerei umweben und Ausreden suchen, schön verpackt in auserwähltes Geschwafel, wann immer ein Vorschlag auftaucht, der ihnen gefährlich erscheint. Ich halte eine solche Reaktion für eine ernst zu nehmende Gefahr.«[19]
Die Prosa des jungen Turing, der die Aufgaben des Berechnungsprozesses zwischen »Meistern«, »Dienern« und »Mädchen« verteilt, ist hart. Es erinnert an die erschreckende Darstellung der Industriefabriken im viktorianischen Zeitalter von Andrew Ure als »weitläufiger Automat, der aus verschiedenen mechanischen und intellektuellen Organen zusammengesetzt ist, die in einem unerschütterlichen Eifer zum Zwecke der Produktion eines gemeinsamen Zieles handeln, während alle einer sich selbst regulierenden Bewegungsgewalt untergeordnet sind«[20]. Damit vergleichbar stellte Turing sich einen intelligenten Automaten vor, der zukünftig in der Lage wäre, sich selbst neu zu programmieren und sowohl Meister als auch Diener zu ersetzen. Turings Vision wird gegenwärtig widerlegt durch die Existenz einer Armee aus »Geisterarbeitern« aus dem Globalen Süden, die, wie Mary Gray und Siddharth Suri dokumentiert haben, außer Sicht geschaffen worden sind, um das Unterhaltungsstück der maschinellen Autonomie nicht zu stören.[21] Im Gegensatz zu Turings Vermutung ist die KI vor allem gekommen, die Meister, also die Manager, zu ersetzen und weniger die Diener– Arbeiter:innen werden gebraucht (und so wird es auch bleiben), um Daten und Werte für die unersättlichen Schlünde der KI und ihre globalen Monopole zu produzieren, und andererseits, die Instandhaltung einer solchen Megamaschine durch Inhaltsfilterung, Sicherheitsprüfung, Evaluation und unerlässlicher Optimierung zu gewährleisten. Wie die Genderwissenschaftlerinnen Neda Atanasoski und Kalindi Vora hervorgehoben haben, sind Träume einer vollständigen Automatisierung und KI wie die von Turing nicht neutral, sondern basieren historisch gesehen auf der »Ersatzmenschheit« von versklavten Dienern, Proletarier:innen und Frauen; die mithilfe ihrer unsichtbaren Arbeit das universalistische Ideal des freien und autonomen (weißen) Subjektes möglich gemacht haben.[22]
In der jetzigen schwierigen Lage über die Geschichte von KI zu schreiben bedeutet, auf ein ausuferndes ideologisches Konstrukt gefasst zu sein: Unter den Führungsriegen der Unternehmen des Silicon Valley wie auch der Hightech-Universitäten ist die Propaganda von einer allmächtigen Macht der KI die Norm; zuweilen wird sogar das volkstümliche Versatzstück von Maschinen, welche »übermenschliche Intelligenz« und »Selbstbewusstsein« erlangen, wieder aufgegriffen. Dieses Märchen wird anschaulich dargestellt in den Geschichten der apokalyptischen Terminator-Reihe, in denen KI-Systeme technologische Einzigartigkeit erreichen und ein »existenzielles Risiko« für das Überleben der menschlichen Art auf diesem Planeten darstellen, eine Ansicht, die unter anderem auch der Zukunftsforscher Nick Bostrom vertritt.[23] Mythologien über technologische Autonomie und maschinelle Intelligenz sind nichts Neues: Seit dem Industriezeitalter gab es sie, um die Rolle der Arbeiter:innen und der subalternen Klassen zu mystifizieren.[24] Wie Schaffer, als er den Kult um Automaten zu Babbages Zeiten beschrieb, angemerkt hat, »war es notwendig, dass die Quellen der Macht, nämlich die Arbeiterschaft, die die Maschinen umgab und betrieb, unsichtbar gemacht wurde, um die Maschinen intelligent erscheinen zu lassen«[25].
Wendet man sich von derartigen spekulativen Narrativen ab, die sich niemals zur Genüge mit den technischen Details befassen, um festzulegen, welche der Algorithmen denn nun eine »Superintelligenz« ausführen, finden sich heutzutage eine Vielzahl von technischen Geschichten der KI, die als Gegenstück versprechen, die komplexen Algorithmen zu erläutern.[26] Diese technischen Übersichtsarbeiten äußern oftmals die unternehmerischen Erwartungen an einen »Masteralgorithmus«, der alle Aufgaben der Perzeption und Kognition mit einer erstaunlichen Geschwindigkeit der Datenkompression (denn dies ist die sehr unromantische Metrik, nach der »intelligente« Systeme letzten Endes bewertet werden) lösen kann.[27] Auch dieses Verständnis setzt sich nur selten mit dem historischen Kontext und den sozialen Folgen von Automatisierung auseinander, sondern zeichnet eine lineare Abfolge mathematischer Errungenschaften auf, was technologischen Determinismus weiter verstärkt.[28] In der Riege der technischen Historie von KI darf die Kognitionswissenschaft nicht fehlen, da ein bedeutender Teil dieser Disziplin sich unter dem Einfluss der Computerwissenschaften entwickelt hat. Das monumentale zweibändige Werk von Margaret Boden Mind as Machine (2006) ist wohl noch immer die detaillierteste Darstellung der Geschichte von KI als Kognitionswissenschaft, wobei sie die Komplexität ihrer Entstehungsgeschichte ohne ideologischen Übereifer veranschaulicht.
Eine wachsende Anzahl Autor:innen lässt sich nicht von derart engen technischen Sichtweisen verleiten und beschäftigt sich nun mit den sozialen Folgen der KI aus Sicht der Arbeiter:innen, der Gemeinschaften, der Minderheiten und der Gesellschaft insgesamt. Diese Autor:innen hinterfragen die Virtuosität von Algorithmen, die »Intelligenz« für sich beanspruchen, obwohl sie faktisch Ungleichheiten verstärken, Vorurteile in Bezug auf Gender und race aufrechterhalten und zur Verfestigung einer neuen Form des Wissensextraktivismus beitragen. Dank Büchern wie Cathy O’Neils Weapons of Math Destruction (2016), Safiya Nobles Algorithms of Oppression (2018), Ruha Benjamins Race after Technology (2019) und Wendy Chuns Discriminating Data (2021) und vieler Anderer, dehnt sich das neue Feld kritischer KI-Studien weiter aus.[29] Dieser neue Forschungszweig baut auf älteren Untersuchungen von KI, der Kybernetik, und der Rationalität des Kalten Krieges aus vorhergehenden Jahrzehnten auf; Untersuchungen stammen unter anderem von Alison Adams Artificial Knowing (1998), Philip Agres Computation and Human Experience (1997), Paul Edwards’ The Closed World (1996), Joseph Weizenbaums Computer Power and Human Reason (1976) und Hubert Marx Dreyfus’ Abhandlung für die Rand Corporation Alchemy and Artificial Intelligence (1965), welche als erste philosophische Kritik an KI gilt.[30]
Inmitten des sich ausweitenden Fundus an kritischen Werken soll mit diesem Buch die soziale Genealogie von KI erläutert, und insbesondere der Standpunkt – die sozialen Klassen – von dem aus und von denen aus KI als eine Zukunftsvision der Welt und der Epistemologie verfolgt wurde, herausgearbeitet werden. Verschiedene gesellschaftliche Gruppen und Machtgefüge haben den Informationstechnologien und der KI im vergangenen Jahrhundert ihre Form verliehen. Man kann sagen, dass die frühen Paradigmen des mechanischen Denkens und die neueste maschinelle Intelligenz sich zu unterschiedlichen Zeiten und auf unterschiedliche Art nicht »auf die Schultern von Riesen« stützten, wie das alte Sprichwort lautet. Vielmehr haben wir es hier mit »den Schultern von« Händler:innnen, Soldat:innen, Befehlshaber:innen, Beamt:innen, Spion:innen, Industriellen, Manager:innen und Arbeiter:innen zu tun.[31] In all diesen Genealogien war die Automatisierung von Arbeit der entscheidende Faktor, doch dieser Aspekt wird von einer Geschichtsschreibung der Technologie, welche den Blick der Wissenschaft »von oben herab« bevorzugt, wiederholt ignoriert.
Zum Beispiel ist es eine übliche Herangehensweise, das Aufkommen der Kybernetik, digitaler Berechnung und KI an großzügige Förderungen durch das US-Militär während des Zweiten Weltkriegs und zur Zeit des Kalten Krieges ziemlich deterministisch zu binden.[32] Doch neueste Forschung hat bewiesen, dass die äußersten Auswüchse derartiger »Kriegsrationalität« ziemlich instabil waren und Paradigmen wie die Spieltheorie und die lineare Programmierung hervorbrachte, welche auch der Kern der Modellierung des Rüstungswettlaufs und Militärlogistik waren.[33] Die Einflussnahme der Staatsapparate auf Informationstechnologien hatte jedoch schon lange vor der Beschleunigung für militärische Zwecke im Zweiten Weltkrieg begonnen: Die Automatisierung von Informationsgewinnung und statistischer Analyse geht zurück auf die Notwendigkeit, öffentliche Bürokratie und Regierungsarbeit zu mechanisieren, und dies spätestens seit der Volkszählung in den USA 1890, für welche die Tabelliermaschine von Herman Hollerith zur Verarbeitung von Lochkarten eingeführt wurde. Die »Regiermaschine« (wie Jon Agar sie nannte) war ein Vorgeschmack auf die großen Rechenzentren des digitalen Zeitalters; diese sind wie allgemein bekannt nicht nur eine Angelegenheit von Internetfirmen, sondern auch von Nachrichtendiensten, wie der Mathematiker Chris Wiggins und der Historiker Matthew L. Jones gezeigt haben.[34] Kurz gefasst war es für mehr als hundert Jahre immer die Ansammlung von »big data« über die Gesellschaft und ihr Verhalten, welche die Entwicklung von Informationstechnologien befeuert hat, von Holleriths Tabelliermaschine bis hin zu maschinellem Lernen selbst.[35]
Zusammenfassend ist KI die Fortsetzung der Datenanalysetechniken, die zuerst von Ämtern gefördert wurden, im Geheimen von Nachrichtendiensten ausgearbeitet wurden und schließlich durch Internetfirmen in ein weltweites Geschäft der Überwachung und Vorhersage überführt wurden. Doch dieser Deutungsansatz ist wiedermal eine Geschichte »von oben herab«, die sich nur auf die Techniken der Überwachung konzentriert und sich kaum mit den Subjekten befasst, die Objekte dieser Überwachung sind. Die Objekte dieser Machtausübung (oder dieses »Überwachungskapitalismus« nach Shoshana Zuboff) werden normalerweise nicht als Handelnde mit Autonomie und »Intelligenz« beschrieben, sondern als passive Ziele zur Vermessung und Beherrschung. Hier liegt ein Problem der Kritischen Theorie im Allgemeinen und kritischer KI-Studien im Speziellen: Obwohl sich diese Studien mit den Auswirkungen von KI auf die Gesellschaft auseinandersetzen, übersehen sie oft die Rolle des kollektiven Wissens und der Arbeit als die Hauptquellen gerade jener »Intelligenz«, die die KI zu extrahieren, enkodieren und kommerzialisieren beabsichtigt. Daneben gelingt es solchen Untersuchungen oftmals nicht, den Beitrag der sozialen Formen und Kräfte zu den Schlüsselmomenten der technologischen Erfindungen und Entwicklung zu sehen. Ein echter kritischer Einwurf sollte diese hegemoniale Position von KI als dem einzigartigen »Meister« kollektiver Intelligenz kritisch hinterfragen. Der italienische Philosoph Antonio Gramsci setzte einst der Bildungshierarchie entgegen, dass »alle menschlichen Wesen Intellektuelle sind«: in ähnlicher Weise ist es das Ziel des vorliegenden Buches, die Zentralität der sozialen Intelligenz, welche die KI mit Informationen speist und sie ermächtigt, wieder neu zu entdecken. Auch möchte ich behaupten, dass – als etwas radikalere These – derartige soziale Intelligenz die eigentliche Gestalt der KI-Algorithmen von innen heraus bestimmt.
Dieses Buch soll ein Vorstoß sowohl in die technische und soziale Historie von KI sein und diese beiden Ansätze in eine sozio-technische Historie integrieren, die auch die ökonomischen und politischen Faktoren herausarbeitet, welche ihre innere Logik beeinflusst haben. Statt Partei zu ergreifen für den konventionellen sozialen Konstruktivismus und um über die neuartigen Einblicke in die Sozioinformatik hinauszugehen, soll in diesem Buch das Fachgebiet der KI um die Methode der historischen Epistemologie erweitert werden – die in der Wissenschaftsgeschichte auf verschiedene Weise von Boris Hessen, Henryk Grossmann, Georges Canguilhem und Gaston Bachelard sowie in jüngster Zeit durch die Arbeit des Max-Planck-Instituts für Wissenschaftsgeschichte und weiterer Initiativen vertreten wurde.[36] Während sozialer Konstruktivismus für gewöhnlich den Einfluss externer Faktoren auf die Wissenschaft und Technologie betont, befasst sich die historische Epistemologie mit der dialektischen Entfaltung sozialer Praxis, Instrumenten der Arbeit und den wissenschaftlichen Abstraktionen innerhalb globaler ökonomischer Dynamiken. In diesem Buch werden KI und algorithmisches Denken in vergleichbarer Weise erforscht, wie es die historische und politische Epistemologie in der Moderne mit dem Aufkommen des mechanischen Denkens und den wissenschaftlichen Abstraktionen in Zusammenhang mit sozio-ökonomischen Entwicklungen getan hat.[37]
In dieser Hinsicht wurde in den letzten Jahrzehnten eine politische Epistemologie der Wissenschaft und Technologie auch von feministischen Theoretiker:innen verstärkt betrieben, darunter Hilary Rose, Sandra Harding, Evelyn Fox Keller und Silvia Federici. Diese Autor:innen haben den Aufstieg moderner Rationalität und mechanischen Denkens (wozu auch KI zählt) und seine Verbindung zur Transformation von Frauenkörpern und ganz generell dem kollektiven Körper in eine produktive und fügsame Maschine überzeugend dargelegt.[38] In der Tradition der politischen Epistemologie muss auch die Arbeitsprozessanalyse, welche durch Bravermans Labor and Monopoly Capital (1974) und die Arbeiter*innnenbefragung des italienischen operaismo[39] ausgelöst wurde, welche Romano Alquati beispielsweise and der Olivetti Computerfabrik in Ivrea bereits im Jahr 1960 durchgeführt hatte, berücksichtigt werden.[40] Braverman und Alquati waren Vorreiter mit einflussreichen Arbeiten, die als erstes zeigten, wie Babbages Projekte der automatisierten Berechnung im 19. Jahrhundert genauso wie die Kybernetik im 20. Jahrhundert inhärent mit der Sphäre der Arbeit und ihrer Organisation in Verbindung stehen.
Die Übersetzung von Arbeitsprozessen in einen logischen Ablauf und anschließend in ein technisches Artefakt verläuft selten gradlinig und fehlerfrei; stattdessen lässt sich oft ein nachgemachter und experimenteller Charakter des Unterfangens erkennen. In diesem Sinne umfasst der Titel Das Auge des Meisters nicht nur eine politische, sondern auch eine technologische Analogie. Es signalisiert, auf seine Weise ironisch, die Ambivalenz des gegenwärtigen Paradigmas der KI – Deep Learning – das nicht, wie einige vielleicht glauben mögen, aus den Theorien der Kognition, sondern aus strittigen Experimenten zur Automatisierung der Wahrnehmungsarbeit, auch Mustererkennung genannt, erwachsen ist.[41] Deep Learning entwickelte sich von der Ausweitung der Techniken der visuellen Mustererkennung hin zu nicht-visuellen Daten, einschließlich Text-, Audio-, Video- und Verhaltensdaten verschiedensten Ursprungs. Der große Aufstieg von Deep Learning fand im Jahr 2012 statt, als das convolutional neural network AlexNet den Wettbewerb des Projektes ImageNet [Bilddatenbank zu Forschungszwecken] gewann. Seitdem hat sich der Ausdruck »KI« etabliert, um das Paradigma von künstlichen neuronalen Netzwerken zu definieren, das, was nicht vergessen werden darf, in den 1950er Jahren noch als ihr Rivale gegolten hatte (ein Beispiel für die Kontroversen, welche die »Rationalität« von KI ausmachen).[42] Stuart und Hubert Dreyfus haben diese Spaltung in ihrem Essay von 1988 Making a Mind versus Modeling the Brain untersucht, in welchem sie diese zwei Abstammungslinien der KI, die symbolische und die konnektionistische, nachzeichneten, und die, basierend auf unterschiedlichen logischen Grundsätzen, auch unterschiedlichen Schicksalen folgten.[43]
Symbolische KI ist die eine Linie, die mit einem Seminar von 1956 in Dartmouth in Verbindung gebracht wird, für das John McCarthy den fragwürdigen Ausdruck »künstliche Intelligenz« geprägt hat.[44] Schlüsselanwendungen der symbolischen KI waren Logic Theorist und General Problem Solver sowie allgemein eine Ansammlung von Expertensystemen und Inferenzsystemen, die sich als banal und anfällig für kombinatorische Explosionen [schnelles Wachstum der Komplexität einer Problemstellung] herausstellten. Auf der anderen Seite ist Konnektionismus als der Zweig der künstlichen neuronalen Netzwerke zu verorten, der durch die Erfindung von Frank Rosenblatts Perzeptron im Jahr 1957 ins Leben gerufen wurde, welcher sich in convolutional neural networks in den späten 1980er entwickelte und letztlich den Startschuss für die Deep Learning Architektur geliefert hat, welche seit den 2010er Jahren vorherrscht.
Die beiden Linien verfolgen unterschiedliche Logiken und unterschiedliche Epistemologien. Die erste Entwicklungslinie vertritt die Haltung, dass Intelligenz eine Darstellung der Welt (knowing-that) ist, was sich in Aussagen formalisieren und daher mechanisieren lässt, indem man einer deduktiven Logik folgt. Die andere Entwicklungslinie behauptet konträr dazu, dass Intelligenz die Erfahrung der Welt ist (knowing-how), die sich in Annäherungsmodellen umsetzen lässt, die in Übereinstimmung mit induktiver Logik entwickelt werden. Es ist nicht meine Absicht, unternehmerischer Propaganda oder philosophischen Lehren vom menschlichen Geist als Rechenmaschine zu nahe zu treten, aber keine dieser Paradigmen hat es geschafft, den menschlichen Geist vollständig zu imitieren. Maschinelles Lernen und umfassende künstliche neuronale Netzwerke haben jedoch aufgrund ihrer Auflösung bei der Darstellung multidimensionaler Daten ihren Erfolg bei Techniken der Mustererkennung bewiesen und somit auch in der Automatisierung einer Vielzahl von Aufgaben. Im Bruch mit der Tradition, den übertriebenen Schöpfungsmythos des Seminars von Dartmouth zu wiederholen, wird dieses Buch die Ursprünge der künstlichen neuronalen Netzwerke, des Konnektionismus und des maschinellen Lernens als die sehr viel überzeugendere Geschichte von KI in den Fokus rücken, in der es, insbesondere mit Blick auf die Arbeit von Rosenblatt, noch an kritischer und ausführlicher Literatur mangelt.
Das Buch ist in drei Abschnitte unterteilt: Das erste Kapitel befasst sich mit den Methoden und bietet eine allgemeine Einleitung, dann folgen zwei historische Abschnitte, die sich zum einen mit dem Industriezeitalter und zum anderen mit dem Informationszeitalter beschäftigen. Jedoch ist es nicht Ziel dieses Buches, eine lineare Historie der Technologie und Automatisierung anzubieten. Vielmehr kann jedes Kapitel als eigenständiger »Workshop« für die Studie algorithmischer Praktiken und maschineller Intelligenz gelesen werden.
Kapitel Eins berücksichtigt zunächst die Notwendigkeit, dass die zentrale Vorstellung von Berechnung geklärt werden muss: der Algorithmus. Was ist ein Algorithmus? In den Computerwissenschaften kann ein Algorithmus als endliche Prozedur einer schrittweisen Anweisung definiert werden, einen Input in einen Output umzuwandeln, wobei die vorhandenen Ressourcen auf bestmögliche Weise genutzt werden. In diesem Kapitel wird die ausschließlich technische Definition eines Algorithmus infrage gestellt; gefordert wird eine materialistische Kritik, die auch die ökonomischen und gesellschaftlichen Wurzeln des Algorithmus anerkannt wissen will. Denn schließlich, wie es auch bei anderen abstrakten Ideen wie Zahlen oder Mechanismen der Fall ist, haben Algorithmen eine lange Geschichte hinter sich: Der Mathematiker Jean-Luc Chabert ist der Ansicht, dass »Algorithmen schon seit Anbeginn der Zeit existiert haben, lange bevor es einen bestimmten Ausdruck gab, um sie zu erfassen«[45]. Indem die soziale Mathematik des altertümlichen hinduistischen Rituals Agnicayana freigelegt wird, argumentiert dieses Kapitel, dass algorithmisches Denken und algorithmische Praktiken Teil aller Zivilisationen waren und sind, und nicht nur in der Metasprache westlicher Computerwissenschaften anzutreffen sind. Entgegen eines mathematischen und philosophischen Institutionalismus, der an die vollständige Unabhängigkeit mentaler Konstrukte glaubt, möchte ich in diesem Kapitel betonen, dass algorithmisches Denken sich aus einer materiellen Abstraktion heraus entwickelt hat, durch die Interaktion des Geistes mit Werkzeugen, um die Welt zu verändern und vorwiegend ökonomische und soziale Probleme zu lösen. Bewusst reißerisch formuliert, besagt die Hauptthese von Kapitel Eins: Arbeit ist der erste Algorithmus.
Die beiden Hauptteile dieses Buches werden maschinelle Intelligenz in zwei historischen Epochen erforschen, was auf die parallele Entwicklung von ähnlichen Problemstellungen hindeutet. Teil I befasst sich mit Arbeit als der Quelle von Wissen und mit der Automatisierung von mentaler Arbeit während des Industriezeitalters im Vereinigten Königreich. Dieser historische Zeitpunkt wird normalerweise aus den Perspektiven körperliche Arbeit, Akkumulation von Kapital und fossile Energie heraus untersucht, die kognitiven Komponenten werden hingegen selten in den Fokus gerückt. Dem gegenüber analysiert Teil II das Aufkommen des Konnektionismus (die Doktrin des künstlichen neuronalen Netzwerkes) in den Kreisen der US-amerikanischen Kybernetik zwischen den 1940er und den 1960er Jahren. Künstliche neuronale Netzwerke haben sich aus den Projekten zur Automatisierung von visueller Arbeit (allgemein als Mustererkennung bezeichnet) heraus entwickelt, welche zu trennen ist von körperlicher und mentaler Arbeit. Ich behaupte, dass es notwendig ist, die Rolle des Wissens, mentaler Arbeit und der Wissenschaft im 19. Jahrhundert zu untersuchen, um die Geschichte der Automatisierung zu verstehen, die den Boden für den Aufstieg der KI im 20. Jahrhundert bereitet hat. Unter verschiedenen Überschriften befassen sich diese zwei Teile des Buches mit dem gleichen Problem, nämlich der Beziehung von Formen technologischer Innovationen mit der sozialen Organisation.
Wie schon Wissenschaftshistoriker wie Daston und Schaffer ausführlich beschrieben haben, ist es einfacher, den Anstoß für moderne Berechnung in den Betrieben des Industriezeitalters zu finden als in den Werken der Mathematik oder Naturphilosophie jener Zeit. In diesem Sinne wird in Kapitel Zwei erneut ein Blick auf die experimentelle Pionierarbeit bezüglich automatisierter Rechenprozesse durch Babbage geworfen, konkret auf seine Difference Engine und seine Analytical Engines. Dabei liegt der Fokus auf ihrer ökonomischen Matrix und nicht auf der sonst üblichen Überhebung der Maschine als Wunderwerk der Technik. Um den Aufbau dieser frühen Computer zu verstehen (und ihre Varianten von »maschineller Intelligenz«), werden in diesem Kapitel zwei Prinzipien der Arbeitsanalyse nach Babbage angeführt. Sein erstes analytisches Prinzip, die Arbeitstheorie der Maschine, besagt, dass das Design der Maschine den Ablaufplan der vorhergehenden Arbeitsteilung imitiert und ersetzt. Das zweite, das Prinzip der Arbeitskalkulation (normalerweise Babbage-Prinzip genannt), besagt, dass die Aufteilung der Arbeit in kleine Aufgaben es ermöglicht, die exakte Quantität an Arbeit zu berechnen und zu erwerben, die für die Produktion nötig ist. Diese beiden Prinzipien in Kombination, beschreiben die industrielle Maschine nicht nur als Mittel zur Verbesserung von Arbeit, sondern auch als ein Instrument (und implizit als Metrik), um diese zu messen. Babbage wandte beide Prinzipien bei der Automatisierung der Kalkulation per Hand an: Berechnungsvorgänge entwickelten sich damit nicht nur aus der Automatisierung von mentaler Arbeit, sondern auch als Kennzahl für die Kalkulation ihrer Kosten.
Statt der üblichen »thermodynamischen« Interpretationen körperlicher Arbeit hebt Kapitel Drei hervor, dass hochentwickelte Ideen von mentaler Arbeit, kollektiver Intelligenz und Wissensentfremdung bereits im Industriezeitalter ausgearbeitet worden waren. Es untersucht die Zirkulation von Ideen zwischen dem Entstehen einer politischen Ökonomie im 19. Jahrhundert und den Mechanics’ Institute, zwischen der March of Intellect-Kampagne und der Maschinen-Frage (eine Debatte, in der die englische Gesellschaft sich lebhaft mit technologischer Arbeitslosigkeit beschäftigte). Das Kapitel erweitert aus gegensätzlichen Positionen die vorherigen Überlegungen zu Babbages Prinzipien der Arbeitsanalyse und Erfindung. Einerseits wird dargelegt, dass lange vor den Theoretiker:innen einer Wissensgesellschaft des 20. Jahrhunderts schon ricardianische Sozialisten wie William Thompson und Thomas Hodgskin eine Wissenstheorie der Arbeit ausgearbeitet hatten. Andererseits soll die Notwendigkeit verdeutlicht werden, den Einfluss von Industriemaschinen und -instrumenten auf die Entwicklung des Wissens über Natur zu erkennen, um so zu einer Maschinentheorie der Wissenschaften zu gelangen. Der Ausdruck »maschinelle Intelligenz« nimmt in dieser Diskussion schließlich mindestens vier Bedeutungen an: das menschliche Wissen über die Maschine, das Wissen, das im Design der Maschine verkörpert ist, die menschlichen Aufgaben, die von der Maschine automatisiert werden und das neue Wissen über das Universum, das durch den Gebrauch der Maschine möglich wird.
Kapitel Vier thematisiert die Beziehung zwischen Babbage und einem weiteren Pfeiler der politischen Ökonomie im Industriezeitalter, Karl Marx – eine Beziehung, die bisher wenig untersucht wurde.[46] Wie auch jedes andere Kapitel dieses Buches ergründet dieses Kapitel die Verflechtung des Wissens in materielle Handlungen und Artefakte, wobei auch die Theorien von Marx unter diesem Gesichtspunkt betrachtet werden. In einem berühmten Fragment aus den Grundrissen, antizipierte Marx, dass die fortschreitende Akkumulation von Wissen (oder was er als general intellect betitelte) in Maschinen die Gesetzte der kapitalistischen Akkumulation unterwandern würde und ihre ultimative Krise hervorrufen würde. Es ist vor allem den Interpretationen des italienischen operaismo nach 1989 zu verdanken, dass diese unorthodoxe Textpassage (umbenannt in »Maschinenfragment«) von Generationen von Wissenschaftler:innen und Aktivist:innen als eine Prophezeiung der Wissensökonomie, der Dotcom-Blase oder des Aufstiegs von KI breite Akzeptanz genießt. Nach Jahrzehnten der Spekulation klärt das Kapitel den Ursprung der Idee von einem »general intellect«, auf, welche Marx zum ersten Mal in William Thompsons Buch An Inquiry into the Principles of the Distribution of Wealth (1824) gestoßen ist. Noch bedeutender ist aber, dass an dieser Stelle erläutert wird, warum dieser Gedanke vom general intellect in Das Kapital nicht mehr auftaucht. Bei Thompson fand er die Idee von der sich steigernden Akkumulation von Wissen vor, aber auch das Argument, dass, sobald Wissen durch Maschinen entfremdet worden ist, das Wissen gegenüber Arbeiter:innen feindlich auftritt. Doch es war bei Babbage, in dessen Werk Marx eine alternative Theorie antraf, um die doppeldeutige Rolle von Wissen und Wissenschaft innerhalb der industriellen Wirtschaft aufzulösen. In Das Kapital ersetzte Marx die utopischen Erwartungen rund um den general intellect mit der materiellen Figur des Gesamtarbeiters, was als anderer Name für die ausgeweitete Arbeitskooperation genutzt wurde. Die Figur des Gesamtarbeiters, als eine Art Superorganismus, der Mensch und Maschine verband, markiert in diesem Buch den Eintritt ins Zeitalter der Kybernetik und ihre Experimente der Selbstorganisation. Als Überleitung zum zweiten Teil liefert Kapitel Fünf eine kurze Zusammenfassung der Transformation von Arbeit vom Industrie- zum kybernetischen Zeitalter und verdeutlicht dabei ihre Gabelung in abstrakte Energieund abstrakte Form (oder In-formation).
Teil II des Buches stellt Konnektionismus als die hauptsächliche Genealogie der gegenwärtigen KI-Systeme in den Mittelpunkt (wobei vermieden wird, bekannte Literatur zu Kybernetik, Informationstheorie und symbolischer KI zu wiederholen). Kapitel Sechs umreißt den Aufstieg künstlicher neuronaler Netzwerke von einem vernachlässigten Standpunkt aus: den Studien zu Selbstorganisation von Organismen und Maschinen (diese Aspekte sind selbst Margaret Boden in ihrer ausführlichen Historie zu KI entgangen). Theorien zur Selbstorganisation sind heutzutage in Disziplinen wie Physik, Chemie, Biologie, Neurowissenschaften und Ökologie sehr beliebt, doch statt einer Naturwissenschaft brauchte es erst die Kybernetik, um die Debatte zur Selbstorganisation in der Mitte des 20. Jahrhunderts auszulösen. Das Kapitel zeichnet die Paradigmen der selbstorganisierenden Berechnung nach, welche, neben weiteren, zu der Konsolidierung des Konnektionismus beigetragen haben; hervorgehoben wird die ursprüngliche Idee von neuronalen Netzwerken von Warren McCulloch und Walter Pitts (1943–47), John von Neumanns zelluläre Automaten (1948) und Rosenblatts Perzeptron (1957). Das Kapitel untersucht, wie kybernetische Theorien der Selbstorganisation auch eine Antwort auf sozio-technische Veränderungen waren. Wie es auch in vorhergegangenen Jahrhunderten mit anderen Varianten mechanischen Denkens der Fall gewesen war, projizierte die Kybernetik auf Gehirne und die Natur Formen der Organisation, die bereits Teil der technischen Komposition der umgebenden Gesellschaft waren. Bedeutendes Beispiel ist das Telegraphennetzwerk, das im 19. Jahrhundert als Analogie für das menschliche Nervensystem herangezogen wurde und im 20. Jahrhundert dazu diente, neuronale Netzwerke zu formalisieren – und dies noch vor der Turing-Maschine.
Kapitel Sieben führt McCullochs und Pitts’ Idee künstlich neuronaler Netzwerke zurück auf die vergessene Gestalt-Kontroverse: Eine Debatte darüber, ob die menschliche Wahrnehmung ein Akt der Kognition ist, die man analytisch repräsentieren und somit mechanisieren kann. Lehrbücher zu maschinellem Lernen wiederholen für gewöhnlich, dass McCulloch und Pitts von der Neurophysiologie des Gehirns inspiriert worden sind, übersehen dabei jedoch diese intellektuelle Auseinandersetzung. Tatsächlich hat sich erst im Nachgang dieser Debatten der Ausdruck »Gestalt- Wahrnehmung« durch militärische und akademische Veröffentlichungen allmählich in den gängigen Ausdruck »Mustererkennung« entwickelt. Die Gestalt-Kontroverse ist ein kognitives Fossil unaufgelöster Probleme, deren Untersuchung hilfreich sein kann, die Formen und Grenzen zu verstehen, die Deep Learning geerbt hat – insbesondere der ungeklärte Widerspruch zwischen Perzeption und Kognition, Bild sowie Logik, welche die technologischen Wissenschaften des 20. Jahrhunderts plagten.
Kapitel Acht erläutert die ambivalente Rolle, welche der neoliberale Ökonom Friedrich Hayek bei der Konsolidierung des Konnektionismus spielte. In seinem Buch The Sensory Order von 1952, schlug Hayek eine konnektionistische Theorie des Geistes vor, die bereits sehr viel fortgeschrittener war als die Definitionen von KI, die das Seminar in Dartmouth von 1956 hervorbrachte. In diesem Text, wie auch McCulloch und Pitts schon vorgeschlagen hatten, spekulierte Hayek über die Möglichkeit einer Maschine mit ähnlichen Funktionen wie »das Nervensystem als ein Instrument der Klassifizierung«.[47] Hayek erforschte die Selbstorganisation des Geistes in vergleichbarer Weise wie die Kybernetiker:innen, aber im Dienste einer anderen Agenda: Ihm ging es nicht um industrielle Automatisierung, sondern um die Autonomie des Marktes.
Eine der wichtigsten aber kaum erforschten Episoden der Geschichte von KI steht im Zentrum von Kapitel Neun: die Erfindung des künstlichen neuronalen Netzwerkes Perzeptron durch Rosenblatt in den 1950er Jahren. Ungeachtet seiner begrenzten Möglichkeiten stellte das Perzeptron einen Durchbruch in der Geschichte der Berechnung dar, da es zum ersten Mal eine Technik der statistischen Analyse automatisierte; aus diesem Grund gilt das Perzeptron als erster Algorithmus des maschinellen Lernens.[48] Als technische Form beanspruchte das Perzeptron, biologische neuronale Netzwerke zu imitieren. Doch in seiner mathematischen Form kam ein anderer Trick zum Tragen: Um Mustererkennung durchzuführen, stellte es die Pixel eines Bildes als unabhängige Koordinaten in einem multidimensionalen Raum dar. Interessanterweise stammt die statistische Methode multidimensionaler Projektion aus den Bereichen der Psychometrie und Eugenik des späten 19. Jahrhunderts und funktionierte analog zu der Technik, die Charles Spearman sich zur Evaluierung einer »Allgemeinen Intelligenz« in der kontroversen Praxis des Intelligenzquotienten-Tests (IQ-Test) zunutze machte. Dies ist ein weiterer Beweis für die soziale Genealogie von KI: Das erste künstliche neuronale Netzwerk – das Perzeptron – kam nicht als eine Automatisierung von logischer Schlussfolgerung in die Welt, sondern als statistische Methode, die ursprünglich eingesetzt wurde, um mittels kognitiver Aufgaben Intelligenz zu messen und um soziale Hierarchien dementsprechend zu organisieren.
Im Fazit steht die Überlegung im Mittelpunkt, dass es sich beim operativen Prinzip von KI tatsächlich nicht bloß um die Automatisierung von Arbeit handelt, sondern um die Auferlegung sozialer Hierarchien und körperlicher und mentaler Arbeit durch Automatisierung. Ausgehend vom 19. Jahrhundert bis hin zum 20. Jahrhundert erweiterte das »Auge des Meisters« des industriellen Kapitalismus seinen Blick über die gesamte Gesellschaft und drängte den Menschen neue Formen der Überwachung auf, die auch auf statistischen Messungen der »Intelligenz« beruhten, um Arbeiter:innen in Fähigkeitsklassen zu unterscheiden. Dies war beispielsweise eine der ersten Anwendungen des IQ-Tests gemäß den Vorgaben des US-amerikanischen Psychologen Lewis Terman; er vertrat im Jahr 1919 die Ansicht, dass »ein IQ von 75 oder darunter gewöhnlich der ungelernten Arbeiterklasse zugeordnet wird, ein IQ im Bereich von 75 bis 85 sich hervorragend für alle angelernten Arbeiten eignet und 80 oder 85 Punkte ausreichend sind, um in einigen Bereichen der qualifizierten Arbeit erfolgreich zu sein«.[49] Dieser Prozess der Enkodierung sozialer Hierarchien und der Diskriminierung innerhalb der Arbeiterschaft, indem indirekt eine Metrik der Intelligenz auferlegt wird, wird durch KI weiter fortgeführt. Die Vorurteile aufgrund von Klasse, Gender und race, die durch KI-Systeme bekannterweise verstärkt werden, sollten nicht nur als technische Mängel gesehen werden, sondern als intrinsische diskriminierende Eigenschaften der Automatisierung in einem kapitalistischen Kontext. Der Einfluss einer mit Vorurteilen behafteten KI beschränkt sich nicht auf soziale Unterdrückung: Dies führt auch zu einer impliziten Auferlegung von Arbeits- und Wissenshierarchien, die die Polarisierung von qualifizierten und unqualifizierten Arbeiter:innen auf dem Arbeitsmarkt verstärkt. Der Ersatz traditioneller Berufe durch KI-Systeme sollte gemeinsam mit der Verschiebung und der Vervielfältigung von prekären, unterbezahlten und marginalisierten Tätigkeiten in der gesamten globalen Wirtschaft untersucht werden.[50] So gesehen scheinen KI und Geisterarbeiter:innen zwei Seiten des gleichen Mechanismus von Arbeitsautomatisierung und sozialer Psychometrie zu sein.
Abschließend stelle ich die Arbeitstheorie der Automatisierung nicht nur als analytisches Prinzip vor, mit dem sich der »Master-Algorithmus« der KI-Systeme zerlegen lässt, sondern auch als synthetisches Prinzip: als eine Praxis der sozialen Autonomie für neue Formen der Wissensgewinnung und für eine neue Kultur des Erfindens.
[Abb. 1.1] Darstellung des Feueraltars im Agnicayana-Ritual. Frits Staal, »Griechische
»Die Macht der ›mentalen‹ Werkzeuge wird durchdie Macht unserer ›metallenen‹ Werkzeuge verstärkt.«[51]
»Durch den Gebrauch eines materiellen Werkzeugs kann stets mehr erlernt werden, als das Wissen, das zu seiner Erfindung eingebracht wurde.«[52]
»Regeln waren mechanisch geworden,schon lange bevor Maschinen sie ausführen konnten.«[53]
In einem Schöpfungsmythos der vedischen Religion heißt es, dass die höchste Gottheit Prajapati bei der Erschaffung des Universums in tausend Stücke zerschmettert wird. Nach Vollendung des Schöpfungsaktes findet man den Körper des Schöpfers in seine Einzelteile zerlegt vor, was aufgrund westlicher Narrative von Meisterhaftigkeit und Prinzipien des Nicht-Widersprüchlichen befremdlich wirken mag. Dieser alte Mythos wird noch heutzutage in Indien in dem Ritual Agnicayana nachempfunden, in dem die hinduistischen Gläubigen auf symbolische Weise durch Errichten des Feueraltars Syenaciti (siehe Abb. 1.1) den zerbrochenen Körper des Gottes wieder zusammensetzen. Der Syenaciti-Altar wird gelegt, indem tausend Ziegelsteine von ganz präziser Form und Größe gemäß einem ausgeklügelten geometrischen Plan, der die Umrisse eines Falken bildet, angeordnet werden. Arbeiter legen fünf Schichten von je 200 Ziegelsteinen, während sie die zugehörigen Mantras rezitieren und den schrittweisen Vorgaben Folge leisten. Der Schlüssel zum Ritual ist das Lösen eines Rätsels, das darin besteht, dass jede Schicht den gleichen Bereich abdecken und die gleiche Form ergeben muss, aber in einer anderen Zusammensetzung.[54] Schließlich muss der Falken-Altar nach Osten ausgerichtet sein, in Erwartung des symbolischen Fluges des wieder zusammengesetzten Gottes in Richtung Sonne. Dies ist ein einmaliges Beispiel göttlicher Reinkarnation auf geometrischem Wege.
Agnicayana wird in Anhängen jener Teile der Veda, die sich der Geometrie widmen, den sogenannten Shulba Sutras, akribisch beschrieben. Diese Sutras entstanden etwa im Jahr 800 vor Beginn christlicher Zeitrechnung in Indien, jedoch sind sie selbst bloß die Verschriftlichung von noch sehr viel älteren mündlichen Überlieferungen.[55] Diese besagen, dass die rishi (Lebensgeister) sieben viereckige purusha (kosmische Wesen) erschufen, welche zusammen einen gemeinsamen Körper bildeten, und dass sich aus dieser einfachen Zusammenstellung heraus der komplexe Körper des Prajapati entwickelte.[56] Die Shulba Sutras lehren die Konstruktion weiterer Altäre mit spezifischer geometrischer Form, um sich so den Schutz der Götter zu sichern. Zum Beispiel empfehlen sie, dass »jene, die wünschen, ihre gegenwärtigen und zukünftigen Feinde zu zerstören, einen Feueraltar in Form eines Rhombus errichten sollen«.[57] Neben der religiösen Symbolik war es die eigentliche Funktion des Agnicayana-Rituals und generell der Shulba Sutras, nützliche Techniken für die Gesellschaft jener Zeit unter anderem darüber zu vermitteln, wie man eine Konstruktion plant und wie bestehende Gebäude erweitert werden können, ohne ursprüngliche Proportionen zu verändern.[58] Agnicayana verdeutlicht die ursprüngliche soziale Materialität des mathematischen Wissens, doch auch die Hierarchien der körperlichen und mentalen Arbeit, die typisch sind für ein Kastensystem. Während der Altar errichtet wird, werden die Arbeiter durch die Regeln angeleitet, welche traditionell im Besitz einer spezifischen Gruppe von Meistern sind und auch nur von diesen weitergegeben werden. Neben den geometrischen Übungen vermitteln Rituale wie das Agnicayana eine Art prozessuales Wissen, das nicht nur abstrakt ist, sondern auf einer ununterbrochenen »mechanischen« Übung, die wiederum auf die Rolle der Religion als Motivation für Genauigkeit und zugleich auf die Rolle religiöser Übung als Weg der Disziplinierung von Arbeit verweist.[59]
Agnicayana ist ein einzigartiges Artefakt in der Geschichte menschlicher Zivilisation: Es ist das älteste dokumentierte Ritual der Menschheit, das noch heute praktiziert wird – auch wenn es aufgrund seiner Komplexität nur einige Male in einem Jahrhundert durchgeführt wird.[60] Über diesen Zeitraum hinweg hat es hochentwickelte Paradigmen des Wissens übermittelt und bewahrt und dank seines kombinatorischen Mechanismus kann es als uranfängliches Beispiel algorithmischer Kultur definiert werden. Doch wie kommt man dazu, ein so altes Ritual wie das Agnicayana, als algorithmisch zu interpretieren? Eine der gängigsten Definitionen von Algorithmen in den Computerwissenschaften lautet folgendermaßen: eine endliche Prozedur schrittweiser Anweisungen, um aus einem Input einen Output zu erzeugen, unabhängig von den Daten, und dabei den größten Nutzen aus den vorhandenen Ressourcen ziehen.[61] Die rekursiven Mantras, durch welche die Arbeiter bei der Konstruktion der Anlage des Feueraltars angeleitet werden, ähneln tatsächlich den Regeln eines Computerprogramms: Losgelöst vom Kontext, leitet der Agnicayana-Algorithmus die exakte Verteilung der Ziegelsteine an, was jedes Mal die Konstruktion des Syenaciti zur Folge hat. Historiker:innen haben festgestellt, dass indische Mathematik schon seit dem Altertum vorwiegend algorithmisch war, was bedeutet, dass die Lösung eines Problems eher durch eine schrittweise Prozedur aufgestellt wurde und weniger über eine logische Beweisführung.[62]
In ähnlicher Weise hat der italienische Mathematiker Paolo Zellini die Position vertreten, wonach das Agnicayana-Ritual eine weitaus höhere Technik belegt, als bloße Unterwerfung unter strenge Regeln, nämlich die heuristische Technik der inkrementellen Annäherung. Man weiß, dass die vedische Mathematik vor anderen Zivilisationen unendlich große und unendlich kleine Zahlen kannte: In alten Sutras multiplizierte man bereits die positionellen Ziffern des hinduistischen Systems zu großen Werten, um die riesigen Dimensionen des Universums darzustellen (eine spekulative Übung, die zum Beispiel mit den additiven Systemen der sumerischen, griechischen und römischen Ziffern nicht durchführbar wäre). In der vedischen Mathematik kamen auch irrationale Zahlen vor, wie die Quadratwurzel, die in vielen Fällen (wie √2) nur durch Annäherung berechnet werden kann. Die Mantras der Shulba Sutras vertonen die ältesten (und pedantischsten) Erläuterungen der berechnenden Prozeduren (wie das sogenannte babylonische Wurzelziehen), um sich den Ergebnissen von Quadratwurzeln anzunähern. Annäherungsverfahren mögen mühsam, schwach und ungenau erscheinen im Vergleich mit der Genauigkeit unserer mathematischen Funktionen und geometrischen Theoreme, aber ihre Rolle innerhalb der Geschichte der Mathematik und Technologie ist bedeutender, als allgemeinhin angenommen. In seiner Historie zu den Techniken inkrementellen Wachstums (wozu die altertümlichen Methoden des Gnomon (Schattenzeiger) und weitere zählen) behauptet Zellini, dass die alten hinduistischen Techniken der inkrementellen Annäherung äquivalent sind zu den modernen Algorithmen der Infinitesimalrechnung von Leibniz und Newton, und sogar zu den Techniken der Fehlerbehebung, die im Zentrum künstlicher neuronaler Netzwerke und maschinellen Lernens zu finden sind und das gegenwärtige Paradigma der KI ausmachen (siehe Kapitel Neun).[63]
Es mag einigen wie eine Art Fehleinschätzung vorkommen, alte Kulturen durch das Paradigma der neuesten Technologien aus Silicon Valley zu lesen oder die mathematischen Komponenten religiöser Rituale in Zeiten erstarkenden Nationalismus zu erforschen. Doch zu behaupten, dass abstrakte Techniken des Wissens und künstliche Metasprachen einzig Teil des modernen industriellen Westens wären, ist nicht nur historisch falsch, sondern auch ein Akt des impliziten epistemischen Kolonialismus gegenüber den Kulturen anderer Orte und anderer Zeiten.[64] Wir verdanken es den Beiträgen der Ethnomathematik, der dekolonialen Forschung sowie der Wissenschafts- und Technologiegeschichte, dass alternative Formen der Berechnung nun anerkannt und untersucht werden, abseits der Hegemonie des globalen Nordens und seiner Herrschaft des Wissensextraktivismus. Aufgrund ihrer Rolle in der Computerprogrammierung werden Algorithmen oft als die Anwendung von einem komplexen Regelwerk im Abstrakten wahrgenommen; doch ich möchte dem widersprechen und sage, dass Algorithmen, selbst die komplexen der KI und des maschinellen Lernens, ihren Ursprung in sozialen und materiellen Aktivitäten haben. Algorithmisches Denken und algorithmische Praktiken, grob zu verstehen als das regelbasierte Lösen von Problemen, waren schon immer Bestandteil aller Kulturen und aller Zivilisationen.
Entlang dieser Untersuchungsstränge skizziert dieses Kapitel eine einstweilige Geschichte der Algorithmen und wirft einen Blick auf folgende Punkte (1) soziale Algorithmen, das heißt, Prozeduren, die in Ritualen und Praktiken verkörpert waren und oftmals mündlich weitergegeben und nicht in eine symbolische Sprache formalisiert wurden; (2) formale Algorithmen, nämlich mathematische Prozeduren, die bei Kalkulationen und bei administrativen Abläufen behilflich sein sollten, in Europa beispielsweise seit dem Mittelalter zu finden sind und davor bereits in Indien genutzt wurden; und (3) automatisierte Algorithmen, womit die Implementierung formaler Algorithmen in Maschinen und elektronischen Computern seit Beginn des Industriezeitalters im Westen gemeint ist.
Die Idee, nach den »Algorithmen vor den Computern« zu suchen, kam wenig überraschend zuerst aus dem Bereich der Computerwissenschaften. In den späten 1960er Jahren verfasste der US-amerikanische Mathematiker Donald Knuth das einflussreiche Werk Die Kunst der Computerprogrammierung und lieferte durch Essays wie Ancient Babylonian Algorithms wichtige Beiträge, um in die Anfangszeit der mathematischen Techniken vorzudringen. In jenen Jahren hatte Knuth es sich zur Aufgabe gemacht, das Feld der Computerwissenschaften zu systematisieren und zu einer respektablen akademischen Disziplin aufsteigen zu lassen. Der Beleg von altertümlichen Algorithmen wurde angeführt, um zu betonen, dass Computerwissenschaften sich nicht um obskure elektronische Apparate drehen, sondern Teil einer langen Tradition kultureller Techniken von symbolischer Manipulation sind. In diesem Fall wurde eine Archäologie des Algorithmus nicht betrieben, um die universalistischen Prinzipien des Denkens oder das emanzipatorische Potenzial des Lernens in der gesamten Zivilisationsgeschichte zu demonstrieren; hier ging es lediglich um die spezifischen Interessen der neuen Klassen von Computerprogrammierer:innen und -hersteller:innen:
»Eine Methode, um den Computerwissenschaften mehr Ansehen zu verschaffen, besteht darin, ihre tiefe Verwurzelung in der Historie zu belegen und zu zeigen, dass es sich nicht um ein kurzzeitiges Phänomen handelt. Da liegt es nahe, sich den ältesten existierenden Dokumenten, die sich mit Berechnung befassen, zuzuwenden und zu erforschen, wie Menschen sich dem Thema vor fast 4000 Jahren angenähert haben. Archäologische Expeditionen im Mittleren Osten haben eine große Anzahl an Tontafeln ans Licht gebracht, die mathematische Kalkulationen enthalten, und wir werden feststellen, dass diese Tafeln viele interessante Hinweise zu Leben dieser frühen ›Computerwissenschaftler‹ bereithalten.«[65]
Knuth stellte fest, dass mathematische Formeln, die man heute als algebraisch oder analytisch definieren würde, bereits von den Babyloniern mittels schrittweiser Prozeduren beschrieben wurden, nämlich Algorithmen. Diese Prozeduren waren natürlich in den Worten der gebräuchlichen Sprache und noch nicht in der symbolischen Metasprache der Mathematik formuliert. Knuths Forschungen bestätigen die Hypothese, dass verfahrensbasierte Methoden (was er »Maschinensprache« nannte) der Konsolidierung der Mathematik als einer Metasprache der symbolischen Repräsentation weit vorausgingen:
»Die babylonischen Mathematiker waren nicht beschränkt auf die bloßen Prozesse der Addition, Subtraktion, Multiplikation und Division; sie waren in der Lage, eine Vielzahl algebraischer Gleichungen zu lösen. Doch sie hatten keine algebraische Notation, die so transparent wie unsere ist; sie stellten jede Formel durch eine schrittweise Liste an Regeln für ihre Berechnung auf; z.B. durch einen Algorithmus zur Berechnung dieser Formel. Die Folge war, dass sie mit einer ›Maschinensprache‹ bei der Repräsentation von Formeln arbeiteten, statt mit einer Symbolsprache.«[66]