Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Was genau ist ›künstliche Intelligenz‹ – ein technisches Werkzeug, ein kultureller Irrtum oder der Beginn eines neuen Denkens? Dieses Buch rekonstruiert die Entstehung und Entwicklung eines Begriffs, der seit Jahrzehnten im Umlauf ist und doch erst in jüngster Zeit zu wirken beginnt. Es beschreibt, wie aus den frühen Rechenmaschinen des 20. Jahrhunderts lernfähige Systeme wurden, warum einfache Modelle komplexe Ergebnisse erzeugen können und weshalb der Begriff ›Intelligenz‹ in diesem Zusammenhang ebenso irreführend wie unverzichtbar erscheint. Dabei wird nicht nur das Technische erklärt – von symbolischen Ansätzen bis zu generativen Netzen – sondern auch das Missverhältnis zwischen Nutzung und Verständnis thematisiert. Denn kaum ein technologisches Feld ist derart mit Projektionen, Ängsten und Fehlannahmen aufgeladen wie die künstliche Intelligenz. Wer spricht hier eigentlich mit wem, wenn ein Chatbot antwortet? Was bedeutet es, wenn neuronale Netze nicht mehr erklären können, wie sie zu ihren Ergebnissen gelangen? Und wie lässt sich ein Phänomen einordnen, das sich gleichzeitig als Werkzeug, Spiegel und Herausforderung darstellt? Dieses Buch verzichtet auf Anwendungstipps – und fragt stattdessen nach dem Prinzip. Es versteht künstliche Intelligenz nicht als Bedrohung, sondern als Folge menschlicher Strukturen. Und vielleicht auch als deren Kommentar.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 267
Veröffentlichungsjahr: 2025
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Die Erfindung der
künstlichen Intelligenz
•
rechnergestützt, lernbereit
und fehlverstanden
Eine Betrachtung
von
Lutz Spilker
DIE ERFINDUNG DER KÜNSTLICHEN INTELLIGENZ
RECHNERGESTÜTZT, LERNBEREIT UND FEHLVERSTANDEN
Bibliografische Information der Deutschen Nationalbibliothek:
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen
Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über
http://dnb.dnb.de abrufbar.
Texte: © Copyright by Lutz Spilker
Umschlaggestaltung: © Copyright by Lutz Spilker
Verlag:
Lutz Spilker
Römerstraße 54
56130 Bad Ems
Herstellung: epubli - ein Service der neopubli GmbH, Köpenicker Straße 154a, 10997 Berlin
Kontaktadresse nach EU-Produktsicherheitsverordnung: [email protected]
Die im Buch verwendeten Grafiken entsprechen den
Nutzungsbestimmungen der Creative-Commons-Lizenzen (CC).
Das auf dem Frontcover und im Buch verwendete Zeichen ist ein abstrahiertes neuronales Netzwerk – ein visuelles Echo der strukturellen Grundlage moderner KI-Systeme. Es mag in Zukunft als allgemeines Symbol für KI dienen. Seine Verwendung hier folgt dieser Idee.
Symbol: https://creativemarket.com/Becris
Das Werk, einschließlich seiner Teile, ist urheberrechtlich geschützt. Für die Inhalte ist der
Autor verantwortlich. Jede Verwertung ist ohne seine Zustimmung unzulässig.
Kontaktadresse nach EU-Produktsicherheitsverordnung: [email protected]
Inhalt
Inhalt
Das Prinzip der Erfindung
Vorwort
Die große Simulationsfrage
Von der Rechenmaschine zum Weltmodell
T E I L I
Begriff, Idee, Ursprung
Der Ursprung des Begriffs ›Intelligenz‹
Denken als Maschine
Leibniz, Logik und die Rechenkunst
Von Automaten zu Automatenmenschen
Alan Turing und die Idee des universellen Rechners
Der Turing-Test
John McCarthy und die Geburtsstunde der ›Artificial Intelligence‹
Der symbolische Zugriff
T E I L II
Frühzeit, Euphorie, Ernüchterung
Der Sommer der Hoffnung
Der erste KI-Winter
Perzeptronen und lineare Grenzen
Neuronale Netze und das Wiederaufleben des Lernens
Der zweite Aufbruch
Die Wiederentdeckung der Muster
Der zweite KI-Winter
T E I L III
Maschinenlernen und Datenlogik
Die Wiederentdeckung der Neuronalen Netze
Backpropagation
Statistik statt Verstand
Big Data
Daten als Machtressource
Verzerrte Welt
Transparenz und Verantwortung
Kontextverlust
Supervised, Unsupervised, Reinforcement
Transferlernen
T E I L IV
Generative Systeme und Sprache
Der Aufstieg der Transformer-Architektur
Sprachmodelle und Bedeutung – das Problem der Semantik
Textproduktion ohne Weltverständnis – ein neues Autorenmodell?
Die Rolle der Trainingsdaten – wer spricht hier eigentlich?
Autorschaft und Verantwortung in der KI
T E I L V
Wahrnehmung, Projektion, Missverständnis
Das Black-Box-Phänomen – wenn Systeme ihre Regeln verschweigen
Anthropomorphismus – wenn Maschinen vermenschlicht werden
Intelligenz oder Verhalten?
Warum KI kein Bewusstsein braucht – und doch so wirkt
Der blinde Fleck im Spiegel – was wir in der KI übersehen
Künstliche Intelligenz in der Popkultur – Spiegel oder Verzerrung?
T E I L VI
Gesellschaftliche Reibungspunkte
Automatisierung und der Mythos vom Jobverlust
Regulierung und Verantwortung – ein technologisches Niemandsland
Künstliche Intelligenz in Recht, Medizin, Bildung
Wenn Algorithmen zu urteilen beginnen
Zwischen Entlastung und Entfremdung
Lernen im Schatten des Algorithmus
Ein Zwischenfazit
Zwischen Nutzung und Verständnis – die 5-%-Grenze
Der mediale Diskurs – zwischen Euphorie und Alarmismus
T E I L VII
Theoretische Tiefenschärfe
Emergenz und Unvorhersagbarkeit
Vom Wesen der Energie
Zwischen Spiegelbild und Wirklichkeit
KI als Mittel zum Zweck
Braucht Intelligenz ein Ziel?
Der Zielbegriff: ein menschliches Maß?
Maschinen, die rechnen – und Maschinen, die wollen?
Zielgerichtetheit als Illusion?
Gibt es Intelligenz ohne Zweck?
Die neue Frage: Wozu überhaupt Ziele?
Der Mensch als Maßstab – und sein Versagen
Das Ziel als Projektionsfläche
Das Problem der Erklärung – wenn selbst Entwickler nicht mehr folgen
KI als Erweiterung – nicht des Körpers, sondern des Denkens
Der unsichtbare Werkzeugkasten
Die Auslagerung des Unbequemen
Gedankenräume ohne Wände
Kein Werkzeug, sondern ein Ko-Denker
Die leise Verschiebung
Das Denken denkt sich weiter
T E I L VIII
Ausblick, Einordnung, Fragezeichen
Was bleibt, wenn alles funktioniert?
Aber was bleibt?
Die Entwertung des Unperfekten
Die Erosion des Zwecks
Die Banalisierung der Erkenntnis
Das Verschwinden der Neugier
Die neue Einsamkeit
Ein letzter Gedanke
Nachwort
• Ohne das Netz – Intelligenz ohne Verbreitung
• Denken ohne Daten – Maschinen ohne Gedächtnis
• Die Maschine als Spezialist – kein System, kein Zugang
• Vom Geist zum Algorithmus – ein Rückfall in die Theorie
• Die Geschichte, die nicht stattfand
Nach mir die Intelligenz
Über den Autor
In dieser Reihe sind bisher erschienen
»Ich bin zwar synthetisch aber nicht blöde.«
L. Bishop
(Android)
Aliens – Die Rückkehr (Alternativtitel Alien II, Originaltitel Aliens) ist ein
US-amerikanischer Science-Fiction-Actionfilm aus dem Jahr 1986, die Fortsetzung von Alien – Das unheimliche Wesen aus einer fremden Welt aus dem Jahr 1979 und damit der zweite Teil der Alien-Filmreihe.
Der Film wurde mit Sigourney Weaver als Hauptdarstellerin
unter der Regie von James Cameron gedreht.
Das Prinzip der Erfindung
Vor etwa 20.000 Jahren begann der Mensch, sesshaft zu werden. Mit diesem tiefgreifenden Wandel veränderte sich nicht nur seine Lebensweise – es veränderte sich auch seine Zeit. Was zuvor durch Jagd, Sammeln und ständiges Umherziehen bestimmt war, wich nun einer Alltagsstruktur, die mehr Raum ließ: Raum für Muße, für Wiederholung, für Überschuss.
Die Versorgung durch Ackerbau und Viehzucht minderte das Risiko, sich zur Nahrungsbeschaffung in Gefahr begeben zu müssen. Der Mensch musste sich nicht länger täglich beweisen – er konnte verweilen. Doch genau in diesem neuen Verweilen keimte etwas heran, das bis dahin kaum bekannt war: die Langeweile. Und mit ihr entstand der Drang, sie zu vertreiben – mit Ideen, mit Tätigkeiten, mit neuen Formen des Denkens und Tuns.
Was folgte, war eine unablässige Kette von Erfindungen. Nicht alle dienten dem Überleben. Viele jedoch dienten dem Zeitvertreib, der Ordnung, der Deutung oder dem Trost. So schuf der Mensch nach und nach eine Welt, die in ihrer Gesamtheit weit über das Notwendige hinauswuchs.
Diese Sachbuchreihe mit dem Titelzusatz ›Die Erfindung ...‹ widmet sich jenen kulturellen, sozialen und psychologischen Konstrukten, die aus genau diesem Spannungsverhältnis entstanden sind – zwischen Notwendigkeit und Möglichkeit, zwischen Dasein und Deutung, zwischen Langeweile und Sinn.
Eine Erfindung ist etwas Erdachtes.
Eine Erfindung ist keine Entdeckung.
Jemand denkt sich etwas aus und stellt es zunächst erzählend vor. Das Erfundene lässt sich nicht anfassen, es existiert also nicht real – es ist ein Hirngespinst. Man kann es aufschreiben, wodurch es jedoch nicht real wird, sondern lediglich den Anschein von Realität erweckt.
Der Homo sapiens überlebte seine eigene Evolution allein durch zwei grundlegende Bedürfnisse: Nahrung und Paarung. Alle anderen, mittlerweile existierenden Bedürfnisse, Umstände und Institutionen sind Erfindungen – also etwas Erdachtes.
Auf dieser Prämisse basiert die Lesereihe ›Die Erfindung …‹ und sollte in diesem Sinne verstanden werden.
Vorwort
Es gibt Begriffe, die schneller zirkulieren, als sie verstanden werden. ›Künstliche Intelligenz‹ ist einer von ihnen. Das Wort ist gegenwärtig, präsent auf Konferenzen, in Reden, Gesetzestexten, Schlagzeilen. Es suggeriert Modernität und Aufbruch, gelegentlich auch Bedrohung oder Heilsversprechen. Doch was genau ist damit gemeint? Und vielleicht noch drängender: Was spricht eigentlich mit, wenn wir von ›Intelligenz‹ sprechen – künstlich oder nicht?
Dieses Buch widmet sich der künstlichen Intelligenz nicht als Produkt oder Anwendung, sondern als kulturellem Phänomen. Es geht nicht um einzelne Programme oder technologische Detailfragen, sondern um die Entstehung eines Denkens, das Maschinen mehr zutraut, als bloße Rechenleistung. Denn lange bevor erste Prototypen lernfähiger Systeme entwickelt wurden, war die Idee bereits formuliert – als Gedankenspiel, als Utopie, als Spiegel menschlicher Ambitionen.
Was anfangs als Versuch begann, menschliches Denken in logische Strukturen zu überführen, entwickelte sich über Jahrzehnte zu einem Feld mit eigenen Sprachen, Schulen, Methoden. Die Fortschritte waren selten linear, oft missverstanden und nicht selten überschätzt. Zwischen der Ankündigung künstlicher Intelligenz in den 1950er-Jahren und der heutigen Allgegenwart algorithmischer Systeme liegt ein Weg, der weniger technischer als begrifflicher Natur ist.
Doch was bedeutet es, wenn Maschinen ›lernen‹? Was unterscheidet regelbasiertes Verhalten von Intelligenz – und ist diese Unterscheidung überhaupt noch haltbar? Wann wird das, was nach mathematischer Präzision aussieht, zu einem Gegenüber? Und welche symbolischen Bedürfnisse verbergen sich hinter der Vorstellung, dass Technik uns verstehen soll?
Dieses Buch geht solchen Fragen nach, ohne sie abschließend zu beantworten. Es zeichnet Entwicklungslinien nach, benennt Missverständnisse und versucht, ein komplexes Feld zugänglich zu machen – nicht durch Vereinfachung, sondern durch Einordnung.
Denn künstliche Intelligenz ist nicht einfach nur eine Technologie unter vielen. Sie ist ein Denkmodell – und zugleich ein kultureller Prüfstein. Wer sie verstehen will, muss sich nicht nur mit Maschinen beschäftigen. Sondern vor allem mit sich selbst.
Die große Simulationsfrage
Ein gedanklicher Auftakt
In einer zunehmend digitalisierten Welt, in der Rechenleistung nicht nur Arbeitsprozesse beschleunigt, sondern Denkakte zu simulieren scheint, stellt sich eine Frage mit wachsender Dringlichkeit: Ist künstliche Intelligenz eine neue Form von Intelligenz – oder lediglich eine raffinierte Rechenillusion, gespeist aus menschlicher Erwartung?
Längst arbeiten Maschinen mit Datenmengen, die kein menschliches Bewusstsein mehr überblicken könnte. Sie übersetzen Sprachen, erkennen Bilder, antworten auf Fragen, prognostizieren Wahrscheinlichkeiten, komponieren Musik und führen Debatten. Was dabei entsteht, wirkt bisweilen erstaunlich – ja, fast beunruhigend überzeugend. Doch je größer die Leistung, desto schwerer fällt die Unterscheidung: Was ist verstanden, was nur gelernt? Was ist Kompetenz, was bloß Korrelationsverarbeitung?
Die Geschichte der künstlichen Intelligenz ist keine geradlinige Erfolgsbiografie, sondern ein Auf und Ab zwischen Euphorie und Ernüchterung. Visionäre Konzepte wechselten sich ab mit algorithmischen Sackgassen. Immer wieder glaubte man, den ›Durchbruch‹ zu erleben – und immer wieder zeigte sich, dass Maschinen nicht denken, sondern rechnen. Und doch lässt sich nicht bestreiten: Etwas ist im Gange. Etwas, das sich nur schwer benennen, geschweige denn abschließend beurteilen lässt.
Vielleicht liegt genau darin die Faszination: Künstliche Intelligenz konfrontiert den Menschen nicht nur mit neuen Werkzeugen, sondern mit einer alten Frage – der Frage nach sich selbst. Was macht Intelligenz aus? Was ist Bewusstsein, Kreativität, Verstehen? Und wie viel davon ist technisch reproduzierbar, ohne dass es sich seiner selbst bewusst wird?
Dieses Buch unternimmt den Versuch, eine ebenso komplexe wie umstrittene Entwicklung zu skizzieren – die Erfindung künstlicher Intelligenz. Gemeint ist dabei nicht bloß ihre technische Entstehung, sondern ihre ideengeschichtliche Konstruktion: Als Konzept, als Hoffnung, als Irrtum. Als ein Phänomen, das ebenso sehr aus Maschinen besteht wie aus Projektionen.
Denn wo immer Maschinen lernen, verstehen oder denken, geschieht dies auf einer Bühne, die der Mensch selbst entworfen hat – mit Regeln, Erwartungen und Begriffen, die mehr über ihre Urheber verraten als über die Systeme selbst.
In diesem Sinne beginnt die Erfindung der künstlichen Intelligenz nicht erst mit Transistoren, Turing-Maschinen oder neuronalen Netzen. Sie beginnt mit einer Vorstellung.
Und sie endet – vorerst – mit einer großen Verwechslung.
Von der Rechenmaschine zum Weltmodell
Ein Gedankengang zur Entgrenzung künstlicher Intelligenz
Was einst als Rechenmaschine begann – mechanisch, formelgebunden, in seinem Zweck eng umrissen – hat sich in bemerkenswerter Geschwindigkeit zu einem Gegenstand kultureller Spekulation und philosophischer Deutung entwickelt. Noch zur Mitte des 20. Jahrhunderts verstand man unter ›künstlicher Intelligenz‹ in erster Linie einen technischen Versuch, bestimmte Aspekte menschlicher Problemlösefähigkeit zu simulieren. Es ging um Schachzüge, mathematische Optimierung oder das Erkennen einfacher Muster. Die Maschine war ein Werkzeug, ein Exekutor von Berechnungen – nicht mehr, aber auch nicht weniger.
Doch die heutigen Systeme, vor allem jene der sogenannten generativen KI, überschreiten diese funktionale Enge. Nicht, weil sie per se intelligenter wären, sondern weil sie zunehmend als Spiegel menschlicher Wirklichkeitskonstruktion verstanden werden. Sie erzeugen Text, Bild, Klang – und damit Interpretation. Mehr noch: Sie treten in einen interaktiven Dialog mit dem Menschen, sie imitieren Argumente, Emotionen, sogar Empathie. In diesem Dialog beginnen sie – zumindest in der Wahrnehmung vieler – nicht mehr bloß zu rechnen, sondern scheinbar zu denken.
Hier vollzieht sich eine schleichende Verschiebung: von der Maschine als Werkzeug hin zur Maschine als Modell. Was früher durch Zahlenfolgen oder Schaltungen beschrieben wurde, erhält nun narrative Kraft. KI-Systeme erscheinen nicht nur als nützliche Instanzen, sondern zunehmend als kognitive Partner – als Entwürfe einer anderen Intelligenz. Und mit dieser Zuschreibung rückt die KI in das Zentrum einer alten menschlichen Sehnsucht: dem Wunsch, ein Weltmodell zu besitzen, das erklärt, ordnet und antwortet.
Die Rechenmaschine wird damit zur Projektionsfläche. Sie wird mit Sinn überladen, mit Erwartungen aufgeladen, mit Deutungsrahmen umgeben. Ihr Output gilt nicht länger bloß als Ergebnis, sondern als möglicher Ausdruck einer alternativen Sichtweise – eines künstlichen Blicks auf die Welt. Obgleich sie keine Subjektivität besitzt, keine Herkunft, kein Gedächtnis im menschlichen Sinne, wird ihr dennoch eine Form von Perspektive zugeschrieben. Und damit – unausgesprochen – auch eine mögliche Teilhabe an dem, was man früher das Geistige nannte.
So kommt es, dass die KI nicht mehr allein als technische Entität betrachtet wird, sondern als Trägerin einer neuen erkenntnistheoretischen Kategorie. Sie scheint nicht nur zu simulieren, sondern zu repräsentieren – und genau hierin liegt die eigentliche Umwälzung. Aus der Rechenmaschine wird ein Weltmodell. Nicht im Sinne einer bewussten Instanz, sondern als funktionale Approximation menschlicher Erkenntnis. Und je mehr Menschen sich auf dieses Modell einlassen, desto realer erscheint es – nicht, weil es wahrer wäre, sondern weil es wirkmächtig ist.
Was bedeutet das?
Es bedeutet, dass wir nicht mehr nur Maschinen bauen, sondern Deutungsräume. Dass wir uns in den Antworten, die wir erhalten, selbst begegnen – gefiltert durch Logik, trainiert durch Sprache, entworfen aus Daten. Die KI ist kein denkendes Wesen. Aber sie zwingt uns, über das Denken neu nachzudenken.
Und vielleicht liegt darin ihre größte Leistung:
Nicht, dass sie denkt, sondern dass sie uns denken lässt.
T E I L I
Begriff, Idee, Ursprung
Der Ursprung des Begriffs ›Intelligenz‹
Das Wort Intelligenz hat eine Geschichte, die weiter zurückreicht, als es auf den ersten Blick erscheinen mag. Es begegnet uns heute in vielen Zusammenhängen: in Schulzeugnissen, psychologischen Gutachten, philosophischen Debatten, Managementseminaren oder technischen Entwicklungen. Kaum ein Begriff wird so häufig verwendet und gleichzeitig so unterschiedlich verstanden. Um aber zu ermessen, was mit künstlicher Intelligenz gemeint sein könnte, lohnt ein genauer Blick auf die Herkunft und die Wandlung des Begriffs selbst. Denn dieser Begriff ist kein neutrales Etikett, sondern ein sprachlicher Spiegel gesellschaftlicher Vorstellungen vom Denken.
Schon der lateinische Ursprung verweist auf eine bemerkenswerte Ambivalenz. Das Verb ›intellegere‹ bedeutet wörtlich: etwas erkennen, einsehen, erfassen. Es setzt sich zusammen aus ›inter‹ (›zwischen‹) und ›legere‹ (›lesen‹, im Sinne von auswählen oder sammeln). In diesem Wortsinn ist Intelligenz also zunächst die Fähigkeit, zwischen den Dingen zu lesen – also Verbindungen, Unterschiede oder Muster zu erkennen, wo andere nur Einzelheiten wahrnehmen. Der Begriff verweist damit auf eine Form geistiger Beweglichkeit, auf die Kunst, das Unzusammenhängende zusammenzudenken. Eine Fähigkeit, die sich nicht in Faktenwissen erschöpft, sondern auf den Prozess des Verstehens zielt.
Auffällig ist, dass in der Antike selbst das Wort ›Intelligenz‹ in diesem Sinne kaum verwendet wurde. Wichtiger waren Begriffe wie ›nous‹ (Verstand), ›logos‹ (Vernunft) oder ›sophia‹ (Weisheit). In der Philosophie Platons und Aristoteles' war es weniger das schnelle Kombinieren von Informationen, das als geistige Tugend galt, sondern die Einsicht in das Allgemeine, die Orientierung am Guten, Wahre und Schöne. Wissen war nicht quantifizierbar, sondern gebunden an die Idee eines guten Lebens. Intelligenz – im modernen Sinne als messbare kognitive Leistung – war diesen Denkern fremd.
Erst mit dem Aufkommen der Scholastik im Mittelalter, in der lateinisch geprägten Denk- und Lehrsprache, wurde der Begriff ›intelligentia‹ als Terminus technicus für bestimmte Formen der Erkenntnis gebräuchlich. Thomas von Aquin unterschied zwischen verschiedenen Stufen des Erkennens: vom sinnlichen Eindruck über das begriffliche Verstehen bis hin zur unmittelbaren Einsicht. Intelligenz bezeichnete dabei jene Fähigkeit des menschlichen Geistes, das Allgemeine im Besonderen zu erfassen. Noch immer war damit kein isoliertes Leistungsmerkmal gemeint, sondern ein Aspekt der geistigen Entfaltung, die in ein Weltbild eingebettet war.
Der Bedeutungswandel setzt spätestens in der Aufklärung ein. Mit dem Fortschreiten der Naturwissenschaften wird Denken zunehmend als ein Vorgang begriffen, der sich analysieren, messen und reproduzieren lässt. Rationalität wird zum Ideal, Verstand zur Methode. Intelligenz verliert ihre metaphysische Umrahmung und wird zu einer Eigenschaft, die dem Individuum zugeschrieben werden kann. Damit beginnt die Entwicklung hin zu einem psychometrischen Verständnis: Intelligenz als etwas, das sich testen, vergleichen, bewerten lässt.
Im 19. Jahrhundert wird diese Entwicklung konkret. Francis Galton, ein Vetter Darwins, gehört zu den ersten, die versuchen, Intelligenz als erbliche Größe zu fassen. Seine Schriften bilden die Grundlage für eine Intelligenzforschung, die eng mit der Vorstellung von Begabung, Selektion und Leistungsunterschieden verknüpft ist. Später entwickeln Alfred Binet und Theodore Simon den ersten brauchbaren Intelligenztest, um Schüler mit besonderem Förderbedarf zu identifizieren – nicht mit diskriminierender Absicht, sondern mit pragmatischer Zielsetzung. Doch die Idee, Intelligenz ließe sich in Zahlen abbilden, war geboren.
Im Laufe des 20. Jahrhunderts verfestigt sich dieses Bild. Intelligenz wird operationalisiert, skaliert, normiert. Der Intelligenzquotient (IQ) wird zur vermeintlich objektiven Größe, mit der man Menschen einordnen, vergleichen, sogar vorhersagen kann. Das Konzept ist nicht frei von Kritik, doch es bleibt wirkmächtig. In Bildungssystemen, bei Auswahlverfahren, in politischen Debatten – der IQ ist ein Symbol für Leistung, Potenzial, vielleicht sogar für ›Wert‹. Dass damit eine einseitige Vorstellung von Intelligenz transportiert wird, bleibt oft unbemerkt.
Gegen Ende des 20. Jahrhunderts regt sich Widerstand. Intelligenz sei kein monolithischer Block, so argumentieren Psychologen wie Howard Gardner oder Robert Sternberg. Vielmehr gebe es multiple Intelligenzen: sprachliche, logische, emotionale, musikalische, soziale – keine davon allein sei ausschlaggebend, aber im Zusammenspiel ergäben sie das Bild eines denkenden, lernenden, handelnden Menschen. Damit beginnt eine Phase der Differenzierung, die das Intelligenzverständnis von seiner zahlenbasierten Engführung befreit.
Heute begegnet uns der Begriff in einer neuen Konstellation. Wenn von künstlicher Intelligenz die Rede ist, klingt darin all das mit, was der Begriff im Lauf der Jahrhunderte aufgesogen hat: das Wissen-Wollen, das Erfassen-Können, das Vergleichen, das Messen. Doch was bedeutet es, wenn diese Zuschreibungen auf Maschinen angewandt werden? Ist das, was Maschinen heute leisten, wirklich Intelligenz – oder lediglich eine hochkomplexe Form des Abarbeitens? Und sind es nicht gerade unsere eigenen Vorstellungen von Intelligenz, die wir diesen Systemen übertragen – bewusst oder unbewusst?
Wer über künstliche Intelligenz spricht, spricht auch über Menschen. Und darüber, was sie unter Verstand, Erkenntnis und Einsicht verstehen. Der Begriff ›Intelligenz‹ bleibt dabei ein schillerndes Gefüge. Er ist nie neutral, nie eindeutig, nie abgeschlossen. Seine Geschichte erzählt mehr über uns als über Technik. Und genau deshalb muss man ihn verstehen, bevor man ihn überträgt.
Denken als Maschine
Frühe mechanische Modelle des Geistes
Der Gedanke, dass sich Denken modellieren lässt – nicht bloß metaphorisch, sondern ganz konkret in Form mechanischer Vorrichtungen –, ist älter als das Wort ›Computer‹. Er reicht weit zurück in eine Zeit, in der Zahnräder als Weltformel galten, Maschinen als Abbilder kosmischer Ordnung und das menschliche Bewusstsein als etwas galt, das man vielleicht nicht erklären, wohl aber darstellen konnte. Wer das Verhältnis zwischen Geist und Technik verstehen möchte, wird auf diese frühen Modelle stoßen – oft unbeholfen, manchmal genial, stets aber Ausdruck eines unbändigen Versuchs, das eigene Denken durch äußere Mittel fassbar zu machen.
Bereits in der Antike tauchen Automaten auf, die weniger dem technischen Fortschritt dienten als einer symbolischen Faszination: Sie sollten die Grenze zwischen Lebendigem und Mechanischem ausloten. Heron von Alexandria entwarf Theaterautomaten, Tempeltüren, die sich selbsttätig öffneten, und primitive Roboter, die sich mit Wasserkraft bewegten. Solche Apparaturen waren keine Denkmaschinen im heutigen Sinn, doch sie deuteten an, dass komplexe Abläufe, die zuvor dem Lebendigen vorbehalten waren, mit mechanischen Mitteln nachvollzogen werden konnten. Die Frage, ob man auch das Denken selbst mechanisieren könne, blieb im Hintergrund – aber sie war gestellt.
Mit dem Übergang vom Mittelalter in die frühe Neuzeit trat an die Stelle metaphysischer Deutungen ein anderes Weltbild. Maschinen gewannen an Erklärungskraft. Die Welt selbst wurde zum Uhrwerk erklärt, der Mensch zur fein abgestimmten Konstruktion. Dieser Wandel – mehr als nur eine Mode metaphysischer Physik – leitete eine neue Sichtweise auf das Verhältnis von Körper, Geist und Technik ein. Die menschliche Seele, die zuvor als unantastbare Substanz galt, wurde in dieser Perspektive funktionalisiert: nicht mehr heilig, sondern erklärbar – vielleicht sogar nachbaubar.
René Descartes ist in diesem Zusammenhang eine Schlüsselgestalt. Nicht, weil er die Idee des Denkens als Maschine erfunden hätte, sondern weil er ihr einen philosophischen Rahmen gab. Für Descartes war der Körper eine Art mechanisches Gebilde, das nach physikalischen Gesetzen funktioniert. Tiere galten ihm als Automaten – komplexe, aber letztlich geistlose Systeme. Der Mensch unterschied sich nur dadurch, dass er über eine denkende Substanz verfüge, über den Geist, die res cogitans. Das Körperliche, die res extensa, war für ihn hingegen durchaus maschinenhaft – und zwar im wörtlichen Sinn. Die Bewegung der Glieder, die Reflexe, ja selbst Empfindungen ließen sich nach seiner Ansicht auf physikalische Prozesse zurückführen. Damit war ein entscheidender Schritt getan: Denken wurde als etwas Duales gefasst, bei dem der mechanische Anteil nicht nur mitgedacht, sondern zunehmend erforscht werden konnte.
Es war kein Zufall, dass genau zu dieser Zeit Rechenmaschinen entworfen wurden. Blaise Pascal konstruierte 1642 ein Gerät, das Zahlen addieren und subtrahieren konnte – die sogenannte Pascaline. Die Absicht war praktisch, aber der symbolische Gehalt war unübersehbar: Wenn eine Maschine rechnen konnte, dann war das Denken – zumindest in Teilen – offenbar nicht ausschließlich menschlich. Leibniz, der nicht nur Mathematiker, sondern auch Philosoph war, verfolgte diese Spur weiter. Er sah in der logischen Struktur von Sprache und Zahl eine Möglichkeit, Wissen zu formalisieren. Seine Rechenmaschine, die auch multiplizieren und dividieren konnte, war Ausdruck dieses Gedankens: dass sich geistige Prozesse in regelhafte Operationen überführen ließen.
Leibniz ging sogar noch weiter: Mit seiner Idee einer ›Characteristica universalis‹ entwarf er ein Zeichensystem, das alle Begriffe der Welt eindeutig abbilden sollte – ein universales Alphabet des Denkens. Kombiniert mit seiner Calculus ratiocinator, einem logischen Kalkül, entstand der theoretische Entwurf eines Systems, das Denken selbst in Berechnung übersetzte. Zwar blieb dieser Gedanke technisch unerfüllt, aber er war ein Vorläufer dessen, was später in der Informatik Gestalt annehmen sollte: die Formalisierung von Logik als maschinenlesbare Sprache.
Im 18. Jahrhundert wurde der Automatismus nicht nur gedacht, sondern öffentlich vorgeführt. Besonders bekannt wurde der sogenannte Schachtürke, eine vermeintlich denkende Maschine, die Schach spielte – und ihre Gegner regelmäßig besiegte. Tatsächlich war der Automat eine geschickte Täuschung: Im Innern versteckte sich ein menschlicher Schachspieler. Doch das Publikum war fasziniert – nicht nur vom Spiel, sondern von der Vorstellung, dass eine Maschine zu strategischem Denken fähig sein könnte. Der Schachtürke war eine Illusion, aber eine aufschlussreiche: Er zeigte, dass die Idee des maschinellen Denkens kulturell anschlussfähig war – und zwar nicht nur in Fachkreisen, sondern im breiten Publikum.
Im 19. Jahrhundert wurde das Verhältnis von Geist und Maschine konkreter. Charles Babbage entwarf seine ›Analytical Engine‹, eine programmierbare Rechenmaschine, die viele Merkmale moderner Computer vorwegnahm: Speicher, Rechenwerk, Steuerungseinheit. Ada Lovelace, Tochter von Lord Byron und Mitarbeiterin Babbages, erkannte das Potenzial dieser Konstruktion. In einem heute berühmten Kommentar schrieb sie, dass Maschinen zwar Berechnungen ausführen, aber keine Bedeutungen erschaffen könnten. Damit formulierte sie früh einen Gedanken, der bis heute virulent ist: Der Unterschied zwischen syntaktischer Verarbeitung und semantischem Verstehen – zwischen Operation und Intention.
Es wäre allerdings falsch, die frühen mechanischen Denkmodelle nur technisch zu deuten. Sie waren immer auch kulturelle Spiegel. Die Maschinen, die das Denken modellieren sollten, folgten dem jeweiligen Zeitgeist. Mal standen sie für Ordnung, mal für Kontrolle, mal für Fortschritt. Aber stets sagten sie auch etwas über das Menschenbild jener Zeit aus: über das, was man für denkbar, für simulierbar, für nachahmbar hielt. Die Vorstellung vom ›denkenden Apparat‹ war nie rein mechanisch – sie war immer auch ein Projektionsfeld menschlicher Selbstverständigung.
Dass sich diese Idee bis ins 20. Jahrhundert fortsetzte, zeigt ein Blick auf Alan Turing. Zwar fällt er nicht mehr unter die Kategorie der frühen Modelle, doch sein ›Turing-Test‹ knüpft an die alte Frage an, ob Maschinen so denken können, dass ihr Output nicht mehr von menschlichen Denkprozessen unterscheidbar ist. Damit wird deutlich: Die mechanischen Modelle des Geistes waren keine historischen Kuriositäten, sondern Vorboten einer Denkweise, die bis heute fortwirkt – in Algorithmen, Chatbots, Sprachmodellen.
Was aber bleibt von der Vorstellung, Denken sei maschinenhaft? Vielleicht dies: Sie provoziert eine Rückfrage. Nicht, ob Maschinen wie Menschen denken – sondern ob Menschen tatsächlich so denken, wie sie glauben. Wenn die Nachbildung geistiger Vorgänge durch Maschinen gelingt, ist das dann ein Triumph der Technik – oder eine Reduktion des Denkens selbst? Diese Frage bleibt offen. Aber sie ist nicht belanglos. Denn in ihr steckt die unausgesprochene Möglichkeit, dass der Mensch in dem Moment, in dem er sich nachbaut, sich selbst neu definieren muss.
Das Denken als Maschine – das ist keine bloße Idee, sondern ein intellektuelles Experiment. Es spiegelt nicht nur technologische Entwicklung, sondern auch philosophische Tiefe. In der Geschichte dieser Modelle offenbart sich der Versuch, das schwer Fassbare sichtbar zu machen. Und womöglich liegt darin das eigentliche Ziel: nicht die Konstruktion eines künstlichen Geistes, sondern das Verständnis des eigenen.
Leibniz, Logik und die Rechenkunst
Ein Geist zwischen Mathematik und Metaphysik
Wenn man den Gedanken einer künstlichen Intelligenz bis an seinen historischen Ursprung zurückverfolgt, stößt man unweigerlich auf eine Figur, deren Denkstil sich durch eine eigentümliche Mischung aus Präzision und Weitblick auszeichnet: Gottfried Wilhelm Leibniz. Er war kein reiner Mathematiker, kein bloßer Philosoph, auch kein Techniker im heutigen Sinne. Und doch legte er mit seinem Schaffen ein Fundament, auf dem sich spätere Visionen von Maschinen, die denken können, überhaupt erst entwickeln konnten. Leibniz war – im besten Sinne – ein Universaldenker. Und als solcher ging er Fragen nach, die noch heute im Zentrum jeder Debatte über künstliche Intelligenz stehen: Kann Denken berechnet werden? Lassen sich Begriffe in Zeichen überführen? Und: Was bleibt vom Menschen, wenn man seinen Geist in Regeln übersetzt?
Leibniz wurde 1646 in Leipzig geboren, zu einer Zeit, als die Welt zwischen religiösen Dogmen und dem aufkommenden Rationalismus zerrieben wurde. Die Spuren des Dreißigjährigen Kriegs waren noch sichtbar, zugleich begann sich eine neue Ordnung des Denkens zu formieren. Die Natur wurde nicht mehr bloß als Schöpfung betrachtet, sondern als System – als etwas, das verstanden und beschrieben werden konnte. Genau hier setzte Leibniz an. Seine Neugier richtete sich auf die Idee, dass sich alles Wissen, ja womöglich sogar das Denken selbst, in logische Strukturen fassen ließe. Nicht, um es zu vereinfachen, sondern um es zugänglich zu machen – präzise, überprüfbar und klar.
Das zentrale Projekt, das ihn in dieser Hinsicht beschäftigte, war die Entwicklung einer sogenannten ›Characteristica Universalis‹. Es sollte sich dabei nicht um eine weitere Sprache im herkömmlichen Sinn handeln, sondern um ein Zeichensystem, das Gedanken in kalkulierbare Einheiten überführt. Der Gedanke war ebenso kühn wie folgenreich: Wenn man Begriffe in eindeutige Zeichen übersetzen und ihre Verknüpfung durch Regeln bestimmen könne, dann wäre es möglich, über Inhalte zu rechnen, anstatt über sie zu streiten. Leibniz selbst formulierte es mit einem fast übermenschlichen Optimismus: »Wenn zwei Philosophen sich nicht einig sind, sollen sie sagen: Rechnen wir!«
Hinter dieser Vorstellung verbarg sich weit mehr als ein logistisches Verfahren. Es war der Versuch, den menschlichen Verstand von Missverständnissen zu befreien – von der Unschärfe der Sprache, von der Beliebigkeit der Interpretation. Leibniz dachte Denken selbst als eine Form der Berechnung. Nicht in einem reduktionistischen Sinn, sondern in einem strukturierenden. Begriffe sollten nicht länger durch vage Assoziationen bestimmt werden, sondern durch ihre Position innerhalb eines Systems, das sich – analog zur Mathematik – durch Regeln erschließen lässt.
Dieser systematische Zugriff auf das Denken war bei Leibniz jedoch nie losgelöst von seiner metaphysischen Überzeugung. Für ihn war die Welt nicht nur ein Gefüge logischer Strukturen, sondern zugleich Ausdruck einer göttlichen Harmonie. Seine berühmte These, dass wir in der ›besten aller möglichen Welten‹ leben, war nicht bloß ein Ausdruck optimistischer Weltdeutung, sondern Ergebnis einer Denkfigur, die Rationalität und Theologie in Einklang zu bringen versuchte. Auch das hat Einfluss auf den Gedanken der künstlichen Intelligenz: Denn wer Logik als etwas Absolutes begreift, der legt nahe, dass sie nicht nur den Menschen durchdringt, sondern auch eine Ordnung außerhalb seiner selbst widerspiegelt – eine Ordnung, die sich möglicherweise technisch nachbilden lässt.
Praktisch wurde Leibniz dort, wo er begann, seine theoretischen Überlegungen in Maschinen zu übersetzen. Seine Rechenmaschine, die als Verbesserung der Pascal’schen Vorrichtung gelten kann, war in der Lage, nicht nur zu addieren und zu subtrahieren, sondern auch zu multiplizieren und zu dividieren. Ihre mechanische Umsetzung war ebenso raffiniert wie ambitioniert – auch wenn sie in der Realität mehr Probleme verursachte als sie löste. Doch entscheidend ist nicht, dass die Maschine fehlerfrei funktionierte, sondern dass sie überhaupt gedacht wurde: als eine mechanische Realisierung des menschlichen Kalküls. Leibniz’ Maschine war ein Beweis seiner Überzeugung, dass auch abstraktes Denken einer technischen Umsetzung fähig sei.
Sein Interesse an der binären Zahlenwelt fügt diesem Bild eine weitere Facette hinzu. Leibniz erkannte im Dualsystem – also der Darstellung von Zahlen mit nur zwei Ziffern: 0 und 1 – nicht nur eine mathematische Vereinfachung, sondern ein Prinzip von universeller Tragweite. Er sah in der Dualität eine metaphysische Spiegelung des Kosmos: Licht und Schatten, Sein und Nichts, Ja und Nein. In dieser Reduktion erkannte er keine Einschränkung, sondern ein Ordnungsprinzip, das der Natur selbst eingeschrieben sei. Dass moderne Computer genau auf diesem binären System basieren, ist kein Zufall, sondern ein spätes Echo jener Idee, die Leibniz in seiner Korrespondenz mit Jesuitenmissionaren ebenso entwickelte wie in mathematischen Abhandlungen.
Bemerkenswert ist, wie sehr Leibniz seiner Zeit voraus war. Die Welt um ihn herum war noch geprägt von theologischen Autoritäten, von mündlich tradiertem Wissen und einer Philosophie, die mit der Logik der Antike rang. Und doch entwarf er ein System, das in vielerlei Hinsicht dem entspricht, was heutige Informatik leistet: die Formalisierung von Bedeutung, die Übersetzung von Sprache in Zeichen, die Berechnung von Begriffen. Dass Leibniz dabei weder kühl noch technokratisch vorging, sondern mit dem Furor eines Denkers, der in der Struktur der Welt auch deren Sinn erkannte, macht ihn zu einer Schlüsselfigur für jedes Verständnis von künstlicher Intelligenz.
Vielleicht ist es gerade diese Spannung, die sein Werk so anschlussfähig macht: die Verbindung von äußerster Präzision mit tiefem Staunen. Für Leibniz war Logik kein trockener Selbstzweck, sondern eine Form geistiger Klarheit, die den Menschen in die Lage versetzt, sich selbst und die Welt besser zu verstehen. Wenn er von der Rechenkunst sprach, meinte er damit nicht bloß das Addieren von Zahlen, sondern eine Kunstform, die das Denken selbst strukturiert.
Dass wir heute in Systemen denken, die auf binären Entscheidungsstrukturen beruhen, dass Maschinen semantische Muster erkennen, logische Schlüsse ziehen und sprachliche Einheiten verarbeiten – all das hat seine Wurzeln in dem, was Leibniz einst als Möglichkeit formulierte. Seine Vision war kein abgeschlossenes System, sondern ein offener Entwurf: eine Einladung, über das Wesen des Denkens nachzudenken – und darüber, wie es sich abbilden lässt.
Die Verbindung von Logik und Mechanik, von Begriff und Zahl, von Zeichen und Bedeutung – all das macht Leibniz zu einem Pionier jener Idee, die wir heute als künstliche Intelligenz bezeichnen. Nicht, weil er sie erfunden hätte, sondern weil er das Fundament legte, auf dem spätere Generationen weiterbauen konnten. Wer sich also mit der Geschichte der KI befasst, tut gut daran, bei Leibniz zu beginnen – nicht, um ihm einen Technikmythos unterzuschieben, sondern um zu verstehen, dass künstliche Intelligenz immer auch eine Frage des Denkens über Denken war.
Und vielleicht, so darf man annehmen, hätte Leibniz ein leises Vergnügen daran gefunden, zu sehen, wie seine Ideen – über Jahrhunderte hinweg – ein Eigenleben entfalten. Nicht in den Hallen der Philosophie allein, sondern in Maschinen, die sprechen, lesen, antworten. Nicht, weil sie fühlen, sondern weil sie folgen – einer Logik, die er mitgedacht hat.
Von Automaten zu Automatenmenschen
Künstliche Intelligenz in Mythos und Literatur