Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Bewusstsein, Zeit und Symmetrien sind Faktoren, die intelligentes Handeln prägen. All diese Phänomene zählen zu den größten ungelösten Fragen von Philosophie und Naturwissenschaft überhaupt. Keine der heutigen Wissenschaften wird alleine für sich in der Lage sein, ein umfassendes Modell zur Erklärung zu entwickeln. Ich nehme Sie mit auf eine interdisziplinäre Reise, erkläre Fakten, den heutigen Stand der Erkenntnis zu intelligentem Handeln und Bewusstsein, weise auf offene Fragen hin, und führe Sie an ein Modell für bewusstes Handeln heran, das eine verblüffende Lösung bietet für ein fundamentales Rätsel der Physik. 3. überarbeitete Auflage 2018
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 196
Veröffentlichungsjahr: 2018
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Siegfried Genreith studierte Mathematik an der Universität Köln. Während seiner beruflichen Karriere bei einem weltweit führenden IT-Konzern entwickelte er unter anderem Anwendungen im Bereich Künstlicher Intelligenz seit den späten 1980er Jahren. Das Studium der wissenschaftlichen Grundlagen von Intelligenz und Bewusstsein wurde für viele Jahre seine Passion. Siegfried Genreith hat drei erwachsene Kinder und lebt in der wunderschönen Landschaft der Eifel.
Auflage 2010
überarbeitete Auflage 2011
überarbeitete Auflage 2018
Es war der erste Hype, an den ich mich erinnere und der mein Berufsleben an seinem Anfang geprägt hat. Er entstand mit dem Aufkommen der Personal Computer in den achtziger Jahren rund um die künftigen Möglichkeiten immer höherer Rechnerleistungen. Auch diese Blase wurde genährt durch Erwartungen von Kaufleuten und Investoren, die keinen wirklichen Bezug zu dem Thema hatten, in das sie investierten. Basierend auf Vermutungen und Fehleinschätzungen schaukelten sie sich gegenseitig in ihren Träumen um exorbitante Gewinne hinauf in schwindelnde Höhen. Jeder wollte, jeder musste dabei sein. Wer sich als Manager oder Investor dem Sog widersetzte, lief Gefahr, als rückständiger Spinner betrachtet zu werden. Im Vergleich zu den Blasen, deren Platzen seither immer einmal wieder Wirtschaft und Finanzmärkte erschüttern, war dies allenfalls eine unauffällige Ausbeulung in den Erwartungen vieler Menschen weltweit. Zunächst ein Thema für Wissenschaftler, Entwickler, Programmierer, flossen vor allem in der zweiten Hälfte des Jahrzehnts erhebliche Investitionen der Wirtschaft in dieses Segment. Die "Artificial Intelligence" – "Künstliche Intelligenz" (Kl) in der deutschen Übersetzung – erhob den Anspruch, menschliches, intelligentes Entscheidungsverhalten auf Automaten zu übertragen.
Als die Blase Anfang der neunziger Jahre platzte – mit Firmenpleiten und abgeschriebenen Investitionen in erheblichem Umfang – wurde klar, dass man von diesem selbst gesteckten Ziel weit entfernt war. Offenbar lag die wahre Natur echter intelligenter Informationsverarbeitung noch im Dunkel. Was nach dem Hype blieb war ein Fundament aus Methoden und IT-Architekturen, das bis heute die Entwicklung moderner Software prägt: Objektorientierung, regelbasierte Systeme, Integration verteilter Komponenten über Ereignisse und Nachrichten sind nur einige Elemente daraus, die immer noch Kennzeichen guten Programmdesigns sind.
Bis heute – über zwanzig Jahre danach – wurden keine fundamentalen Fortschritte erzielt im grundsätzlichen Verständnis natürlich intelligenten Handelns. Zwar sind die Rechner um Zehnerpotenzen schneller als damals und ermöglichen den Betrieb immer komplexerer KI-Modelle. Die Robotik hat mit der schnell voranschreitenden Miniaturisierung immense Fortschritte gemacht. Die Linguistik ist Welten vom damaligen Zustand entfernt. Heute ist man in der Lage, die Komplexität eines Katzenhirns in einem IT-System zu simulieren, das menschliche Gehirn ist in Reichweite. Der ursprüngliche Anspruch aber, damit echte Intelligenz oder eigenständiges Bewusstsein zu schaffen, wurde leise fallen gelassen und ist heute eher ein Unthema, mit dem ernsthafte Wissenschaftler sich nicht befassen sollten. Bewusstsein als zentrales Thema zu diskutieren ist heute nur in Philosophie, Psychologie oder Theologie möglich.
Der Versuch einer fundamentalen Auseinandersetzung mit dem Phänomen Intelligenz wurde auch von den Naturwissenschaften gemacht mit ähnlich frustrierenden Ergebnissen wie in der Informatik. Wie entsteht Intelligenz? Ist dies ein Ergebnis bloßer Komplexität oder fehlt noch Grundsätzliches im Modell? Gibt es im naturwissenschaftlichen Sinne überhaupt so etwas wie Bewusstsein? Weltbekannte Wissenschaftler wie Werner Heisenberg, Wolfgang Pauli, Niels Bohr, Erwin Schrödinger und Albert Einstein pflegten noch bis in die fünfziger Jahre des letzten Jahrhunderts hinein einen regen Austausch in solch fundamentalen Fragen unserer Existenz.
Um im Verständnis intelligenten Handelns substantiell voranzukommen reicht es offenbar nicht, vorhandene Modelle weiterzuführen. In allen hierbei relevanten Wissenschaften sind Vorstellungen und Verfahren zu hinterfragen – und dies in sehr grundsätzlicher Weise.
Ich nehme sie mit auf eine Reise durch verschiedene Disziplinen menschlichen Wissens, stelle offene Fragen heraus, weise auf Widersprüche hin, und füge die Puzzle-Steine aus vorliegendem Wissen in ein neues, erstaunliches Bild von Intelligenz, Bewusstsein und der Realität um uns herum.
Leider lässt es sich nicht vermeiden, dass der Weg dorthin an einigen Stellen steinig und steil wird und dem Leser einiges abverlangt. Überall dort, wo die Zumutbarkeitsgrenze überschritten zu werden droht, weise ich sie auf Abkürzungen hin, die sie nehmen können, ohne zu viel an Verständnis dadurch einzubüßen. In jedem Fall sollten die Dialoge zwischen S. und W. allgemein verständlich sein, die in den meisten Kapiteln auf anschauliche Weise an die jeweilige Fragestellung heranführen. Das Thema insgesamt ist sehr komplex und Vereinfachungen stoßen manchmal an Grenzen, jenseits derer die dort vermittelten Bilder irreführend und letztendlich sogar falsch wären.
Deshalb bitte ich sie schon jetzt um Nachsicht für alle Zumutungen, mit denen ich sie möglicherweise auf dem Weg konfrontiere.
Nideggen, im Januar 2018Siegfried Genreith
Abbildungsverzeichnis
Künstliche Intelligenz
Der Hype
Intelligenz und Bewusstsein
KI-Erfolge
Agenten
Bankagenten
Beste Lösungen durch Fehler
Selbstbezüglichkeit
Neuronale Netze
Selbsterkenntnis
Die Reiseroute
Biologie
Dialog S/W
Schwärme
Symmetrie der Lebensfreude
Schwarmverhalten
Evolution und Zufall
Emergenz oder Absicht
Medizin
Dialog S/W
Hirn oder Herz
Bewusstsein
Intelligenz
Erlebnisse
Philosophie und Psychologie
Dialog S/W
Bewusstsein
Verhalten
Zeit und Symmetrien
Physik
Dialog S / W
Die Physik des Unphysikalischen
Das relativistische Weltbild
Die Welt der Quanten
Realität
Symmetrien
Die Supertheorie
Zusammenhänge
Das Genl-Modell
Dialog S/W
Würfel-Algebra
Das Vereinfachungsprinzip
Würfelmechanik
Realität
Duale Realität
Perspektivenwechsel
Ein Bild der Welt
Definitionen und Folgerungen
Physikalische Interpretationen
Philosophische Interpretationen
Biologische Interpretationen
Künstliche Intelligenz
Dialog S/W – Eindrücke
Glossar
Literaturverzeichnis
Abbildung 1: Reaktiver Agent und Schwarzes Brett
Abbildung 2: A+E-Kundengruppenmatrix
Abbildung 3: Kundeneinteilung in Gruppen
Abbildung 4: Netz in Schichtentopologie
Abbildung 5: Kognitiver Agent und Schwarzes Brett
Abbildung 6: Fischschwarm
Abbildung 7: Skizze Sensorischer Homunculus
Abbildung 8: Interferenzen am Doppelspalt
Abbildung 9: Symmetrien
Abbildung 10: Nummerierung
Abbildung 11 : Würfeloperator i
Abbildung 12: Zustandswürfel
Abbildung 13: Kollaps Wahrscheinlichkeiten
Abbildung 14: Der chaotische Wettbewerb der Ideen
Abbildung 15: Weg-Zeit-Diagramm
Es war ein spannender Aufbruch. Mitte der achtziger Jahre war die Zeit der Commodore 64, Amiga und Atari Konsolen, Bastler schraubten und löteten rund um den SC/MP Mikroprozessor im Ein-MHz-Takt, Sinclairs ZX80 war noch präsent und Elektronikzeitschriften veröffentlichten Schaltpläne für den Selbstbau. Personal Computer begannen sich gerade zu etablieren – obwohl vergleichsweise noch extrem teuer1 – und läuteten das Ende der Vorherrschaft für Großrechner und hochpreisige Workstations ein.
Viele kreative Köpfe befeuerten mit neuen Ideen die Ausweitung der Einsatzmöglichkeiten für diese Rechner. Eine dieser Einsatzszenarien waren KI2-Anwendungen. Nach ersten publikumswirksamen Erfolgen in der zweiten Hälfte des Jahrzehnts witterten auch etablierte Firmen wie IBM oder Hewlett Packard (HP) Geschäftschancen und investierten erhebliche Mittel in den Aufbau entsprechender Entwicklungs- und Vertriebsteams.
Ende der Achtziger war ich als junger Mitarbeiter im technischen Vertrieb mit dem Thema „Regelbasierte Systeme“ bei Banken und Sparkassen im Nordwesten Deutschlands unterwegs. Ich hatte die Entwicklung in anderer Funktion schon längere Zeit verfolgt und dann nachdrücklich eine entsprechende Stelle im eigenen Unternehmen gesucht. Als Mathematiker faszinierte mich die Thematik so sehr, dass ich dafür zunächst auch finanzielle Einbußen akzeptierte. Zu diesem Zeitpunkt hatte ich die Prinzipien Neuronaler Netze und regelbasierter Expertensysteme schon weitgehend verinnerlicht. In meiner freien Zeit hatte ich mich mit der hauseigenen Software vertraut gemacht.
Jetzt faszinierte mich die Umsetzung in Projekten mit unseren Großrechnerkunden – Banken, Sparkassen, Volksbanken und deren Rechenzentren. Projekte gab es genug und eine Menge Arbeit. KI war ein echtes Hype-Thema, mit dem sich auch Bankvorstände gerne schmückten. Jeder wollte irgendwie dabei sein und die KI-Fahne als Inbegriff für Innovationsfähigkeit hoch halten. Eine meiner ersten Aufgaben war die Konzeption und Erstellung eines regelbasierten Expertensystems zur Anlageberatung von Privatkunden einer großen Sparkasse im Rheinland. Andere Themen betrafen die Händlerunterstützung durch automatisierte, regelbasierte Kauf- und Verkaufsentscheidungen im Eigenhandel der Bank, oder die Beratung für Firmenkunden einer Bankengruppe zur optimalen Nutzung regionaler und überregionaler Fördermittel. Manchmal spannender noch als die Umsetzung daran waren für mich die vielen Kontakte und Interviews mit Mitarbeitern der Beratungsbereiche. Obwohl diese Anwendungen angesichts des Anspruchs der KI vergleichsweise trivial ausfielen, war das Interesse riesig. Ich selbst war auf Messen wie der ORGATEC in Köln und der Bankensonderschau der CeBIT in Hannover mit meinem Ausstellungspunkt rege gefragt und zeigte dort jeweils tagelang Anlageberatung mit Expertensystemen. Resultate waren neben neuen Projektansätzen diverse Fachartikel und Vorträge an Universitäten über Erfahrungen in der Wirtschaft[l].
Keines dieser Projekte kam auch nur in die Nähe von etwas, dass man als intelligentes System bezeichnen könnte. Es ging um die Automatisierung mehr oder weniger komplexer Entscheidungen in einem eng begrenzten Sachgebiet. Das war machbar, wenn auch die Abrechnungsmodelle der durch kaufmännische Anwendungen geprägten Großrechner zu extrem hohen Nutzungsgebühren für diese eher untypischen Arbeitslasten führte. Letztendlich waren diese Ansätze aus Kostengründen dann auch kaum wirtschaftlich betreibbar.
Der internationalen KI-Gemeinschaft ging es allerdings tatsächlich um nicht weniger als die Erschaffung selbständig intelligenten Verhaltens in Computersystemen. Frühe Erfolge seit 1960 schienen diese Erwartung zu rechtfertigen3. Zu der Zeit durften noch Wissenschaftler aller Fachrichtungen offen über Bedingungen sprechen, unter denen Intelligenz und Bewusstsein in künstlichen Systemen entstehen können, ohne ihren Ruf zu gefährden und sich der Lächerlichkeit preis zu geben. Der Begriff „Bewusstsein“ wurde und wird je nach persönlichem Hintergrund und Absichten sehr unterschiedlich gedeutet. Eine belastbare, allgemein akzeptierte Definition für Bewusstsein gibt es bis heute nicht, was nicht verwundert. Dazu müsste ein umfassendes Modell einen geeigneten Bezugsrahmen herstellen. Von so etwas sind wir in den exakten Wissenschaften, und nur die können heute als breit akzeptiert angesehen werden, weit entfernt. Solche Modelle finden wir nur – dafür aber in reichlicher Zahl und oft einander widersprechend – in Religion, Philosophie oder Psychologie4 .
Ob eine Maschine intelligent ist, lässt sich nur an ihrem Verhalten ablesen. Der Turing Test[2] beschreibt eine Dialogsituation, in der ein menschlicher Fragesteller zwei Dialogpartner nur über Bildschirm und Tastatur erlebt. Jeder dieser Partner – der eine ein Mensch und der andere eine Maschine – verfolgt dabei das Ziel, den Frager über die eigene Identität zu täuschen. Kann der Fragesteller nachher nicht entscheiden, wer von beiden Partnern die Maschine ist, dann muss die Maschine als intelligent angenommen werden. Diese Anforderung zu erfüllen scheint für realistische Systeme eher erreichbar, obwohl bis heute noch keine Maschine selbst diesen Test bestanden hat.
Tiefe Einblicke in das Wesen von Intelligenz und Bewusstsein versprachen erfolgreiche und vom interessierten Publikum viel gelesene Bestseller wie etwa „Gödel Escher Bach – Ein Endloses Geflochtenes Band“ [3]oder speziellere Veröffentlichungen wie „Conceptual Structures“ [4].
Die hoch fliegenden Konzepte umzusetzen traten LISP oder Prolog als typische Programmiersprachen der Künstlichen Intelligenz an. Solche Programme auszuführen war angesichts von üblichen Taktfrequenzen der Prozessoren im einstelligen MHz- und Speicher oft noch im Kilobyte-Bereich für wirtschaftlich nutzbare Systeme ein ambitioniertes Unterfangen. Ich selbst habe zu dieser Zeit vor allem mit regelbasierten Expertensystemen auf Mainframes5 gearbeitet. Auf der anderen Seite stand mir damals ein IBM Portable P70-3866 zur Verfügung. Aus heutiger Sicht ist verblüffend, dass ich damit tatsächlich in leistungshungrigen Sprachen wie Prolog oder LISP entwickeln und neuronale Netze trainieren konnte. Das spricht eindeutig für die unglaubliche Effizienz alter Betriebssysteme. Die Träume von intelligenten Systemen traten in meiner Praxis sehr schnell zurück hinter so pragmatische Zielsetzungen, wie denn überhaupt anspruchsvolle KI-Anwendungen mit den sehr beschränkten Ressourcen umsetzbar waren.
Kritische Stimmen wurden in Zeiten allgemeinen Positivismus am liebsten ignoriert. So versuchte sich Roger Penrose – den auch ich erst lange nach dieser Zeit zur Kenntnis nahm – in „The Emperor's New Mind“[5] an einem mathematischen Beweis, dass so etwas wie Bewusstsein prinzipiell nicht in herkömmlichen Computern abbildbar ist. Das gelang sogar recht überzeugend, wenn man Penroses Annahme akzeptiert, dass bewusstes Handeln die dort geforderten Möglichkeiten tatsächlich voraussetzt. Darunter sah er einen fundamentalen Selbstbezug, den er nur bewusstem Handeln zu schrieb. Er orientierte sich stark an einer frühen Arbeit von Kurt Gödel über die Unentscheidbarkeit in formalen Systeme[6]. Darin beschreibt der Mathematiker Gödel, dass vollständige formale Systeme immer widersprüchlich sind. Im Umkehrschluss heißt das, dass widerspruchsfreie formale Beschreibungen, die wir in den Naturwissenschaften eigentlich anstreben, immer unvollständig sein müssen, also eine bestimmte Klasse von Sachverhalten nicht auszudrücken vermögen.
Penrose legte dann in den Neunzigern noch einmal nach mit „Shadows of the Mind“[7], um die inzwischen von Gegnern vehement vorgetragenen Argumente zu entkräften und einige Dinge richtig zu stellen. Als international renommierter theoretischer Physiker stellte er Bewusstsein auch in einen engen Zusammenhang mit der Quantenmechanik und erntete damit Anerkennung und Kritik. Für lange Zeit hat auch er das Thema danach vermieden und erwähnte es in seinem letzten großen Werk „The Road to Reality“ nicht einmal mehr. Erst in jüngerer Zeit greift er Bewusstsein als quantenmechanischen Effekt wieder offensiv auf.
Das Ende des Hype kam Anfang der neunziger Jahre so, wie wir seither das Platzen vergleichsweise sehr viel größerer Erwartungsblasen er leben. Die großen IT Firmen zogen ihr Engagement zurück und schrieben ihre erheblichen Investitionen ab. Kleinere Firmen gingen unter, wenige überlebten mit spezialisierten Angeboten, etwa im Bereich der Software-Entwicklung und Methoden. Ich persönlich war damit auch gezwungen, mein Betätigungsfeld zu verlagern und kümmerte mich zunächst für einige Jahre um die Entwicklung fortschrittlicher Systeme für die Kundenselbstbedienung in Banken – für mich als Mathematiker interessant wegen der damit verbundenen kryptografischen Anforderungen an PIN-Verschlüsselung und Geldkarte. KI war für die breite Anwenderschaft an ihrem ursprünglichen Anspruch gescheitert.
Was blieb – und heute selbstverständlich ist – sind die Methoden und Verfahren zur objektorientierten Programmierung, die Nutzung nachrichtenbasierter Infrastrukturen zur Integration heterogener Systeme, die selbstverständliche Einbettung regelbasierter Module in Systeme von der Armbanduhr über Netzwerk-Router bis hin zur Steuerung komplexer Arbeitsabläufe in Unternehmen u.v.a.m.. Ich persönlich habe die KI am Rande weiterverfolgt wie eine Alte Liebe. Erst vor einigen Jahren begann ich, mich wieder systematisch mit dem Thema KI, Intelligenz und Bewusstsein zu befassen und habe eigene Modelle aus einer interdisziplinären Sicht entwickelt. Dazu später mehr.
Heutige Anwendungen der KI konzentrieren sich auf Bereiche wie Simulation, Robotik, Sprachverständnis, Mustererkennung, wissensbasierte Systeme und Spiele. Unsere Technik hat in den letzten 20 Jahren unglaubliche Fortschritte gemacht, die sich damals niemand hätte träumen lassen. In Anlehnung an den Rechner „Deep Thought“ aus „Per Anhalter durch die Galaxis“, der auf die allgemeine Sinnfrage nach Millionen von Jahren mit „42“ antwortet, nannte IBM einen Rechner „Deep Blue“. Der brauchte deutlich weniger Zeit und konnte mit differenzierteren Antworten aufwarten, hatte aber auch konkretere Fragen zu beantworten: Er schlug 1997 den amtierenden Schachweltmeister unter Wettkampfbedingungen und war damit die erste Maschine, der so etwas gelang. Dabei glaubte der unterlegene Garri Kasparow in einigen Zügen des Systems menschliche Genialität aufblitzen zu sehen, die unmöglich einer „dummen“ Maschine innewohnen könnte. Inzwischen ist klar, dass gerade Schachcomputer aufgrund ihrer Arbeitsweise ungeeignet sind, menschliche Intelligenz nachzuempfinden.
Ähnliches gilt für die aktuellen KI-Systeme von Google, Amazon, Microsoft, IBM, u.a.. Deren Leistungen sind in der Tat beeindruckend. Genaugenommen konzentrieren diese sich vor allem auf ein Sprachverständnis, verbunden mit der Verarbeitung gewaltiger Datenmengen aus unterschiedlichsten Quellen und entfernen sich damit eher wieder von der idealen Vorstellung intelligenten Handelns. Alle Eigenschaften auch dieser Systeme der neuesten KI-Generation sind in irgendeiner Weise von ihren Entwicklern vorausgedacht und haben insofern mit echter Intelligenz eher wenig zu tun.
Am 18.11.2009 lief eine Erfolgsmeldung durch die Presse: IBM hatte auf der Supercomputer-Konferenz SC09 ein System aus der „Blue Gene“ Reihe vorgestellt, mit dem die Komplexität eines Katzenhirns simuliert wurde7. Aus technischer Sicht ist damit die Abbildung eines menschlichen Gehirns durchaus in Reichweite. Die Frage ist immer noch strittig, ob alleine Komplexität und Organisation das Geheimnis selbständiger Intelligenz sind und damit plötzlich der „göttliche Funke“ zündet. Genau das war die offen ausgesprochene Annahme der alten KI-Gemeinde bis in die Neunziger Jahre des letzten Jahrhunderts.
Heute wird eher eine Position von Roger Penrose akzeptiert: Komplexität alleine ist vermutlich nicht ausschlaggebend. Schon einer Katze muss man eigenständiges Bewusstsein zuschreiben in dem Sinne, dass das Tier eine konkrete Vorstellung seiner selbst hat. Das wurde in Verhaltensexperimenten überzeugend nachgewiesen. Trotzdem macht eine entsprechend komplexe Maschine keine Anstalten, selbständig eigene Ziele zu entwickeln und zu verfolgen oder diese selbstbezügliche Grenzenlosigkeit zu zeigen, die Penrose echtem intelligenten Handeln zuschreibt und auch Hofstadter in seinem frühen Bestseller beschreibt. Und es ist überhaupt nicht klar, wie das denn prinzipiell zu erreichen wäre. In Bezug auf Bewusstsein herrscht trotz bekannter Einwände wohl noch immer mehrheitlich die unausgesprochene Hoffnung, dass so ein Effekt plötzlich auftreten wird – in genügend komplexen Maschinen mit einer der Natur genügend genau nachempfundenen Organisation. Ich hege daran erhebliche Zweifel.
Man muss festhalten, das die Informatiker seit der Mitte des letzten Jahrhunderts keinerlei Fortschritte gemacht haben im grundsätzlichen Verständnis natürlichen, intelligenten Handelns. Stand des Wissens ist heute, dass man entweder weiter an die These der Emergenz8 von Bewusstsein im Rahmen der vorhandenen Technik und Erkenntnisse glaubt, oder aber von diesem Ziel abschließend Abstand nimmt – letztendlich eine Glaubensfrage. Trotzdem sind die entwickelten Techniken und Methoden zweifellos hilfreich, intelligentes Handeln zu beschreiben, grundlegende Prinzipien für Entscheidungsprozess nicht nur zu verstehen, sondern auch experimentell auszuwerten.
Meine persönliche Erwartung ist, das die Erkenntnisse aus der Entwicklung von KI-Systemen wichtige Bausteine sein werden, um ein zukünftiges Modell für Intelligenz und Bewusstsein zu schaffen. Die Situation in der Informatik zu diesem Thema ähnelt stark vergleichbaren Ansätzen in anderen Fachbereichen: Nach anfänglich ermutigenden Fortschritten stecken wir zum Thema Intelligenz und Bewusstsein in jedem einzelnen mir bekannten Forschungsbereich in einer Sackgasse, die keine weiteren substantiellen Fortschritte erwarten lässt. Diese Anfänge liegen dabei jeweils einige Jahrzehnte bis hin zu einigen Jahrtausenden zurück. Es fehlen fundamental andere Modelle. Bis heute werden lediglich lange bekannte Ansätze über die Jahre fortgeführt und verfeinert. Trotzdem denke ich, dass wir insgesamt die wichtigsten Teile eines Puzzles schon in Händen halten und sie nur intelligent und unvoreingenommen zusammenfügen müssen. Einen Ansatz dazu werde ich später vorstellen und diskutieren.
Zwei Aspekte möchte ich herausgreifen, die aus meiner Sicht von besonderer Bedeutung sind: Zum Einen ist dies die Robotik im spielerischen Sinn, wie sie etwa bei den RoboCup9 Veranstaltungen gepflegt wird. Zum Anderen sind das Systeme unabhängiger Software-Agenten, die beispielsweise zur Simulation und zu Optimierungsaufgaben in hoch parallelen Systemen herangezogen werden. In beiden Fällen geht es um die Verfolgung gemeinsamer Ziele im Schwarm.
Roboter als Fußballspieler stellen enorme Anforderungen an Lernfähigkeit, Mustererkennung, Interaktion mit einer realen Umgebung, und an Koordination mit Aktivitäten einer Gruppe. Im Grunde finden alle heute wichtigen Teildisziplinen der KI hier ein Spielfeld im wahrsten Sinne des Wortes. Zurecht werden diese Veranstaltungen als publikumswirksamer Prüfstein für den Stand der Technik der KI insgesamt gesehen.
Wegen der noch erheblichen Probleme, die reale Roboter mit grundlegenden Bewegungs- und Wahrnehmungsprozessen haben, werden für Wettkämpfe auch Simulationen herangezogen. Dabei sind die Spieler nur noch Programme, die auf einem virtuellen Spielfeld eigenständig agieren. Das Spiel findet dann innerhalb eines Computers oder eines Netzwerk mehrerer Rechner statt. Solche virtuellen Spiele sind weit weniger spektakulär als die mit echten Robotern. Man sieht leider nicht unbedingt, was passiert, es sei denn, der Verlauf wird grafisch aufbereitet und live auf einem Bildschirm dargestellt. Dafür sind diese Spiele aber wichtiger für fundamentale Fortschritte der KI, deren Erkenntnisse gerade hier die konsequenteste Umsetzung erfahren.
Die Spieler nennt man oft „Agenten“ und das Spielfeld bezeichnet man manchmal als „Schwarzes Brett“. Darauf vermerken die Agenten alles, was sie tun, im Falle des Fußballspiels also beispielsweise ihre aktuelle Position, ihre Geschwindigkeit und ob sie im Ballbesitz sind. Umgekehrt können sie alle anderen Informationen dort lesen, wissen also über diesen Umweg, wo die anderen Spieler sich befinden und wie diese sich bewegen und wer den Ball hat. Die Agenten selbst können logische Schlüsse ziehen – das macht ihr Programm – und können ein eigenes, privates Gedächtnis haben – also irgendwelche Daten für den eigenen Gebrauch speichern. Sie könnten sich zum Beispiel in jedem Schritt das gesamte Spielfeld im privaten Speicher ablegen und sich so „erinnern“ an den bisherigen Spielverlauf. Gleichzeitig brauchen die Agenten eine Rückmeldung aus dem Spiel, die ihnen sagt, ob eine Aktion den Spielverlauf für die eigene Mannschaft positiv beeinflusst oder nicht: Tore fallen selten nur zufällig und dann oft für die falsche Mannschaft. Wenn die Agenten hier über ein eigenes Gedächtnis verfügen, können sie durchaus diese Rückmeldung aus einem eigenen privaten Modell des Spielfelds selbst herleiten.
Es gibt keine Unterscheidung in der grundsätzlichen Funktionsweise zwischen Robotern und Software-Agenten. In beiden Fällen handeln und entscheiden selbständige Einheiten, eingebettet in eine Umgebung, die sie wahrnehmen, geleitet durch ein Ziel zur Veränderung dieser Umgebung. Typischerweise unterstellt man Robotern, in einer realen Umgebung – im obigen Beispiel das Fußballfeld, die Mitspieler und die Gegner – als real anfassbare Maschinen zu handeln, während Software-Agenten meist in einer virtuellen Umgebung existieren, die man nur etwa auf einem Monitor optisch aufbereiten und zeigen kann. Die Übergänge sind gleitend.
Andererseits können auch Roboter etwas sehr Einfaches sein: Beispielsweise muss dieser Definition zufolge ein einfaches elektronisches Thermostatventil als Roboter bezeichnet werden. Es nimmt in einer realen Umgebung ein Signal – Temperatur – auf und regelt einen Warmwasserstrom entsprechend ab oder auf, um eine voreingestellte Solltemperatur zu erreichen.
Abbildung 1: Reaktiver Agent und Schwarzes Brett
Damit ist dann auch der einfachste Typ eines Agenten beschrieben. Ein solcher, sogenannter reaktiver oder zustandsloser Agent10 verfügt nicht über ein eigenes Gedächtnis (siehe Abbildung 1). Er entscheidet nur aufgrund seiner Wahrnehmung der Umgebung zu einem Zeitpunkt über seine jeweilige Aktion, die dann im Allgemeinen diese Umgebung – das Schwarze Brett – verändert. Diese ist das Gedächtnis des Schwarms. Ein solcher Agent kann als Individuum nicht lernen und keine eigene Erfahrung zu Entscheidungen heranziehen. Dass so ein einfaches Konstrukt keinerlei Verhalten an den Tag legt, das man auch nur ansatzweise als intelligent bezeichnen könnte, liegt auf der Hand. Die begründete Annahme hierbei ist, dass Intelligenz im Zusammenspiel vieler dieser Agenten mit ihrer Umgebung entsteht. Das ist auch durchaus plausibel. Unser Gehirn beispielsweise produziert unzweifelhaft intelligentes Verhalten. Wenn wir seine Funktion herunter brechen bis auf einzelne Neuronen, dann haben wir vergleichsweise sehr einfache Individuen vor uns, die im Grunde nur den eigenen elektrochemischen Zustand und den ihrer nächsten Umgebung wahrnehmen und darauf eigenständig reagieren. Würde man die Funktion des Gehirns weiter herunterbrechen, kommt man irgendwann in atomare Dimensionen, in denen dann quantenphysikalische Vorgänge relevant werden. Und solche Teilchen im quantenphysikalischen Sinne haben zwar einen eigenen veränderlichen Zustand, aber keinerlei Gedächtnis über frühere Zustände.
Vernünftig organisierte Systeme unabhängiger reaktiver Agenten erscheinen als ein erfolgversprechender Ansatz, intelligentes Verhalten einer Gruppe oder eines Schwarms (=große Gruppe) zu simulieren und entsprechen darin dem heutigen Stand der Wissenschaft. Diese Möglichkeit wird in der Biologie rege genutzt, um die Regeln natürlichen Schwarmverhaltens zu erforschen. Auch werden solche Systeme heute erfolgreich eingesetzt bei Optimierungsproblemen etwa in der Logistik, wenn eine Spedition die Fahrten und Beladungen einer LKW-Flotte zu geringst möglichen Kosten plant.
An einem Beispiel will ich die Arbeitsweise eines solchen Systems erläutern. Stellen Sie sich vor, eine Bank wertet die ihr vorliegenden Kundendaten aus. Sie möchte eine begrenzte Anzahl von in sich homogenen Kundengruppen ermitteln mit jeweils ähnlichen Anforderungen an Betreuung und Angebot. Damit ließe sich dann der Aufwand für Marketingmaßnahmen deutlich verringern, weil sie sich nicht auf jeden einzelnen Kunden einstellen muss. Es genügt dann, seine Gruppenzugehörigkeit zu kennen. Trotzdem kann ich vermeiden, etwa einen 90-Jährigen für eine Riester-Rente begeistern, einem Kleinkind einen Autokredit verkaufen zu wollen oder einem Mittellosen Aktienanlagen anzubieten.
Zunächst muss die Bank entscheiden, was sie unter dem Begriff „homogen“ verstehen will und welche Daten sie für wichtig hält zur Charakterisierung einer solchen Gruppe. Der Einfachheit halber wollen wir annehmen, dass nur Alter und Einkommen eines Kunden zur Klassifizierung dienen sollen (siehe Abbildung 2). Um den Begriff „homogen“ messbar zu machen muss ich eine Metrik einführen, die Alter und Einkommen irgendwie in Beziehung setzt. Ich kann zum Beispiel festlegen, dass 10 Jahre Alter den gleichen Unterschied bedeuten sollen, wie 10.000 EUR Einkommensabstand11