Denken 3.0 - Frankfurter Allgemeine Archiv - E-Book

Denken 3.0 E-Book

Frankfurter Allgemeine Archiv

0,0

Beschreibung

Das eBook "Denken 3.0" zeigt die Entwicklung der Computertechnik vom Versuch, Maschinen das Denken beizubringen, über die Digitalisierung des Wissens und Lebens bis zur Beeinflussung unseres Denkens durch die digitale Revolution. Namhafte Autoren und Wissenschaftler setzen sich mit Gefahren und Chancen des Internets und den Auswirkungen der Digitalisierung auf unser Denken auseinander. Berichten über die Künstliche-Intelligenz-Forschung und Speicherchips mit kognitiven Fähigkeiten folgen im Kapitel "Das digitale Gedächtnis" Beiträge über Digitalisierung, Daten- und Wissensspeicherung, Gedächtnis und Vergessen. Der nächste Abschnitt widmet sich sozialen Netzwerken und der Frage, wie sie unser Leben und Kommunikationsverhalten beeinflussen. Das Kapitel über das virtuelle Leben behandelt die Fragen: Sind Jugendliche besonders gefährdet, sich mit der virtuellen Welt zu identifizieren und eine Internetsucht zu entwickeln? Oder sind Internet und Multimedia-Anwendungen vielleicht sogar nützlich für unser Gehirn? Das letzte und entscheidende Kapitel diskutiert schließlich die Bereicherung und Bedrohung des menschlichen Gehirns durch das Internet und die Auswirkungen der digitalen Revolution auf unser Denken. Eine Autorenliste, Buchempfehlungen und Internetlinks zum Thema schließen das eBook. Unter den Autoren dieses eBooks sind F.A.Z.-Mitherausgeber Frank Schirrmacher, der amerikanische Computerwissenschaftler David Gelernter, der amerikanische Publizist Stephen Baker, der Psychologieprofessor und Leiter der Psychiatrischen Uniklinik in Ulm, Manfred Spitzer, der Professor für Medizinische Psychologie Ernst Pöppel, der Neurobiologe Martin Korte, der Philosophie-Professor Dr. Jürgen Mittelstraß und viele andere.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 256

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Denken 3.0

Von der künstlichen Intelligenz zum digitalen Denken

Herausgegeben von Frank Schirrmacher

F.A.Z.-eBook 23

Frankfurter Allgemeine Archiv

Projektleitung: Franz-Josef Gasterich

Produktionssteuerung: Christine Pfeiffer-Piechotta

Redaktion und Gestaltung: Hans Peter Trötscher, Birgitta Fella

eBook-Produktion: rombach digitale manufaktur, Freiburg

Alle Rechte vorbehalten. Rechteerwerb: [email protected]

© 2013 F.A.Z. GmbH, Frankfurt am Main.

Titelgestaltung: Hans Peter Trötscher.

Titelbild: © Vasabii / Fotolia; Sashkinw /istockphoto

ISBN: 978-3-89843-260-3

Einführung

Die Revolution der Zeit

Es ist, als kämen Buchdruck, mechanische Uhr und Kalenderreform in ein und demselben Moment. In der total vernetzten und digitalisierten Welt gibt es kein Jetzt mehr – und jeder Mensch muss sich in allen Zeitzonen zugleich zurechtfinden.

Von Frank Schirrmacher

Rätselhaftes »Ja« der Bundeskanzlerin. Man hätte es nicht entschlüsseln können, wenn nicht soeben amerikanische Wissenschaftler die Ergebnisse einer Studie veröffentlicht hätten, die die Auswirkungen von Google auf das menschliche Gedächtnis belegen. Sie sind beträchtlich. Das Papier, das in der Zeitschrift »Science« veröffentlicht wurde, bestätigt andere Forschungen, die belegen, dass die Menschheit damit begonnen hat, ihr Gedächtnis nach außen zu verlagern, und dafür den Preis der Vergesslichkeit zahlt.

Nüchtern und nicht pessimistisch beschreiben die Autoren dieses Phänomen: die digitale Demenz. Wir vergessen Dinge, von denen wir wissen, dass wir sie online finden können; und wir behalten solche, die wir nicht im Netz sammeln können. Es ist eine symbiotische und höchst ökonomische Operation. Unsere Spezies wird künftig eben das Internet brauchen, um sich erinnern zu können. Das haben übrigens auch schon frühere Studien gezeigt. Neu in seiner wissenschaftlichen und gar nicht mehr infrage zu stellenden Sachlichkeit ist die Schlussfolgerung der Autoren: »Die Erfahrung, unseren Internetzugang zu verlieren, wird mehr und mehr zur Erfahrung, einen Freund zu verlieren.«

Darum dieses rätselhafte »Ja«. Vor kurzem wurde Angela Merkel im ersten Stock eines schmucken Gründerzeitkastens irgendwo in Berlin von einem Journalisten gefragt, ob sie, als Handelnde, nicht auch unter dem Druck moderner Echtzeitkommunikation leide. Ja, sagte sie. Und dann fügte sie hinzu: Sie habe sich schon bei Dirk Kurbjuweit darüber beschwert, dass »Spiegel Online« ab 19 Uhr seine Inhalte so selten aktualisiere.

Das war es nicht, was der Journalist zu hören hoffte. Und vielleicht auch nicht Dirk Kurbjuweit. Denn der ist als Chef des Berliner »Spiegel«-Büros für Print zuständig, nicht für online. »Ja«, sagte sie – und dann das Gegenteil von dem, was man erwartet hätte. So ist es mit der Ambivalenz von Freunden, die einen manchmal nerven, einem die Zeit stehlen und die man trotzdem vermisst. Ohne die man sogar nicht mehr leben kann, so die Wissenschaftler der »Science«-Studie.

Jeder der Teilnehmer dieser Berliner Runde verfügte über eine Erweiterung seines Körpers: Jeder hatte ein iPhone in der Tasche, einer war auf Facebook, einer twitterte die Regierungspolitik, und irgendwann rief einer, nach kurzem Check auf dem Handy: »Eben wird gemeldet . . .« Das war der Zeitungsmann, der vorher von den Qualen der Echtzeitkommunikation geredet hatte. Nichts stimmte hier. Das Gespräch fand statt im ersten Stock des Turms von Babel.

Jeder baut fleißig mit an seinem Turm. Jeder lebt in diesem Widerspruch. Dass er immer weniger von dem versteht, was der Neben-Bauarbeiter plant, ausführt und hochzieht, ist längst signifikant. Man lese nur die sich oft in nichts mehr aufeinander oder gar auf den Leittext beziehenden Kommentare unter Blogs oder Artikeln. Man schaue auf die von der modernen Nachrichtenökonomie sichtbar gewordenen Kommunikationskrisen der europäischen Politik. Je unverbindlicher die Kommunikationsliturgien der Vergangenheit – von der »Tagesschau« bis zur Boulevard-Schlagzeile –, desto stärker keimt eine Hoffnung, die nicht nur religiös wirkt, sondern sich auch religiöser Metaphern bedient: Verleger warten auf den großen Architekten, der dem Bau irgendwann Sinn und Funktion gibt, Blogger und die digitale Avantgarde auf den großen Programmierer, der durch Vernetzung Sinn aus dem Zufälligen schafft, und Social-Media-Gläubige, zusammen mit der Werbeindustrie, warten auf den großen Psychologen, der das Unterbewusste des Netzes ummünzt in Erkenntnis oder Konsum.

Weißt du noch?

Vielleicht ist es an der Zeit, die Debatte der digitalen Bauarbeiter über das, was das Netz aus unserer Gesellschaft, aus den Zeitungen, dem Fernsehen, aus der Politik macht, mit ein paar Absperrungen zu versehen. Vielleicht kann man sich darauf einigen, dass niemand, wirklich niemand glaubt, dass das Internet wieder verschwindet oder auch nur verschwinden sollte. Vielleicht kann man diese öde Maschinenstürmer-Debatte beenden, mit der es sich gerade Teile der selbst ernannten digitalen Avantgarde so leicht machen; oder Politiker und neuerdings auch der Chef der Bundeszentrale für politische Bildung schnellen Applaus bekommen. Niemand wird mit dem digitalen Freund oder der digitalen Freundin namens Internet je brechen, auch wenn eine wachsende Gruppe die Verbindung nur unter Qualen und Fluchen und Zwang herstellt.

Die Forschungsergebnisse der Amerikaner zeigen, dass jetzt eingetreten ist, was schon vor vierzig Jahren Jeremy Rifkin in Anlehnung an die modernen Informationstheorien staunenswert vorausgesagt hat: »In der neuen Computerzeitwelt werden Entwicklung von Information und Entwicklung von Bewusstsein austauschbar und tautologisch.« Wir wissen, was wir jetzt wissen. Es geschieht, was wir jetzt wissen. Vergangenheit entsteht ständig neu und anders. Um Vergangenheit abrufbar zu machen, reichen immer seltener Bildungsinhalte, Feier- und Gedenktage oder ein fiktiver Kanon. Wie die Konsensherstellung bei Freunden mit dem »Weißt du noch?« ist es jetzt der Link, der im sozialen Netzwerk oder in einem Artikel diese spezifische Form von Vergangenheit heraufruft.

Denn das alles hat nichts mehr mit dem Ende der Gutenberg-Galaxie zu tun, mit »Print versus Digital« – und wer einen Großteil der steilen und größtenteils sich stets wiederholenden Thesen über die Zukunft des Journalismus liest, erkennt, dass dies nicht die Manifestation einer Überschätzung oder gar Hysterie ist. Es ist eine Unterschätzung dessen, was sich abspielt. Dazu gehören auch jene Netzintellektuellen, die nichts anderes tun, als die Technologiegeschichte der Vergangenheit in die Zukunft zu verlängern, sich über einfallslose Verleger oder Unternehmer zu mokieren und alte Paradigmen technologischer Revolution nachzuerzählen, von der Dampfmaschine bis zur Eisenbahn, von der Pferdedroschke bis zum Auto. Wo Zeitung war, wird Onlineportal sein, wo Politik war, kommt Partizipation. Kann sein, dass es so einfach war, als das Netz mehrheitlich aus »early adopters« bestand, also im letzten Jahrzehnt.

Heute ist das ungefähr so, als würde man sagen, dass die menschliche Kontrolle über Elektrizität ein Ereignis war, das den Menschen Licht, Kühlschränke und Waschmaschinen gebracht habe.

Warum ist der Anwendungsfall für die Größe der Revolution der Kosmos von Zeitschriften und Zeitungen? Warum redet im Augenblick niemand mehr über »liquid democracy«, warum ändern sich politische Strukturen nicht in der Weise, wie es die Theorie vorhersagte? Warum gibt es keinen nennenswerten Kulturkampf zwischen Amazon und dem deutschen Buchhandel, wohl aber zwischen Zeitungsverlegern (auch dem Verlag dieser Zeitung) und der »Tagesschau«? Gewiss, das ist Gutenberg, aber Gutenberg ist längst der kleine Bruder der großen Veränderung. Die Antwort liegt in den vier Buchstaben, die die Printmedien stolz in ihrem Titel führen: Zeit. Und in dem virtuellen Zifferblatt, das die hier überhaupt nur relevanten Fernsehformate betrifft: »Tagesschau« und »Heute«. Zwei der bislang mächtigsten Organisatoren von Chronologie kämpfen gegeneinander und mit dem Internet; aber in Wahrheit geht es nicht um Apps und auch nicht um Inhalte, sondern um die Definition von Zeit und den Zugang zur Zeit selbst. Das kann man bis in die trivialste Mikroebene hinein verfolgen: Die Absurdität des Dreistufentests, in dessen Konsequenz groteskerweise Bewegtbildinhalte des Fernsehers nur begrenzt gezeigt werden dürfen, ist keine Reglementierung von Inhalten, sondern eine Reglementierung von Zeit. In der Freundschaftsmetapher: Es ist, als würde man einen Freund mit den Worten einladen: »Komm für drei Wochen, aber dann nie wieder!«

Uhrwerk Universum.

Unsere Gesellschaft erlebt zwei technologische Revolutionen in atemberaubender Geschwindigkeit: Es ist, als würden Kalenderreform, Buchdruck und die Uhr, deren Erfindung (was die Räderuhr angeht) faktisch mehr als hundert Jahre auseinanderliegen und die erst im neunzehnten Jahrhundert wirklich zusammenfanden, in der gleichen Minute entwickelt und innerhalb eines einzigen Jahres das vollenden, wozu ihre Vorgängertechnologien Jahrhunderte brauchten. In seinem sehr hellsichtigen, lange vor dem Internet, Ende der achtziger Jahre erschienenen Buch »Uhrwerk Universum« hat Jeremy Rifkin erzählt, wie die ersten Turmuhren nichts anderes waren als soziale Netzwerke. »Sie wurden in der Mitte des Stadtplatzes aufgestellt und ersetzten bald die Kirchenglocken als Treffpunkt und Bezugspunkt für die Koordination der komplexen Interaktionen des Stadtlebens.«

Der Computer reproduziert diese Evolution, so wie er es immer tut: ungefähr tausend Mal schneller als sein Vorgängermodell. Von der Turmuhr über die Standuhr bis zur Taschenuhr vergehen Jahrhunderte; vom begehbaren Computermonstrum der sechziger Jahre, in dessen Zentraleinheit noch der junge Charles Simonyi rumspazierte, über die Rechenzentren, den Desktop, den Laptop und das Handy vergehen weniger als vierzig Jahre.

Das ist aber nur die materielle Ansicht des Sachverhalts. Es ist eines, ob man theoretisch im Physikunterricht lernt, dass die mechanische Zeit nicht alles und Greenwich nur ein Standard und die Raumzeit etwas ganz anderes ist. Solange man zum vierzigjährigen Betriebsjubiläum immer noch eine goldene Taschenuhr geschenkt bekam – ein Ritual, das mit dem Aufkommen der ersten Computer in der Arbeitswelt endet – und die Welt nach ihr tickte, ist die theoretische Erkenntnis ein purer Bildungsinhalt. Etwas ganz anderes aber ist es, wenn Leben und Arbeitswelt plötzlich im Takt des elektronischen Zeitgebers des Computers pulsieren. Das hat in der Arbeitswelt in einigen Branchen schon in den siebziger Jahren begonnen und wurde unter dem Stichwort »Rationalisierung« in das Kapitel »Arbeitsoptimierung« eingereiht, weil man nicht ahnte, dass das Konzept materieller Zeit im Begriff war, sich auch auf die soziale Zeit zu übertragen.

Erst jetzt sieht man, wie viel mehr es war. Die wegrationalisierten technischen Zeichner oder Setzer und Metteure der achtziger Jahre sind nur eine winzige Avantgarde gewesen. Für viele ist es heute schon selbstverständlich, dass es zwischen der E-Mail während der Arbeitszeit und der nach Feierabend keinen Unterschied gibt. Nicht die Zeit organisiert die Informationen, die Informationen organisieren die Zeit.

Selbst als der Prozess schon in Gang war, hat keiner aus der traditionellen Medien- und Kommunikationsindustrie geahnt, dass wir eine Zeitrevolution erleben werden, die ihm nicht etwa die Herrschaft über die Meinungen, sondern die über die Zeit entreißen würde. Der große Marshall McLuhan hat dies – lange vor den Veränderungen – folgendermaßen erklärt: »Wenn der Zauber eines Spielzeugs oder einer Erweiterung unseres Körpers neu ist, entsteht zuerst eine Narkose oder Betäubung angesichts der neuen Amplifikationen. Die Klagen über Uhren begannen erst, als im neunzehnten Jahrhundert das elektrische Zeitalter zur Unstimmigkeit mit der mechanischen Zeitmessung führte.«

Es spricht einiges dafür, dass künftige private, intellektuelle und soziale Konflikte an dieser neuen Unstimmigkeit von Internet-Zeit und Realzeit ausbrechen werden – die Zeitungen und das Fernsehen sind auch hier nur die Vorreiter. Es ist eine inhaltliche Aussage, wenn die ARD einen Film um 0.30 Uhr ausstrahlt. Für Facebook oder Google und übrigens auch für staatliche Überwachungsorgane ist es eine inhaltliche Aussage, wenn jemand um 0.30 Uhr diesen Film sieht. Oder permanent um vier Uhr morgens kommuniziert.

Vor Sonnenaufgang.

Jeder Mensch wird künftig in seinem persönlichen Leben mindestens so viele verschiedene Zeitzonen haben, wie es sie heute auf dem Erdball gibt. Irgendwo in seinem Leben wird es sechs Stunden früher sein – nämlich dort, wo er die Facebook News der letzten Stunden liest; irgendwo sechs Stunden später, dort, wo er sich mit Googles »predictive search« die Gegenwart berechnen lässt (wie wird das Konzert, wann muss ich losfahren, was will ich suchen?), die zum Zeitpunkt der Suche noch Zukunft ist.

Die Greenwich-Zeit entstand, weil die Eisenbahngesellschaften ihre Fahrpläne aufgrund der Vielzahl von Zeitzonen nicht mehr umsetzen konnten. Jetzt erleben wir im Bereich der sozialen Kommunikation die vollständige Revision dieser Normierungen. »Wir suchen«, schreibt McLuhan, »nicht mehr die Wiederholbarkeit, sondern die Mannigfaltigkeit von Rhythmen. Das ist der Unterschied zwischen marschierenden Soldaten und einem Ballett.«

Jetzt, wo öffentlich-rechtliches Fernsehen trotz berechtigter Kritik immer noch eine Errungenschaft unserer Gesellschaft ist und Verlage wie Soldaten aufeinander losmarschieren, ist selbst das Wesen dieses Konflikts fast schon anachronistisch. Man lädt sich ja auch nicht gerne Freunde ein, die sich am festlichen Tisch um das Bier prügeln. Man lädt sie sich ein, weil sie Zeit verändern. Die Überforderung durch digitale Technologien ist im Wesentlichen der Konflikt zwischen verschiedenen, in Konflikt stehenden Zeitebenen.

Das beginnt schon bei den Schulen, die im Wesentlichen die Zeitvorstellung der ersten industriellen Revolution verkörpern. Die Konsequenz daraus ist eben nicht, noch schneller, kürzer, atemloser zu werden. Das führt, das haben die letzten Monate gezeigt, nur zur Erfahrung zyklischer oder verschwendeter Zeit. Was wissen wir über Strauss-Kahn? So viel wie vorher. Wie viel Zeit haben wir verschwendet, weil wir Lügen und Erfindungen lasen?

Es könnte sein, dass Zeitungen und Zeitschriften und die seriösen Nachrichtensendungen eine ganz andere Zukunft haben. Sie wären das letzte verbliebene Kommunikationsmittel, die in einer elektronischen Welt die Zeit biologisch organisieren: gleichsam mit Aufgang und Untergang der Sonne. Oder mit den Mondphasen – wenn es um Wochenpublikationen geht –, die wir uns in den Begriff der »Woche« übersetzt haben. Der Markt für diese Exklusivität von Zeit wird wachsen, nicht schrumpfen, wenn die Zeit der Narkose vorbei ist.

Aus der Frankfurter Allgemeinen Sonntagszeitung vom 17.7.2011

Künstliche Intelligenz

Statistik siegt über Hermeneutik: Die Vorstellung, Computer müssten dem Geist ähneln, ist obsolet geworden.

Man muss es nicht verstehen, schnell genug sein reicht

Von Manuela Lenzen

Als das Philosophieren noch geholfen hat, erdachte der Philosoph John Searle ein Gedankenexperiment: In einem Zimmer sitzt ein Mensch, der Fragen zu chinesischen Geschichten beantworten soll, ohne Chinesisch zu verstehen. Er bekommt Zeichenrollen hereingereicht und soll anhand von rein formalen Instruktionen die richtigen Zeichen herausreichen.

Das kann nicht gehen, meinte Searle, und ebenso könne kein Computerprogramm menschliche Intelligenz erlangen. Inzwischen hat die Künstliche-Intelligenz-Forschung das Gedankenexperiment durch ein reales ersetzt: die Übersetzungscomputer. Und siehe da, es geht. Zwar nicht perfekt, aber immer besser. Dabei braucht nicht nur der Computer kein Wort von dem zu verstehen, was er übersetzt, nicht einmal die Entwickler der Übersetzungsprogramme benötigen Sprachkenntnisse. Heute stehen so viel Rechenkapazität und so große Datenmengen zur Verfügung, dass Quantität in Qualität umschlägt. Neue Programme übersetzen Wort für Wort und nutzen bei Mehrdeutigkeiten den Kontext, um sich für die beste Variante zu entscheiden. Ein riesiger Korpus von übersetzten Texten mit Milliarden von Wörtern in unterschiedlichsten Zusammenhängen ermöglicht Programmen, ohne jedes Sprachverständnis Begriffe zu vereindeutigen. Statistik ersetzt Sinnverstehen.

Da staunt der Mensch und schaut zu: Roboter nehmen dem Menschen viel Arbeit ab, nach den körperlichen Tätigkeiten könnten Maschinen auch die intellektuellen übernehmen. F.A.Z.-Foto / Daniel Pilar

In der KI-Forschung setzt sich ein neuer Trend durch, meint Frank Puppe von der Universität Würzburg: An die Stelle von »Wissen ist Macht« treten »Daten sind Macht« und »Hardware ist Macht«, statistische Lernverfahren verdrängen das Knowledge Engineering (»Explizites Wissen versus Black-Box-Ansätze in der KI«, in: Künstliche Intelligenz, online first 27. Oktober 2010). Damit kehrt die Forschung sich von der Doppelstrategie ab, durch das Bauen künstlicher intelligenter Systeme zugleich das Funktionieren des menschlichen Geistes besser verstehen zu wollen. Wer eine intelligente Maschine bauen will, muss sich offenbar nicht unbedingt an der menschlichen Intelligenz orientieren.

Forscher haben lange darüber gerätselt, wie sie das in jahrzehntelanger Berufspraxis gesammelte, doch niemals explizit gemachte Wissen, das den menschlichen Experten ausmacht, dem Computer zur Verfügung stellen könnten. Schachweltmeister Michail Botwinnik versuchte gar, einem Schachprogramm ein Gefühl für Positionen und Stellungen zu vermitteln. Heute kommen Schachprogramme ohne solche Anleihen aus. Schachcomputer spielen nicht wie Menschen und trotzdem besser. Sie kämmen in Augenblicken riesige Suchräume durch und generieren ihre Heuristiken selber. Ist der Datenkorpus, auf den ein System zugreifen kann, nur groß genug, kann Statistik an die Stelle des so schwer zu formalisierenden Allgemein- und Hintergrundwissens treten.

»Unmenschlich« nennt Puppe Such- und Planungsverfahren, die auf Techniken beruhen, die zwar in der Logistik, beim Militär oder in der Raumfahrt erfolgreich im Einsatz sind, für den menschlichen Geist aber eine Black Box darstellen: Wie Vektormaschinen und künstliche Neuronale Netze zu ihren Ergebnissen kommen, kann der Mensch zur Kenntnis nehmen, vorausberechnen oder im Detail verstehen kann er es nicht. Die Anzahl der Berechnungs- und Speichereinheiten bei Computern und Gehirnen ist ungefähr gleich, meint Puppe, nur mit dem Tempo hapert es beim Menschen: Er rechnet eine Million Mal langsamer, Verbesserungen nicht in Sicht. Dazu kommt die Beschränkung des menschlichen Kurzzeitgedächtnisses auf etwa sieben Elemente.

Computer können mit ganz anderen Typen von Algorithmen umgehen als der Mensch, so Puppe, doch ganz abgehängt ist der Mensch deshalb nicht. Zum einen benötigen die »unmenschlichen« Verfahren große, gut sortierte Datenbestände und die sind längst nicht überall zu haben. Bis ein Diagnosesystem für einen Neuwagen fertig ist, ist der schon wieder alt. Menschen hingegen können auch aus wenigen, manchmal sogar aus fachfremden Beispielen gute Analogien bilden. Zudem geht es häufig gar nicht oder zumindest nicht primär um Rechentempo: Die Bewertung von Examensarbeiten bleibt unbefriedigend, wenn keine guten Begründungen und Verbesserungshinweise mitgeliefert werden. In der Medizin geht nicht nur um die passende Diagnose, sondern auch darum, die Patienten von einer Behandlung zu überzeugen. Schlussfolgerungen, die kein Mensch nachvollziehen kann, sind da wenig hilfreich.

Ihren Sinn haben die verständnislosen statistischen Rechner hier eher als Assistenzsysteme, die den Mediziner an alle möglichen Diagnosen erinnert, damit dieser nicht vergisst, selten auftretende Krankheiten in Erwägung zu ziehen. Hier geht es um gute Synergieeffekte von Mensch und Maschine, so Puppe. Zudem spricht nichts dagegen, dass Mensch und Maschine sich mit ihren unterschiedlichen Fähigkeiten ergänzen. Dennoch werde die Frage, wie man aus Black-Box-Verfahren Wissen in menschenfreundlicher Form herausholen kann, immer wichtiger. Hier kann dann vielleicht doch wieder das menschliche Gehirn als Vorbild dienen, denn es funktioniert auch nicht anders als eine Black Box im Kopf: ein größtenteils unbewusst arbeitendes Organ produziert hin und wieder ein nachvollziehbares Ergebnis. Bleibt abzuwarten, wie die Black Boxes es fertigbringen, sich gegenseitig verstehen zu lernen.

Aus der Frankfurter Allgemeinen Zeitung vom 2.2.2011

Supercomputer »Watson«: Die intellektuelle Enteignung des Menschen

Ist »Watson« klüger als wir alle? Der Supercomputer, der unsere Sprache versteht und sogar Wortspiele durchschaut, hat jetzt die schnellsten Denker endgültig in Grund und Boden gespielt.

Von Detlef Borchers

Ursprünglich sollte er Brainiac heißen, als Hommage an den ersten Universalrechner Eniac, der 1946 Jahren seine Arbeit aufnahm. Doch Eniac wurde nicht von IBM gebaut, die sich anlässlich ihres hundertsten Geburtstags sehr geschichtsbewusst gibt. So trat der Supercomputer »Watson« – benannt nach Thomas J. Watson, der den Firmennamen einführte – zum direkten Vergleich Mensch gegen Maschine an. Drei Runden in der Quizshow »Jeopardy!« gegen zwei wahre Großmeister sollten zeigen, ob ein sprachbegabter Superrechner in einem Denkspiel, in dem es nicht nur um das schnelle Abrufen von Daten geht, sondern auch um das intelligente Lösen von Rätseln und das richtige Deuten von Wortspielen, dem Menschen schon das Wasser reichen kann. Der Computer siegte am Ende haushoch.

Zum Video: Watson in der Quizshow »Jeopardy!«

Watson, das sind zehn kühlschrankgroße »Racks«, gefüllt mit insgesamt neunzig sogenannten »Power750-Server-Blades«. 2880 Prozessoren bearbeiten so das Wissen der Welt in einem fünfzehn Terabyte großen Arbeitsspeicher. Das Material, in dem Watson suchen durfte, ist gigantisch: alle englischen Texte aus dem Projekt Gutenberg, die komplette Wikipedia, die Inhalte der letzten zehn Jahre aus der »New York Times«, zahlreiche Wörterbucher und Thesauri. Das bei Menschen so beliebte Googeln war dem Rechner untersagt. Vier Jahre brauchten rund hundertvierzig Wissenschaftler von IBM und acht am Projekt beteiligte Universitäten, um Watson das Spiel beizubringen. Nichts wurde dem Zufall überlassen. Ein eigenes Team studierte die Sprechweise und Atemtechnik des Spielleiters Alex Trebek, berechnete seine Lesegeschwindigkeit und analysierte die Betonungen: Drei Sekunden hatte Watson maximal Zeit zum Nachdenken, ehe er den Summer – das »Ich hab’s«-Zeichen – auslöste.

Ein weiteres Team von Finanzexperten beschäftigte sich ausschließlich damit, dass Watson die Geldeinsätze in jeder der drei Spielrunden möglichst minimal halten sollte. Zu groß war die Angst leitender IBM-Manager, dass der Computer einen »Cliff Clavin« bauen, durch einen zu hohen Wetteinsatz sein Spiel verlieren könnte. Schließlich sind Banken die besten Geschäftspartner von IBM. Frühzeitig entschieden die Spielstrategen, dass sich Watson auf den sogenannten »Daily Double« konzentrieren sollte, bei dem allein der das Double wählende Spielkandidat mit einer richtigen Frage auf die Antwort reagieren muss. Diese Strategie erwies sich als richtig.

Auf die Frage des Spielleiters »What is eminent domain?« – Was ist eine Enteignung? – fand Watson die passende Lösung auf die Vorgabe: »Die gesuchte Wortkombination beschreibt die Macht, privates Eigentum gegen Kompensation zum öffentlichen Nutzen zu übernehmen.« Dass ausgerechnet der englische Begriff für Enteignung die Enteignung der menschlichen Spezialität vom Sinn-Erraten in doppeldeutigen Sätzen durch den Rechner beschließt, passt zu dem Humor, der Watson ebenfalls einprogrammiert wurde. So heißt das in Watson arbeitende Programm »DeepQA« – eine Referenz an »DeepBlue«, jenen Rechner, der den Schachweltmeister Kasparow geschlagen hatte. Dessen Namensvorbild war »Deep Thought«, der Großcomputer in Douglas Adams’ Roman »Per Anhalter durch die Galaxis«.

Beauftragt, den Sinn des Lebens zu errechnen, fand dieser nach siebeneinhalb Millionen Jahren die Antwort: 42. Die Kernsoftware von Watson hört auf einen Namen, den sich Adams ausgedacht haben könnte: »Unstructured Information Management Application« ist eine Software, in der viele Module unabhängig voneinander gleichzeitig an einer Frage arbeiten und am Ende votieren, welche Antwort wahrscheinlich die treffendste ist. Die Algorithmen werden von IBM als Open Source zur allgemeinen Verwendung freigegeben und vom Apache-Projekt betreut.

Das derzeit wichtigste Einsatzgebiet des Programms ist das »Open Health Natural Language Processing«. Sämtliche medizinischen Informationen zu einem Patienten in strukturierter und unstrukturierter Form inklusive seiner mündlichen Berichte werden von Modulen ausgewertet, bis das Gesamtsystem eine Diagnose geben kann. In der zweiten Spielrunde hatte Watson einen Schnitzer eingebaut und gegen die Menschen verloren. Gesucht war die Frage nach einer Stadt, und der Hinweis lautete: »Sein größter Flughafen wurde nach einem Helden aus dem Zweiten Weltkrieg benannt, sein zweitgrößter nach einer Schlacht im Zweiten Weltkrieg. »Was ist Toronto?« fragte Watson. Chicago wäre die gesuchte Stadt gewesen. Prompt kassierte der offizielle Watson-Blog im Internet sarkastische Kommentare. »Was ist, wenn euer toller Rechner mir einen Leberschaden diagnostiziert, ich aber einen Beinbruch habe?« »Es zeigt, dass immer noch ein Arzt nötig ist«, antwortete Projektleiter David Ferrucci trocken.

Für Computerexperten wie Ferrucci ist Watson technologisch ein Riesenschritt. Auf seine Weise knüpft das Projekt an die klassische »künstliche Intelligenz« an. Sie hatte schon unter anderem das medizinische Expertensystem »Mycin« hervorgebracht. Mycin konnte sich bei den Ärzten bisher aber nicht durchsetzen, sie bezeichneten das System als »schwer durchschaubar«. Das soll mit Watson jetzt anders werden: Watson diagnostiziert, indem er sagt: Gib mir dein Problem, ich werde es in seiner ganzen Komplexität analysieren, eine ganze Menge Antworten generieren und dann nach Hinweisen suchen, um dir die plausibelste Antwort zu präsentieren. Auf der Cebit in Hannover wird im März 2011 eine deutschsprachige Version von Watson präsentiert.

Aus der Frankfurter Allgemeinen Zeitung vom 18.2.2011

»Kognitive Speicherchips«: Wie schafft man ein Menschenhirn?

Ein Halbleiterchip von IBM verspricht die Simulation kognitiver Fähigkeiten. Dabei steht die Forschung noch am Anfang, und vieles wird immer Fiktion bleiben.

Von Joachim Müller-Jung

Wenn unsere Autos demnächst nicht nur selbständig einparken, sondern auch bremsen, lenken und die Parkgebühren bezahlen, warum sollten wir uns dann nicht schon bald von Maschinen mit »Menschenhirn-Chips« das Leben nach unserem Gusto versüßen lassen? Von Apparaten, die uns in ihrer Arbeitsweise und ihrem Denken vielleicht schon so ähnlich geworden sind, dass man der Technik plötzlich nicht nur humanoide Züge zurechnen, sondern berechtigterweise von menschlichen Replikaten sprechen könnte. Im Falle des »kognitiven Chips« wird uns das nahegelegt. Forscher des Computerkonzerns IBM haben ihn kürzlich mit einigem Rummel präsentiert und ihn der Welt als aussichtsreichen Vertreter einer neuen Generation menschengleicher Denkmaschinen angepriesen. »Der Aufstieg der denkenden Maschinen«, war zu lesen. Die Medien waren verzaubert. Verzaubert von dem geschickt gewählten Namen, der höhere, also menschliche Intelligenz suggeriert: Kognition. Auch der Gedanke dahinter, dass die Verarbeitung und Übertragung von Information auf dem Chip praktisch wie in unserem eigenen, anerkanntermaßen genialen Denkorgan ablaufen könnte, hat es den Propagandisten des kognitiven Chips leichtgemacht, die ferne Utopie wie einen großen Moment der aktuellen Zeitgeschichte aussehen zu lassen.

Tatsächlich ging es jedoch lediglich um zwei Prototypen eines frisch entwickelten Siliziumchips, der flexibel leitende, also gewissermaßen lernfähige Leitungsbahnen besitzt und damit auf primitivstem Niveau die neuronalen Netzwerke des Gehirns simulieren soll. Das Entscheidende: Transistoren und die Einheiten für Gedächtnis, Verarbeitung und Kommunikation sind aufs engste miteinander verknüpft, Effizienz ist das oberste Signalleitungsgebot. Neue Materialien waren dazu erst einmal nicht erforderlich. Erklärtermaßen zielte IBM mit der massiv parallel arbeitenden Computerarchitektur aufs Energiesparen ab – eine der in der Tat herausragenden Eigenschaften des menschlichen Gehirns. Muss man aber, um das zu erreichen, das Hirn bis aufs i-Tüpfelchen simulieren? Oder hier treffender: wenigstens den Anschein der Simulation erwecken?

Vor Jahren hatte der Nachbau des Gehirns als futuristisches Großprojekt schon einmal weit über die Zukunftsforschung hinaus regelrecht elektrisiert. Da ging es darum, lebendige und technische Intelligenz buchstäblich miteinander zu verschmelzen. Solche hybriden Chips oder »Neurochips«, auf denen Nerven und Drähte quasi verschmelzen und Informationen austauschen, hatte der Münchener Biophysiker Peter Fromherz am Max-Planck-Institut für Biochemie entwickelt. Obwohl der eine Teil, der Chip, Elektronen nutzt zur Signalerzeugung und der andere Ionen, hat Fromherz es geschafft, dass die Halbleiterbauteile auf dem Chip zuerst die Entladungen der Nervenzellen erfassen und später, umgekehrt, die Nerven die elektrischen Signale von den Chips verstehen. Mit der Firma Infineon wurden die Neurochips vor fünf Jahren weiterentwickelt, in Petrischalen und auf mikroskopischen Hirnschnitten von Tieren getestet. Bis zu 16.000 Halbleiterelemente wurden mit dem Hirngewebe gekoppelt. In Padua werden nadelförmige Varianten dieser Hirnchips neuerdings auf nadelförmigen Implantaten in Rattenhirne verpflanzt, um zu testen, ob sich die Hirnchip-Module in die Schaltzentrale für die Motorik einbauen und prothesenhaft als Informationsvermittler für Bewegungsbefehle verwenden lassen. Dazu Fromherz: »Man zupft an den Schnurrhaaren und misst mit den Transistoren.«

Ratten, Hasen, Schnecken, Hirnpräparate – das sind die Übungsplätze der Neurochipforschung. Man denkt an Neuroprothesen für Auge oder Ohr, die an der Verwirklichung schon so nahe dran sind, dass sie teilweise schon einigen Patienten Erleichterungen gebracht haben. Und wie steht es um das Gedächtnis, den menschlichen Verstand? Eine kognitive Verschmelzung von Menschenhirn und Technik wagt von den Forschern keiner zu propagieren.

In der Originalpublikation der IBM-Chipentwickler liest man da ganz anderes. Dort wird das »cognitive Computing« heraufbeschworen und mit der Idee gespielt, »dank neuer Durchbrüche in der Nanotechnik einen neuromorphen Chip herzustellen, der aus einer Million Nervenzellen und zehn Billionen Synapsen pro Quadratzentimeter besteht« – was bei einem angepeilten Volumen von zwei Litern der Leitungs- und Zelldichte des menschlichen Gehirns zumindest auf wenigstens zwei Größenordnungen nahe käme. Aber schon im Folgesatz des Artikels erscheinen die Chancen, dieses Maximalziel zu verwirklichen, als unkalkulierbar: »Die schlechte Nachricht ist«, so schreiben die Forscher, »dass bisher ja leider nicht einmal der Kernsatz von Algorithmen, mit denen das Gehirn arbeite, entdeckt worden ist.« Der Fortschritt ist auch hier eine Schnecke. Gut sechzigtausend wissenschaftliche Dokumente werden jedes Jahr veröffentlicht, die jeweils die Rolle eines bestimmten Gens, eines Moleküls oder Prozesse des elektrischen Verhaltens von Hirnzellen und ihrer Vernetzung beschreiben. Und doch braucht es, um auch nur die Rechenleistung einer einzelnen Nervenzelle zu simulieren, immer noch die Kapazitäten eines ganzen Laptops. Das Meisterstück der Evolution erscheint uns noch immer wie Magie.

Selbst also unter der streng naturwissenschaftlichen Annahme, dass sich der von den IBM-Forschern vermisste Kernsatz an Algorithmen, gewissermaßen der neuronale Code, als die entscheidende Instanz gelungener Kognition findet, bliebe die Frage der technischen Rekonstruierbarkeit immer noch offen. Der Golem ist weit. Mit anderen Worten: Die denkende Menschmaschine ist mit dem »Menschenhirn-Chip« zwar nicht wesentlich realistischer geworden, die Sehnsucht nach solchen Replikaten aber offensichtlich schon. Jedenfalls wird sie von Wissenschaftlern nach Kräften forciert.

Immer beherzter spielen viele von ihnen das Spiel mit der Fiktion. Es geht für sie ums Überleben im akademischen und kommerziellen Wettbewerb. Die Fördermittelquellen dürfen nicht versiegen. Sobald man in der Hirnforschung vorgeben kann, dem höchsten Ziel, nämlich der funktionalen Stufe des Menschen, näher gekommen zu sein, ist die Hochachtung so gut wie sicher. Und um diesen Anschein zu generieren, gibt es in der Forschung kein prägnanteres Mittel als das der Simulation und vor allem ihrer geschickten Interpretation. Es wird immer ausgefeilter und erzeugt eine Cyber-Realität mit Bildern und Effekten, die das unbedarfte Publikum leicht zu täuschen vermag und die Grenzen zwischen Wirklichkeit und Fiktion verschwimmen lässt.

Die Simulation ist zugleich wissenschaftliches Handwerkszeug und immer häufiger das Vehikel für die Popularisierung der eigenen Ziele. Für die Lebenswissenschaften und in der Biomedizin gilt das längst auch, aber in der Erforschung der künstlichen Intelligenz, KI, und Robotik hat sie eine durchaus besondere Tradition. Seitdem Alan Turing vor sechzig Jahren spekulierte, ob Rechenmaschinen irgendwann vielleicht im selbständigen, intentionalen Denken dem Menschen ebenbürtig sein könnten, wurde diese Frage immer wieder gestellt: Kann die Maschine denken wie ich?

Vor kurzem war es auf dem Technik-Festival im indischen Guwahati, wo der von dem britischen KI-Forscher Rollo Carpenter entwickelte »Cleverbot« neben dreißig Freiwilligen einen anonymen Vier-Minuten-Chat absolvierte und sechzig Prozent der mehr als eintausenddreihundert Prüfer am Bildschirm davon überzeugte, dass es sich bei ihm um einen menschlichen Chatpartner handeln müsse. Von seinen menschlichen Konversationspartnern glaubten das nur wenig mehr: 63 Prozent. Der Rechner mit dem Computerprogramm Cleverbot habe, so schrieb danach die britische Zeitung »Independent«, die das Spektakel beobachtet hat, den Turing-Test erfolgreicher als kaum eine andere Maschine vor ihm absolviert, aber so clever wie der Mensch sei er halt immer noch nicht.

Jedenfalls sprachgewandt und nicht ohne Witz war er wohl. Als Cleverbot gefragt wurde: Weißt du, was der Turing-Test ist?«, antwortete er: »Turing-Test? Keine Ahnung, was das sein soll.« Letzten Endes war es wie bei dem sprachfähigen Spiele-Supercomputer »Watson« keine menschenähnliche Intelligenz, sondern softwaregetriebene Imitation, gepaart mit enormer Rechenkapazität, die zu den menschenähnlichen mentalen Qualitäten des Rechners geführt hatte.

In der Szene der KI-Forschung schwelt seit Jahren die Diskussion, ob das Ziel tatsächlich die Simulation des menschlichen Gehirns in all seinen Aspekten mit Hilfe von Computern sein sollte, wie es etwa Hunderte im »Human Brain Project« versammelte Experten verfolgen, oder ob die buchstäbliche Nachbildung – die Emulation – der Hirnarchitektur und womöglich die vollständige materielle Verknüpfung, wie sie Softwarepionier Ray Kurzweil vorschwebt, vielversprechender seien. Der Wunsch dahinter klingt fast immer ähnlich: Denken nachbilden, Gedächtnis optimieren und – auch daran denken die krudesten Vordenker des Cyberhirns – die Realisierung von maschinellem Bewusstsein. Der Weg dahin ist freilich umstritten. »Wir mussten doch auch nicht den Vogel neu erfinden, damit wir fliegen konnten«, meint dazu der amerikanische KI-Forscher Ben Goertzel. Den Vogel vielleicht nicht, könnte man darauf antworten, aber den Flügel bestimmt. Und das war harte Arbeit genug.

Aus der Frankfurter Allgemeinen Zeitung vom 13.9.2011

Simulanten des Gehirns: Kann man das Denkorgan nachbauen?

Unterkomplex: Was im Computer und Labor wächst

Von Joachim Müller-Jung

Kaum einer, der vor anderthalb Jahren »Watson« in der amerikanischen Quizsendung »Jeopardy!« erlebte, konnte sich der Faszination des unsichtbaren Androiden entziehen. Der Supercomputer beantwortete mit atemberaubender Leichtigkeit und in annähernd natürlicher Sprache die gestellten Fragen und besorgte sich aus einer gewaltigen Datenbank die Fakten, die er zur Beantwortung der Fragen benötigte – erfolgreicher als die beiden bis dahin erfolgreichsten Spieler aus dem amerikanischen Kulturkreis des Homo sapiens. Watson schien das menschliche Gehirn nicht nur zu imitieren, er war in der Verarbeitung bestimmter Informationen sogar leistungsfähiger. Die meistgestellte Frage lautete deshalb auch: Wie nah sind Ingenieure und Informatiker der Simulation unseres Gehirns schon gekommen?