Die Intelligenz der Evolution - Ray Kurzweil - E-Book

Die Intelligenz der Evolution E-Book

Ray Kurzweil

2,4
9,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Der Visionär, der bislang richtig lag Beschleunigung ist das Gesetz der Zeit. Der entfesselte Fortschritt reißt alle Grenzen nieder. Computer überflügeln den Menschen in allen Belangen der Intelligenz und entwickeln Bewusstsein. Der Mensch »verbessert« seine natürliche Ausstattung mittels Gentechnik und Neuro-Implantaten. Ein neuer Evolutionssprung kündigt sich an. Der Computerpionier Ray Kurzweil hat unser Informationszeitalter mitgeprägt. Nun beschreibt er die digitale Revolution unseres Jahrhunderts. Seine Prognosen für die ersten beiden Jahrzehnte des 21. Jahrhunderts sind erstaunlich präzise. Um das Jahr 2029 kann das menschliche Gehirn »gescannt« und in einem Computer dupliziert werden. Die Debatte über das Bewusstsein und die Würde der Maschinen setzt ein … Eine atemberaubende Vision, die weitreichende ethische und philosophische Fragen aufwirft. Im Vorwort schreibt Ranga Yogeshwar: »Dieses Zukunftsbuch ist ein Beleg für Kurzweils großartigen Instinkt. Es strahlt noch immer eine besondere Frische aus.«

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 643

Bewertungen
2,4 (14 Bewertungen)
0
5
0
4
5
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Ray Kurzweil

Mit einem Vorwort von Ranga Yogeshwar

Die Intelligenz der Evolution

Wie Mensch und Computer verschmelzen

Aus dem Amerikanischen von Helmut Dierlamm, Enrico Heinemann, Ute Mihr, Thomas Pfeiffer, Reiner Pfleiderer

Kurzübersicht

Buch lesen

Titelseite

Inhaltsverzeichnis

Über Ray Kurzweil

Über dieses Buch

Impressum

Hinweise zur Darstellung dieses E-Books

Inhaltsverzeichnis

Vorwort

Hinweis an den Leser

Prolog Eine unerbittliche Glückssträhne

Der Übergang ins 21. Jahrhundert

TEIL I Die Vergangenheit unter der Lupe

Kapitel 1 Das Gesetz von Zeit und Chaos

Kapitel 2 Die Intelligenz der Evolution

Kapitel 3 Vom Bewusstsein und von Maschinen

Kapitel 4 Eine neue Form von Intelligenz auf Erden

Kapitel 5 Kontext und Wissen

TEIL II Die Vorbereitung der Gegenwart

Kapitel 6 Der Bau neuer Gehirne …

Kapitel 7 … und Körper

Kapitel 8 1999

TEIL III Blick in die Zukunft

Kapitel 9 2009

Kapitel 10 2019

Kapitel 11 2029

Kapitel 12 2099

Epilog Ein Blick zurück auf den Rest des Universums

Dank

Anhang

Wie man mittels dreier einfacher Paradigmen eine intelligente Maschine baut

Inhaltsverzeichnis

Vorwort

Selten hat sich mir in einem Gespräch ein derartiger Kontrast offenbart. Meine Diskussionspartner auf dem Zukunftsforum in Dresden[*] hätten nicht unterschiedlicher sein können: Tim Berners-Lee, der Erfinder des World Wide Web, ein zurückhaltender und fast schüchtern wirkender Mann, ihm gegenüber Ray Kurzweil, perfekt gekleidet, provokant und erfüllt von tiefem Glauben an das technisch Machbare. Der überzeugte Technokrat traf auf den nachdenklichen Idealisten, und gemeinsam diskutierten wir über die zukünftige Entwicklung der digitalen Welt.

Während Berners-Lee offen darüber sprach, dass er sich die fulminante Entwicklung des Internets nie hätte vorstellen können, als er 1989 am europäischen Forschungszentrum CERN den Grundstein für das World Wide Web legte, schien Kurzweil die weitere digitale Entwicklung als eine logische und durchaus kalkulierbare Folge von Einzelschritten zu begreifen. Mit der kalten Präzision eines Mathematikers, der eine Gleichung auflöst, beschrieb er, wie durch die fortlaufende Verdopplung von Rechnerleistung und Speicherkapazität Computer bereits in den Zehnerjahren des 21. Jahrhunderts ein menschliches Gehirn vollständig simulieren werden. Wenige Jahre später können Maschinen dann die Gehirne sämtlicher auf der Erde lebender Menschen digital nachbilden. Berners-Lee verwendete Wörter wie »könnte«, »möglich«, »vielleicht«, ein Duktus, geprägt vom Zweifel und von der Vorsicht eines Wissenschaftlers, der eine Entwicklung als offenen Prozess begreift, voller Überraschungen und unvorhersehbarer Wendungen. Das Vokabular, das Ray Kurzweil benutzte, offenbarte hingegen, dass ihm Zweifel vollkommen fremd sind: Es wird so kommen!

Die Visionen, die er an diesem Nachmittag beschrieb, beschränkten sich nicht nur auf intelligente Algorithmen, selbstlernende Roboter, exponenziell anwachsende Leistungsdichten und Supercomputer im Mikroformat, sondern mündeten in der Feststellung, dass wir Menschen dank Gentechnik, Nanochirurgie und weiterer zu erwartender medizinischer Fortschritte um das Jahr 2099 unsterblich würden! Maschinen und Menschen würden dann ein neues Zeitalter einläuten. Der Fortschritt ließe sich nicht bremsen, und schon bald würden Maschinen uns im Alter pflegen, bis unsere Körper dann per Update die Fesseln des biologischen Alterungsprozesses überwinden und Computer die Gedanken unseres Ichs per Download in die digitale Unsterblichkeit überführen würden. Während Tim Berners-Lee die Dominanz der Maschine als Bedrohung und Irrweg abtat und Themen wie Privatheit, die Offenheit des Webs oder die ökonomische Gier der Digitalkonzerne ansprach, blieb Kurzweil zuversichtlich wie ein Jünger, der seinen Messias erwartet. Auch wenn an diesem Nachmittag mit den beiden Protagonisten zwei Kulturen, die europäische und die amerikanische, auf irritierende Weise aufeinanderprallten, blieb das Gespräch doch überaus inspirierend. In der Vergangenheit hatte Kurzweil immer wieder Entwicklungen vorhergesagt, die dann zur Überraschung aller auch eintraten. Seine konsequenten Extrapolationen wirken mitunter wie Science-Fiction-Szenarien, doch in vielen Aspekten gibt ihm die Entwicklung recht.

Das vorliegende Buch ist ein Beleg für seinen großartigen Instinkt, ein Lackmustest für seine Vorhersagekraft. Es erschien 1999 in den USA unter dem Titel »The Age of Spiritual Machines« (in Deutschland im selben Jahr als »Homo S@piens. Leben im 21. Jahrhundert – was bleibt vom Menschen?«), und bei der Lektüre mag man sich wundern, wie aktuell seine Thesen noch immer sind. 1999, als dieses Buch erschien, gab es weder Facebook noch YouTube, es existierte noch kein Smartphone, und Google war gerade erst gegründet worden.

Dieses Zukunftsbuch, das Sie in Händen halten, wurde vor 18 Jahren geschrieben, doch es strahlt noch immer eine besondere Frische aus. Es scheint so, als teilen Kurzweils Gedanken nicht das Schicksal vieler historischer Zukunftsprognosen, über die man heute oft nur lächeln kann. Das mag damit zu tun haben, dass solche Szenarien meist am Folgenden kranken: Sie versuchen sich an einem Zukunftsentwurf und verlassen doch nie die Perspektive und die Kategorien ihrer jeweiligen Gegenwart. Sie sind eingesperrt im Denken ihrer jeweiligen Zeit und stellen so am Ende lediglich eine Zukunft von gestern dar, die mit den Wendungen und Sprüngen des realen Fortschritts nicht mithalten kann. Ausgeblendet bleiben dabei nämlich meist die Konsequenzen des Fortschritts für uns und unser Denken. Das Neue ist kein »Erweiterungspaket« in einer Welt, die ansonsten so bleibt, wie sie ist. Das Neue verändert uns selbst – unser Denken, unsere Gefühle, unser Selbstbewusstsein, unsere Bedürfnisse und unsere Träume.

Mit dem Neuen werden also auch wir selbst zu anderen Menschen, und genau dies macht Zukunftsprognosen so schwer. Die digitale Revolution führt uns auf eindrucksvolle Weise vor Augen, wie fundamental sich selbst elementare menschliche Interaktionen verändern. Wer hätte 1999 schon geahnt, dass inzwischen Algorithmen mit einer beängstigenden Treffsicherheit Paare zusammenbringen, über Bankkredite entscheiden oder dass selbstlernende Software unsere Konsumwünsche erahnt. Die Trägheit unseres Denkens erweist sich als Falle, denn wir sind unfähig, uns eine radikal andere Welt vorzustellen. Ganze Industriezweige wurden zum Opfer ihrer vermeintlichen Sicherheit, die sich auf den gewesenen Erfolg berief. Doch nur weil wir gestern reüssierten, ist das keine Garantie für die zukünftige Entwicklung. Die Falle der linearen Extrapolation schnappt gerne zu im Zeitalter disruptiver Entwicklungen, und die Geschichte nennt uns viele Beispiele von Giganten, die plötzlich von der Bühne abtreten mussten: Eastman Kodak verbuchte im Ersterscheinungsjahr dieses Buchs einen Gewinn von 2,5 Milliarden US-Dollar und beschäftigte weltweit über 140000 Menschen. Heute ist der Fotopionier zu einem unscheinbaren Zwerg geschrumpft. Man hatte die Zukunft verschlafen. Hätten die Verantwortlichen damals die Thesen von Ray Kurzweil ersnt genommen, wäre ihnen dieses Schicksal womöglich erspart geblieben.

Wenn Sie dieses Buch lesen, wird Ihnen die bemerkenswerte Treffsicherheit von Rays Prognosen auffallen: Das Internet der Dinge, die Entwicklung des Cloud Computing oder die Spracherkennung moderner Smartphones werden von ihm klar vorhergesagt. Im Oktober 2010 veröffentlichte er ein Papier mit dem Titel »How My Predictions Are Faring«[**], in dem er seine eigenen Thesen von 1999 überprüfte. Die Trefferquote liegt bei beachtlichen 86 Prozent!

Was ist Kurzweils Geheimnis? Zunächst ist er kompetent. Er versteht die moderne Technologie, hält selbst zahlreiche Patente und hat mehrfach gezeigt, wie man technische Neuerungen auch kommerziell lukrativ umsetzen kann. Sein Name glänzt in der National Inventors Hall of Fame, und seit 2012 ist er Director of Engineering bei Google. Ray Kurzweil zählt also nicht zu den Blendern, die einem modischen Trend folgen und ihr Publikum mit einem Arsenal von »buzzwords« beeindrucken. Er begreift, analysiert, extrapoliert und vollzieht diesen Prozess auf eine dogmatisch rationale Weise. Für ihn sind exponenzielle Wachstumsraten ein Gesetz. Technische Innovationen scheinen sich in seiner Welt frei von gesellschaftlicher Skepsis und Angst entfalten zu können. In diesem geschlossenen Raum, den er sich selbst setzt, vollzieht sich der Fortschritt in ungestörten Bahnen. Er wird nicht von Menschen gelenkt oder gezügelt, sondern entwickelt sich aus sich selbst heraus. Homo sapiens selbst reduziert sich zum Ermöglicher des allmächtigen Fortschritts, der seine eigenen Regeln einfordert und irgendwann seinen Erschaffer zum Zuschauer einer sich autonom fortsetzenden Schöpfung machen wird. In Rays Welt wird das Machbare auch umgesetzt ohne Zögern oder gar Verzicht. Er fragt nicht, ob diese oder jene Evolution wünschenswert oder gar bedrohlich ist, sondern akzeptiert die innere Notwendigkeit der technischen Entwicklung an sich. Was machbar ist, wird auch realisiert.

Vielleicht mag man also die fulminante Trefferquote seiner Vorhersagen als Maß für den ungehemmten Fortschritt selbst deuten, den wir momentan als globales Phänomen erleben. Weder ethische Tabus noch Moratorien oder Regularien scheinen die galoppierende digitale Revolution aufzuhalten. Die Debatte um den Schutz unserer Privatsphäre, Manifeste namhafter besorgter Wissenschaftler, Appelle warnender Intellektueller – sie alle scheinen zu verpuffen in der Glut der digitalen Revolution, und manche fragen sich, ob sich dieser galoppierende Fortschritt überhaupt noch steuern lässt. Das politische Establishment hat bereits kapituliert vor der Komplexität des Neuen, und wir Bürger lassen uns allzu leicht von der Bequemlichkeit lenken, die uns die neuen Apparate bieten. Wir delegieren uns an Maschinen und tun dieses so bereitwillig, dass wir den Blick für Alternativen verlieren. In diesem Szenario würden wir – Homo sapiens – uns selbst entmündigen, und spätestens um 2099 würde das menschliche Denken verschmelzen mit der ursprünglich von der menschlichen Spezies erschaffenen Maschinenintelligenz. Bei diesem epochalen Takeover mag man dann spekulieren, was noch übrig bleiben wird von uns mitunter irrationalen und gefühlsbetonten organischen Wesen. Man mag sogar fragen, ob es dann noch eine Notwendigkeit für unsere eigene Existenz gibt. Vielleicht erhalten wir noch ein Gnadenbrot, so wie alte Unternehmenslenker, die man in eine ungefährliche Beiratsposition lobt.

Was bleibt vom Menschen? Ray stellt diese Frage in seinem Buch, das – ohne moralische Ausrufezeichen – ein Narrativ unserer selbst verschuldeten Unmündigkeit ist. Es ist kein Appell, keine Mahnung vor einer drohenden Zukunft, die zur Umkehr im Hier und Jetzt aufruft, sondern die Blaupause einer möglichen, vielleicht sogar einer wahrscheinlichen Zukunft.

Großen Umbrüchen und Veränderungen begegnet unsere Gesellschaft stets mit Skepsis und Zukunftsangst. Viele von uns halten am Alten fest, vertrauen auf Bewährtes und scheuen sich vor der Ungewissheit des Neuen. Unsere ganze Kultur ist durchsetzt von diesem Sicherheitsdenken. Kurswechsel verlangen Mut und Überzeugung. Disruptive Entwicklungen versetzen die meisten Menschen in einen sonderbaren Zwischenzustand von Angst und Faszination. Bei genauerer Betrachtung feiern wir erst im Nachhinein die großen Visionäre und Innovatoren dieser Meilensteine, doch zu Lebzeiten tun wir sie ab, als exzentrische Spinner, als Nerds oder weltfremde Exoten. Früher landeten manche gar als Ketzer auf dem Scheiterhaufen. Doch dann, wenn das Neue zur Selbstverständlichkeit wird und der Fortschritt in die Gesellschaft hineindiffundiert, können wir uns kaum mehr eine Welt »ohne« vorstellen.

Manchmal frage ich mich, ob unsere kulturellen Kategorien überhaupt noch geeignet sind, die fulminanten Zukunftsexplosionen unserer Zeit zu erfassen. Unser Denken läuft der Entwicklung stets hinterher – egal, ob es sich um die digitale Revolution oder um biochemisches Neuland handelt. Die unzähligen ethischen Debatten, die Anpassung unserer Gesetze, die Regelwerke neuer Arbeitsprozesse, sie alle finden – wenn überhaupt – im Nachhinein statt, oft dann, wenn die Macht des Faktischen den Rückzug unmöglich macht. So verpassen wir die Chance einer aktiven Gestaltung. Wir kommentieren und kritisieren das Neue, anstatt es bereits in seiner Entstehungsphase zu formen. Doch genau hierfür braucht es radikale Visionäre wie Ray Kurzweil, deren Gedanken eine mögliche Welt beschreiben, die es noch nicht gibt. Wenn wir ihre Stimmen ernst nehmen, gewinnen wir das zurück, was wir zu verlieren glauben: die Freiheit, unsere Zukunft selbst zu gestalten!

 

Ranga Yogeshwar

Inhaltsverzeichnis

Hinweis an den Leser

Ein Photon, das durch einen Versuchsaufbau aus Glasflächen und Spiegeln geschickt wird, geht einen ungewissen Weg. Genau genommen schlägt es jeden möglichen verfügbaren Weg ein (für Photonen gibt es nämlich keine »The Road Not Taken« wie in Robert Frosts Gedicht). Diese Ambiguität gilt so lange, bis die Beobachtung durch einen bewusst wahrnehmenden Beobachter das Teilchen dazu zwingt, sich zu entscheiden, welchen Weg es genommen hat. Dann ist die Ungewissheit – rückwirkend – ausgeräumt, und das Photon scheint sich für einen bestimmten Weg von Anfang an entschieden zu haben.

Wie Quantenteilchen haben auch Sie, der Leser und die Leserin dieses Buchs, die Wahl, welchen Weg Sie nehmen wollen. Sie können die Kapitel, wie von mir beabsichtigt, der Reihenfolge nach lesen. Vielleicht können Sie es nach der Lektüre des »Prologs« aber nicht erwarten, in die Zukunft zu blicken, und springen deshalb sofort zu den Kapiteln von Teil III zum 21. Jahrhundert (siehe Inhaltsübersicht). Anschließend kehren Sie zu den vorigen Kapiteln zurück, die das Wesen und den Ursprung der Trends und Wirkungskräfte im kommenden Jahrhundert behandeln. Vielleicht verläuft Ihr Weg ja auch bis zum Ende Ihrer Lektüre scheinbar ziellos. Beim Epilog wird allerdings jede Ungewissheit ausgeräumt sein, sodass es den Anschein hat, als hätte der von Ihnen eingeschlagene Weg von Anfang an festgestanden.

Inhaltsverzeichnis

PrologEine unerbittliche Glückssträhne

Der Spieler war vollkommen überrascht. Dass er sich hier wiederfinden würde, hätte er nicht erwartet. Aber wenn er über sein Leben nachdachte, kam er gar nicht so schlecht weg. Jetzt saß er jedenfalls in diesem prachtvollen Saal mit glitzernden Kristalllüstern, kostbaren Perserteppichen und Büfetttischen, auf denen sich Delikatessen türmten. Und bildschöne Damen warfen dem Neuankömmling tiefe Blicke zu.

Der Spieler begab sich an den Roulettetisch und versuchte sein Glück: auf Anhieb die richtige Zahl! Er setzte erneut, und wieder hatte er Glück. So ging es eine ganze Zeit, bis er sich an einen anderen Spieltisch setzte. Auch hier gewann er Spiel um Spiel, sorgte mit seiner Glückssträhne beim Personal und bei den schönen Damen für Aufsehen.

Am folgenden Tag setzte sich die Gewinnserie fort, und auch am nächsten und am übernächsten: Der Spieler gewann jedes Spiel und häufte immer mehr Geld an. Die Glückssträhne übertraf seine kühnsten Träume. Und sie hielt an: Wochen und Monate hindurch verlor er kein einziges Spiel.

Dann aber wurde der Spieler unruhig: Das ständige Gewinnen begann langweilig zu werden, das monotone Spielen mit sicherem Gewinn verlor jeden Reiz. Und er gewann weiter. Schließlich wandte er sich an einen der Türsteher, den er für einen Wächterengel hielt: Er habe diese ewigen Gewinne satt, beklagte er sich. Er sei für den Himmel nicht geschaffen, sei immer ein Kandidat für die Hölle gewesen, und dorthin wolle er jetzt gehen …

»Aber genau da sind wir«, erhielt er zur Antwort.

So weit meine Erinnerung an eine Episode von Twilight Zone,einer Fernsehserie aus meiner Kindheit. Den Titel habe ich mir nicht gemerkt, aber ich würde sie »Sei vorsichtig mit deinen Wünschen« nennen. Wie so oft in dieser spannenden Serie thematisiert diese Episode eine der Paradoxien der menschlichen Natur: Wir lieben es, Probleme zu lösen, aber wir wollen nicht, dass alle Probleme aus der Welt geschafft werden, jedenfalls nicht zu schnell. Denn wir sind mehr den Problemen als ihren Lösungen zugetan.

Wie im Falle des Todes. Wir verwenden einen Großteil unserer Energien darauf, ihn zu verdrängen, ihn zu vermeiden, ihn möglichst lange hinauszuschieben. Und doch betrachten wir den Tod, wenn er eintritt, hilflos als tragisches Geschehen. Aber ohne Tod ist ein Leben kaum vorstellbar: Erst die Endlichkeit gibt unserer Zeit Bedeutung und Sinn. Wer endlos lange Zeit hat, kann sie nicht genießen. Wenn wir den Tod ewig hinausschieben könnten, erginge es uns vielleicht wie dem Spieler, der das ständige Gewinnen am Ende satthat.

Aber noch befinden wir uns nicht in dieser Zwangslage. Noch sind Probleme in ausreichendem Maße vorhanden, und kaum ein Beobachter des 20. Jahrhunderts sieht hier ein Zuviel an Fortschritt. Trotz des wachsenden Wohlstandes – wir verdanken ihn unter anderem der Informationstechnologie – kämpft die Menschheit noch immer mit Sorgen und Nöten, wie sie seit Anfang der Geschichtsschreibung bekannt sind.

Im 21. Jahrhundert wird dies anders sein. Die Computertechnik versetzt uns in die Lage, jahrhundertealte Probleme zu lösen. Sie weist uns den Weg in eine postbiologische Zukunft, die das Wesen von Sterblichkeit verändert. Ist unsere Psyche auf die kommenden Veränderungen vorbereitet? Sicherlich nicht. Aber auch das wird sich wahrscheinlich ändern.

Vor Ablauf des nächsten Jahrhunderts[1] wird der Mensch seine Stellung als das intelligenteste und das leistungsfähigste Wesen auf Erden verloren haben. Doch halt – diese Prognose steht und fällt damit, was wir unter dem Begriff »menschliches Wesen« verstehen. Und hier lässt sich bereits ein wesentlicher Unterschied zwischen diesen Jahrhunderten erahnen. Anders als im jetzigen Jahrhundert wird dies die vorrangige politische und philosophische Begriffsbestimmung sein: die Frage, wie wir das Wesen des Menschen definieren.

Aber ich greife vor. Das jetzige Jahrhundert hat gewaltige technische und soziale Veränderungen mit sich gebracht, die um 1899 von nur wenigen Experten vorausgesehen worden waren. Veränderungen vollziehen sich – seit den ersten Erfindungen – in immer rascherer Geschwindigkeit. (Wie ich im ersten Kapitel dieses Buches zeigen werde, ist diese Beschleunigung ein der technischen Entwicklung innewohnender Zug.) Deshalb dürfen wir in den ersten beiden Jahrzehnten des 21. Jahrhunderts weitaus größere Veränderungen erwarten, als wir im gesamten 20. Jahrhundert erlebt haben. Um die unabwendbare Entwicklung im kommenden Jahrhundert einzuschätzen, müssen wir uns zunächst mit dem gegenwärtigen Jahrhundert befassen.

Inhaltsverzeichnis

Der Übergang ins 21. Jahrhundert

Heutige Computer übertreffen menschliche Intelligenz auf zahlreichen Spezialgebieten: so beim Schachspielen, bei der medizinischen Diagnose, dem An- und Verkauf von Aktien und der Lenkung von Mittelstreckenraketen. Andererseits ist die menschliche Intelligenz auf fast allen Gebieten anpassungsfähiger und flexibler. Noch immer sind Computer nicht in der Lage, Gegenstände auf einem Küchentisch zu beschreiben, einen Kinofilm zusammenzufassen, Schnürsenkel zu binden, den Unterschied zwischen einem Hund und einer Katze zu benennen (mit neuronalen Netzen – Computersimulationen menschlicher Gehirnzellen – ist dies theoretisch allerdings heute schon möglich), auf Witze zu reagieren oder andere komplizierte Aufgaben zu erfüllen, die ihre menschlichen Schöpfer glänzend meistern.[2]

Ein Grund für diese Defizite liegt darin, dass selbst die leistungsfähigsten Computer noch immer millionenfach einfacher als die menschliche Intelligenz funktionieren. (Sie reagieren zumeist nach vorgegebenen Mustern auf einfache Befehle.) Diese Ungleichheit wird allerdings schon Anfang des nächsten Jahrhunderts verschwinden. Seit der Erfindung von Rechenanlagen Anfang unseres Jahrhunderts haben sich deren Arbeitsgeschwindigkeit und Komplexität alle vierundzwanzig Monate verdoppelt (was jeweils eine Vervierfachung der Leistungsfähigkeit bedeutet). Da dieser Trend in Zukunft anhalten dürfte, werden Computer um das Jahr 2020 die Speicherkapazität und Rechengeschwindigkeit des menschlichen Gehirns erreichen.

Aber das gibt ihnen nicht automatisch auch die Flexibilität menschlicher Intelligenz. Ebenso wichtig sind die Organisation und die Inhalte dieser beiden Fähigkeiten, gewissermaßen die Software der Intelligenz. Ein Ansatz, Software nach Art des Gehirns zu entwickeln, besteht in der Umkehrtechnik – dabei wird ein menschliches Gehirn gescannt (was schon Anfang des nächsten Jahrhunderts möglich werden wird)[3], und die Nervenschaltungen werden auf einen ausreichend leistungsfähigen Neurocomputer (ein Rechner zur Simulation einer gewaltigen Anzahl menschlicher Neuronen) übertragen.

Es gibt eine Vielzahl denkbarer Szenarien, wie in einer Maschine Intelligenz auf menschlichem Niveau erzeugt werden könnte. Wir werden in der Lage sein, mit neuronalen Netzen und anderen Paradigmen kombinierte Systeme so zu entwickeln und zu trainieren, dass sie »natürliche Sprache«, d.h. menschliche Sprache – gesprochene Worte wie geschriebene Texte – verstehen und daraus Wissen und Erkenntnisse ableiten und verarbeiten können. Die Fähigkeit, aus Sprache oder schriftlichen Texten Wissen zu exzerpieren, ist bei der heutigen Generation von Computern nach wie vor begrenzt, doch wächst ihre Kompetenz auf diesem Gebiet rasant. Im zweiten Jahrzehnt des 21. Jahrhunderts werden Computer Texte selbstständig lesen, speichern und verarbeiten. Dann können sie mit jeder Art Literatur – mit Büchern, Fachzeitschriften, wissenschaftlichen Veröffentlichungen und anderem Material – gefüttert werden. In einem weiteren Schritt werden Maschinen selbstständig Wissen erwerben: Sie wagen sich in die physische Welt hinaus, nutzen die verfügbaren Quellen und Informationsdienste und tauschen das erworbene Wissen untereinander aus (was Maschinen viel leichter fällt als Menschen).

Sobald Computer ein menschliches Niveau an Intelligenz erreicht haben, werden sie auch diese Stufe zwangsläufig rasch überwinden. Rechner hatten gleich nach ihrem Erscheinen begonnen, den Menschen an Gedächtnisleistungen und der Fähigkeit zur Informationsverarbeitung zu überflügeln. Heutzutage speichern Computer mühelos und jederzeit abrufbar Milliarden von Fakten. Dagegen bereitet es Menschen oft schon Schwierigkeiten, wenn sie sich eine Handvoll Telefonnummern merken sollen. Rechner durchforsten in Bruchteilen von Sekunden Datenbanken mit vielen Millionen Einträgen. Auf ihre Wissensbasen kann jederzeit zugegriffen werden. Maschinen, die eine Intelligenz auf menschlichem Niveau mit der dem Computer innewohnenden höheren Arbeitsgeschwindigkeit, Zuverlässigkeit und Kommunikationsfähigkeit vereinen, werden Fantastisches leisten.

Obwohl die Neuronen von Säugetieren auf wunderbare Weise ihren Zweck erfüllen, sind sie ihren technischen Entsprechungen gegenüber deutlich im Nachteil. Ein Großteil ihres komplexen Aufbaus dient statt der Informationsverarbeitung der Aufrechterhaltung der eigenen Lebensfunktionen. Zudem arbeiten Neuronen sehr langsam. Elektronische Schaltungen funktionieren mindestens eine Million Male schneller. So könnte ein Computer mit menschlichen Fähigkeiten, indem er abstrakte Begriffe versteht, Muster erkennt oder andere typisch menschliche Intelligenzleistungen erbringt, mit einer gewaltigen Wissensbasis umgehen, die sich aus dem gesamten von Menschen und Maschinen zusammengetragenen Wissen speist.

Dass Computer mit der menschlichen Intelligenz ernsthaft konkurrieren werden, halten viele unter Berufung auf den momentanen Stand der Technik für ein Hirngespinst. Wer zu Hause mit seinem Computer umgeht, hat nicht den Eindruck, dass er es mit echter Intelligenz zu tun hat. Wie sollte diese Maschine Humor haben, eine Meinung vertreten oder eine andere der Fähigkeiten zeigen, in denen menschlicher Geist brilliert?

Aber die Computertechnik macht eine rasante Entwicklung durch. Fähigkeiten, die vor zwei Jahrzehnten nicht für möglich gehalten wurden, werden heute technisch umgesetzt. Zum Beispiel sind Computer heutzutage schon in der Lage, fortlaufend gesprochene Texte exakt zu erfassen und niederzuschreiben; sie sind dialogfähig, da sie Eingaben – schriftlich oder mündlich – verstehen und intelligent beantworten können. Sie werten medizinische Verfahren – Elektrokardiogramme, Blutuntersuchungen usf. – so zuverlässig wie Ärzte aus und bestreiten ganz selbstverständlich Schachweltmeisterschaften. Zu den Errungenschaften des nächsten Jahrzehnts gehören simultan dolmetschende Telefone, elektronische Assistenten, die einen auf Anfrage mit jeder erdenklichen Information versorgen, und eine Vielzahl weiterer Maschinen mit immer breiter gefächerten und flexibleren Intelligenzleistungen.

Im zweiten Jahrzehnt des nächsten Jahrhunderts werden die Grenzen zwischen menschlicher und maschineller Intelligenz immer stärker verschwimmen. Deutlich erkennbar wird dagegen die Überlegenheit der Computerintelligenz im Hinblick auf Geschwindigkeit, Zuverlässigkeit und Speicherkapazität sein. Und immer schwieriger wird es andererseits werden, zu bestimmen, wo menschliche Intelligenz noch überlegen ist.

Schon heute leistet Computersoftware mehr, als viele wahrnehmen. Bei Demonstrationen der jüngsten Entwicklung auf Gebieten wie der Sprach- oder Schrifterkennung erlebe ich es häufig, dass der Stand der Technik Beobachter völlig überrascht. Die einzigen Erfahrungen beruhen meist auf dem Umgang mit einem veralteten System, das über einen beschränkten Wortschatz verfügte, Pausen zwischen den gesprochenen Wörtern erforderte und dabei noch Fehler produzierte. Staunend erleben sie dann, wie heutige Systeme fortlaufend gesprochene Texte mit bis zu sechzigtausend verschiedenen Vokabeln zuverlässig wie eine Sekretärin niederschreiben.

Die Intelligenz von Computern nähert sich unaufhaltbar der unseren an. So vertraute Garri Kasparow 1990 beispielsweise noch darauf, dass ein Computer ihn im Schach niemals auch nur annähernd werde schlagen können. Die damals modernsten Systeme blieben hinter seinen Fähigkeiten weit zurück. Allerdings wurden die Computer kontinuierlich weiterentwickelt, wobei sie alljährlich 45 Bewertungspunkte aufholten. 1997 wurde Kasparow schließlich doch besiegt. Allerdings warnten viele vor voreiligen Schlüssen, und in der Tat sind zahlreiche menschliche Fähigkeiten weitaus schwieriger zu übertreffen als die beim Schach erforderlichen. Noch immer schneiden Computer auf vielen Gebieten – so beim Verfassen eines Buches – geradezu erbärmlich ab. Aber da ihre Leistungsfähigkeit exponenziell wächst, werden sich Erfahrungen wie die Kasparows im Schach auf anderen Gebieten wiederholen. In den nächsten Jahrzehnten werden Maschinen mit jeder beliebigen menschlichen Fähigkeit gleichziehen und sie schließlich auch übertreffen, sogar unsere großartige Fähigkeit, in einer breiten Vielfalt von Zusammenhängen Ideen hervorzubringen.

Wir haben uns angewöhnt, die Evolution als eine über Jahrmilliarden verlaufende Entwicklung anzusehen, die zwangsläufig in der Entstehung ihrer größten Errungenschaft gipfelte: in der menschlichen Intelligenz. Wenn Anfang des 21. Jahrhunderts auf der Erde eine neue Form der Intelligenz entsteht, die mit der menschlichen konkurriert und sie schließlich wesentlich übertrifft, so kommt dieser Entwicklung höchste Bedeutung zu – nicht weniger jedenfalls als der Entstehung der menschlichen Intelligenz, aus der sie entstanden ist. Diese Entwicklung durchdringt alle Aspekte des Menschlichen, die Arbeitswelt wie das Schulwesen, die Staatsführung, die Kriegführung, die Kunst und das menschliche Selbstverständnis.

Noch ist das alles Zukunftsmusik. Aber mit Computern, die an Komplexität mit dem menschlichen Gehirn konkurrieren und dieses schließlich übertreffen, erlangen Maschinen die Fähigkeit, abstrakte und schillernde Begriffe zu verstehen und angemessen auf sie zu reagieren. Dass Menschen als komplizierte Wesen erscheinen, rührt mitunter von ihren widerstreitenden inneren Bestrebungen her. Ihre von Werten und Gefühlen bestimmten Ziele geraten oft miteinander in Konflikt – ein unvermeidliches Ergebnis des Umgangs mit Abstraktionen. Computer, die einen vergleichbaren – und sogar höheren – Grad an Komplexität erreichen und die in der Funktion zudem zumindest teilweise der menschlichen Intelligenz nachempfunden sind, werden sich notwendigerweise ebenfalls an werte- und gefühlsbestimmten Zielen orientieren, auch wenn diese Werte und Gefühle nicht unbedingt den menschlichen entsprechen.

Eine Vielfalt philosophischer Fragen stellt sich. Denken Computer oder rechnen sie nur? Ist menschliches Denken nur ein Rechnen? Wenn das menschliche Gehirn physikalischen Gesetzen folgt, ist es dann nur eine hochkomplexe Maschine? Gibt es zwischen menschlichem und maschinellem Denken einen grundlegenden Unterschied? Oder, umgekehrt formuliert, müssen wir Computer als bewusst denkende Wesen betrachten, sobald sie die Komplexität menschlicher Gehirne erlangt haben und ebenso komplexe und feinsinnige Aufgaben erfüllen? Diese letzte Frage ist so problematisch, dass manche Philosophen sie für sinnlos halten – anderen gilt sie dagegen als die einzig sinnvolle Frage in der Philosophie. Die Frage nach dem Bewusstsein, die bis in die Zeit Platons zurückreicht, gewinnt mit der Entwicklung von Maschinen, die anscheinend Willenskraft und Gefühle besitzen, eine ganz neue Dimension.

Angenommen, es gelänge im 21. Jahrhundert, den Inhalt eines menschlichen Gehirns ohne chirurgischen Eingriff (z.B. durch Hightech-Verfahren wie der Kernspintomografie) zu scannen und auf einen Personal Computer zu kopieren: Hat die Person in der Maschine dann das gleiche Bewusstsein wie die in der menschlichen Kopiervorlage? Diese Person könnte glaubhaft versichern, sie sei in Brooklyn aufgewachsen, habe in Massachusetts studiert, sei in den Tomografen geschoben worden und in dem Rechner wieder zu sich gekommen. Der gescannte Mensch würde zwar einräumen müssen, dass die Programmierung der Maschine seine Lebensgeschichte, sein Wissen, sein Gedächtnis und seine Persönlichkeit teilt, doch er würde sich gegen eine Gleichsetzung mit dem Rechner nachdrücklich verwahren.

Auch wenn die Computer in der Zukunft nicht einem bestimmten menschlichen Gehirn nachempfunden sind, werden sie immer mehr persönliche Züge aufweisen, Emotionen zeigen und eigene Ziele und Wünsche formulieren. Computer werden einen freien Willen haben. Sie werden spirituelle Erfahrungen für sich reklamieren. Und die Menschen, deren Denken noch immer von der Arbeit organischer Neuronen abhängt – werden ihnen glauben.

Oft liest man zu den kommenden Jahrzehnten demografische, wirtschaftliche und politische Prognosen, die die revolutionären Auswirkungen der Entwicklung selbstständig arbeitender Maschinen vollkommen außer Acht lassen. Aber wenn wir die Welt der Zukunft begreifen wollen, müssen wir uns fragen, welche Folgen es hat, wenn das gesamte Spektrum menschlicher Intelligenzleistung zwangsläufig nach und nach ernsthaft Konkurrenz bekommt.

Inhaltsverzeichnis

TEIL IDie Vergangenheit unter der Lupe

Kapitel 1Das Gesetz von Zeit und Chaos

Eine (sehr kurze) Geschichte des Universums: die sich verlangsamende Zeit

Das Universum besteht aus Geschichten, nicht aus Atomen.

Muriel Rukeyser

Ist das Universum ein gewaltiger Mechanismus, eine gewaltige Rechenoperation, eine gewaltige Symmetrie, ein gewaltiger Unfall oder ein gewaltiger Gedanke?

John D. Barrow

Beginnen wir am Anfang. Wir stoßen dabei auf eine ungewöhnliche Eigenart im Wesen der Zeit, die für den Übergang ins 21. Jahrhundert von entscheidender Bedeutung ist. Die Geschichte des Universums setzt vor ungefähr fünfzehn Milliarden Jahren ein. Damals gab es kein Leben, das die Geburt des Universums und der Zeit, wie wir sie heute rekonstruieren, bewusst hätte wahrnehmen können. (Im Rückblick – aus Sicht der Quantenmechanik – könnten wir heute sagen, jedes Universum, das nicht auch bewusstes Leben hervorbringt, um in der eigenen Existenz wahrgenommen zu werden, hat überhaupt nicht existiert.)

10-43 Sekunden (ein Zehntel eines Millionstel eines Billionstel eines Billionstel einer Billionstelsekunde) nach dem Urknall[4] hatte sich das Universum auf 100 Millionen Billionen Billionen Grad abgekühlt. Und eine gewaltige Kraft bildete sich heraus: die Schwerkraft (Gravitation).

Nicht allzu viel ereignete sich in den nächsten 10-34 Sekunden (dieser winzige Bruchteil einer Sekunde ist schon eine Milliarde Male länger als 10-43 Sekunden). In dem noch kühleren Universum– jetzt war es nur« noch eine Milliarde Milliarden Milliarden Grad heiß– entstand in Form von Elektronen und Quarks Materie. Um die Balance zu wahren, trat gleichzeitig Antimaterie in Erscheinung. In diesem wieder ereignisreicheren Zeitraum entstanden in rascher Folge zwei weitere Kräfte: Neben der Schwerkraft existierten jetzt die starke Kraft[5] und die elektroschwache Kraft[6].

Nach weiteren 10-10 Sekunden (ein Zehntel einer Milliardstelsekunde) zerfiel die elektroschwache Kraft in zwei Kräfte, die uns bekannte elektromagnetische Kraft und die schwache Kraft[7].

Kompliziert wurden die Dinge nach weiteren 10-5 Sekunden (eine Zehnmillionstelsekunde). Mit der weiteren Abkühlung des Universums auf die schon maßvolle Temperatur von einer Billion Grad verschmolzen Quarks zu Protonen und Neutronen, während Antiquarks Antiprotonen bildeten.

Dann gelangten die Materieteilchen an einen Scheideweg. Wie es dazu kam, ist noch nicht völlig geklärt. Bisher war offenbar alles eben und glatt verlaufen. Aber eine weitere gleichförmige Entwicklung hätte zu einem uniformen Weltall geführt. Leben hätte sich niemals entwickelt, und dies bedeutet, dass das Universum nie existiert hätte.

Auf je 10 Milliarden Antiprotonen enthielt das Universum 10 Milliarden und 1 Protonen. Bei Kollisionen vernichteten sich Protonen und Antiprotonen gegenseitig, wobei ein weiteres wichtiges Phänomen entstand: Licht (Photonen). Nach dem Untergang von fast der gesamten Antimaterie blieb die Materie als dominanter Faktor zurück. Dieses Szenario zeigt, dass ein Gegner mit dem geringsten Vorteil sehr gefährlich sein kann.

Nach einer weiteren Sekunde (dieser im Vergleich zu den vorausgehenden Abschnitten in der Geschichte des Universums sehr lange Zeitraum zeigt, dass die Zeitspannen exponenziell länger werden) vernichteten sich – wie zuvor Protonen und Antiprotonen – die Elektronen und Antielektronen (sogenannte Positronen) gegenseitig. Übrig blieben fast nur Elektronen.

Nach einer weiteren Minute verschmolzen Neutronen und Protonen zu Atomkernen – von Helium, Lithium und schweren Formen des Wasserstoffs. Die Temperatur betrug »nur« noch eine Milliarde Grad.

Ungefähr 300000 Jahre später (die Abläufe verlangsamen sich nun drastisch) herrschte eine Durchschnittstemperatur von gerade noch 3000 Grad. Jetzt fingen die Atomkerne in ihrer Nähe befindliche Elektronen ein: Das Atom war geboren.

Nach einer Milliarde Jahren bildeten die Atome gewaltige Materiewolken, aus denen die Galaxien hervorgingen.

Nach weiteren zwei Milliarden Jahren strahlten in den Galaxien erste Sterne, von denen viele Sonnensysteme bildeten.

Weitere drei Milliarden Jahre später entstand in der Umlaufbahn eines unauffälligen Sterns in einem Seitenarm einer Galaxie der Planet Erde.

An dieser Stelle ist auf eine auffällige Eigenart der zeitlichen Abläufe hinzuweisen: Am Anfang der Geschichte des Universums veränderten sich die Dinge besonders rasant. In der ersten Milliardstelsekunde kam es zu drei Paradigmenwechseln. Später dauerte es bis zur nächsten einschneidenden Veränderung im Kosmos mehrere Milliarden Jahre. Es liegt im Wesen der Zeit, dass das Tempo ihres Ablaufs geometrisch ab- oder zunimmt. Sie ist also einer gewaltigen Beschleunigung oder – wie im Fall der Entstehungsgeschichte des Universums – einer gewaltigen Verzögerung unterworfen. Einen gleichbleibend schnellen, also offenbar linearen Verlauf nimmt die Zeit anscheinend nur in diesen ereignisarmen Äonen. Auf der Zeitkurve (zwischen den exponenziell verzögerten oder beschleunigten Abschnitten des Zeitverlaufs) müsste dieser ereignisarme Großteil der Zeit annähernd eine Gerade darstellen, als Abbild ihres scheinbar linearen Verlaufs. Doch – ein linearer Ablauf entspricht in keiner Weise dem wahren Wesen der Zeit.

Warum ist dies wichtig? Nicht für die Beobachtung der langen Zeiträume, in denen sich wenig bewegt. Die große Bedeutung liegt dagegen im »Knie der Kurve«, also in jenen Zeitabschnitten, in denen die Zeitkurve – durch eine exponenzielle Beschleunigung oder Verzögerung – nach oben oder nach unten ausreißt. (Diese Beschleunigung ist vergleichbar mit der exponenziellen Zunahme der Geschwindigkeit eines Körpers, der in ein Schwarzes Loch stürzt.)

Die Geschwindigkeit der Zeit

Inwiefern kann man überhaupt von einer sich verändernden »Geschwindigkeit der Zeit« sprechen? Wir können sagen, ein Prozess läuft in einer bestimmten Geschwindigkeit ab, er schreitet in einem bestimmten Maß pro Sekunde voran. Wie aber kann man davon reden, dass die Zeit selbst ihr Tempo verändert? Kann man das Vergehen der Zeit als Geschwindigkeit messen?

Einstein bejaht dies. Nach ihm ist Zeit vom Bewegungszustand des zeitmessenden Beobachters abhängig.[8] So kann ein bestimmter Zeitraum von einem Beobachter als eine Sekunde und von einem anderen als vierzig Jahre erlebt werden. Einstein nennt das Beispiel eines Mannes, der mit annähernder Lichtgeschwindigkeit zu einem zwanzig Lichtjahre entfernten Stern reist. Aus Sicht der Erde dauert diese Reise in beide Richtungen jeweils etwas mehr als zwanzig Jahre. Als der Mann auf die Erde zurückkehrt, ist seine Ehefrau um vierzig Jahre gealtert. Für ihn selbst währte diese Reise dagegen recht kurz. Wenn er sich nur nahe genug der Lichtgeschwindigkeit angenähert hat, dauert die Reise für ihn eine Sekunde oder weniger (wobei es praktische Einschränkungen gibt, weil eine allzu große Beschleunigung oder Verlangsamung des Raumschiffs seinen Körper zerquetschen würde). Wessen Zeitrahmen ist nun real? Einstein sagt, beide sind real. Denn Zeit existiert nur relativ zum Bewegungszustand des Beobachters.

Die Vögel mancher Arten haben eine natürliche Lebensspanne von nur wenigen Jahren. Beim Beobachten ihrer raschen Bewegungen gewinnt man den Eindruck, dass die Zeit für sie in einem anderen Rhythmus vergeht. Wir Menschen erfahren dies in verschiedenen Lebensabschnitten. Kleinkinder nehmen Veränderungen und das Vergehen der Zeit anders wahr als Erwachsene. Wir werden noch sehen, dass im Falle der Evolution die Zeit sich im Gegensatz zur Geschichte des Universums nicht verzögert, sondern immer stärker beschleunigt.

Es liegt in der Natur des exponenziellen Wachstums, dass Ereignisse in extrem langen Zeiträumen extrem langsam aufeinanderfolgen, dass dieser Ablauf aber im Knie der Zeitkurve eine gewaltige Beschleunigung erfährt. Genau dieses Phänomen erleben wir beim Eintritt ins 21. Jahrhundert.

Die Evolution: die sich beschleunigende Zeit

Am Anfang war das Wort … Und das Wort ist Fleisch geworden.

Johannes 1,1 u. 14.

Ein großer Teil des Universums bedarf keiner Erklärung. Zum Beispiel die Elefanten. Sobald Moleküle miteinander konkurrieren und andere Moleküle nach ihrem Ebenbild hervorbringen können, wird man irgendwann auch Elefanten und ähnliche Wesen durch die Landschaft streifen sehen.

Peter Atkins

Je tiefer man in die Vergangenheit blickt, desto weiter sieht man in die Zukunft.

Winston Churchill

Bevor wir auf das Knie der Kurve zurückkommen, müssen wir uns mit dem exponenziellen Wachstum der Zeit eingehender befassen. Im 19. Jahrhundert wurden als universelle Prinzipien die sogenannten Hauptsätze der Thermodynamik formuliert.[9] Wie der Name besagt, befassen sie sich mit dem Wesen der Wärme. Sie sind die erste bedeutende Weiterentwicklung der Gesetze der klassischen Mechanik, die der englische Mathematiker, Physiker und Astronom Sir Isaac Newton ein Jahrhundert zuvor entdeckt hatte. Aber während Newton eine mit der Präzision eines Uhrwerks ablaufende Welt beschrieb, befassen sich die Sätze der Thermodynamik mit einem Universum des Chaos. Und hierin liegt in der Tat auch das Wesen der Wärme. Sie ist die chaotische – unvorhersagbare – Bewegung von Elementarteilchen. Eine Folgerung aus dem zweiten Hauptsatz der Thermodynamik besagt: In einem abgeschlossenen System (in dem die zusammenwirkenden Elemente und Kräfte von außen nicht beeinflusst werden, z.B. das Universum) wird die Unordnung der Wärmeenergiebewegung, die sogenannte Entropie, mit der Zeit immer größer. Bleibt ein abgeschlossenes System wie unsere Welt also sich selbst überlassen, wird es in zunehmendem Maße chaotisch. Viele Menschen halten das übrigens für eine sehr treffende Beschreibung ihrer aktuellen Lebenssituation.

Die Hauptsätze der Thermodynamik waren im 19. Jahrhundert allerdings eine unbequeme Entdeckung, war man anfangs doch davon überzeugt gewesen, dass man die weltbeherrschenden Prinzipien, die allesamt nur Ordnung bedeuteten, fast vollständig durchschaut hatte. Nur wenige Sternchen schienen noch zu fehlen, damit das jetzt schon gut erkennbare Mosaik der Welt vollständig zusammengelegt werden konnte. Die Thermodynamik war die erste Theorie, die gegen diese selbstgefällige Vorstellung Widerspruch einlegte. Sie sollte nicht die letzte sein.

Dieser zweite Hauptsatz der Thermodynamik, oft auch das Gesetz der wachsenden Entropie genannt, schien die Unmöglichkeit einer natürlichen Entstehung von Intelligenz zu implizieren. Intelligentes Verhalten ist das Gegenteil von zufälligem Verhalten, und jedes auf seine Umwelt intelligent reagierende System muss in höchstem Maße geordnet sein. Die Chemie des Lebens, vor allem die intelligenten Lebens, setzt sich aus hochkomplexen Strukturen zusammen. Aus dem immer chaotischeren Strudel aus Teilchen und Energie im Universum entstanden bestens strukturierte Organismen. Wie kann man das Entstehen von intelligentem Leben mit dem Gesetz der wachsenden Entropie in Einklang bringen?

Darauf gibt es zwei Antworten. Zunächst einmal läuft das Gesetz der wachsenden Entropie der Stoßrichtung der Evolution, die zu einem immer höheren Maß an Ordnung führt, nicht wirklich zuwider. Beide widersprechen sich nur scheinbar: Die Ordnung des Lebens entwickelt sich in einem gewaltigen Chaos, und das Vorhandensein von Formen des Lebens beeinträchtigt das Maß der Entropie im übergeordneten System, in dem diese sich entwickelt haben, nicht erheblich. Ein Organismus ist kein abgeschlossenes System, sondern ein Teil des übergeordneten Systems seiner Umwelt. Und dieses übergeordnete System verkörpert ein Höchstmaß an Entropie. Mit anderen Worten: Die von den Formen des Lebens verkörperte Ordnung hat mit Blick auf das Maß der sonst herrschenden Entropie keine Bedeutung.

Während das Chaos im Universum also wächst, bringen zur gleichen Zeit evolutionäre Prozesse immer höher organisierte Strukturen hervor.[10] Die Evolution ist ein Prozess, aber kein abgeschlossenes System. Sie ist äußeren Einflüssen unterworfen und bezieht ihre Anstöße aus dem sie umgebenden Chaos. Folglich behält das Gesetz der wachsenden Entropie auch mit der Evolution des Lebens und mit der Entstehung von Intelligenz Gültigkeit.

Bei der zweiten Antwort müssen wir uns eingehender mit der Evolution befassen, aus der die Intelligenz hervorgegangen ist.

Das exponenziell wachsende Tempo der Evolution

Wie bereits erwähnt, entstand Milliarden Jahre nach dem Urknall als ganz gewöhnlicher Planet die Erde. Auf ihr sorgte die Sonnenenergie für die Entstehung immer komplexerer Moleküle. Aus der Physik ging die Chemie hervor.

Zwei Milliarden Jahre später nahm das Leben seinen Anfang. Leben meint hier aus Materie und Energie bestehende Strukturen, die sich selbst erhalten und reproduzieren können. Auf diese selbstverständliche Definition kamen die Menschen übrigens erst vor einigen Jahrhunderten.

Mit der Zeit wurden die zunächst nur aus wenigen Molekülketten bestehenden Strukturen komplizierter. Die Moleküle schlossen sich zu Gruppen mit speziellen Aufgaben zusammen. Aus der Chemie ging die Biologie hervor.

Vor ungefähr 3,4 Milliarden Jahren tauchten auf der Erde erste lebende Organismen auf: anaerobe (ohne Sauerstoff auskommende) Einzeller, die sich auf rudimentäre Weise fortpflanzen konnten. Zu den frühen Erfindungen der Evolution gehörte ein einfaches System der Vererbung, die Fähigkeit zur Fortbewegung im Wasser und die Fotosynthese als Voraussetzung zur Entwicklung höherer sauerstoffatmender Organismen. Die bedeutendste Neuerung in der nächsten Jahrmilliarde war die Erfindung der DNS, die fortan die evolutionäre Entwicklung steuerte und sie gleichsam auch aufzeichnete.

Eine zentrale Bedingung für einen evolutionären Prozess ist ein »schriftliches« Protokoll seiner Errungenschaften. Andernfalls müssten erbrachte Problemlösungen im Verlauf des Prozesses immer wieder neu gefunden werden. Bei den ersten Organismen wurde dieses Protokoll in ihren Materiehüllen festgehalten, also in der Chemie ihrer primitiven Zellstrukturen codiert. Mit der Erfindung der DNS hatte die Evolution eine Art Computersprache geschaffen, mit der sie ihre Errungenschaften fortan dokumentieren konnte. Mit dieser Erfindung schuf sie die Voraussetzungen für kompliziertere Experimente. Die aus einer Vielzahl von Molekülen bestehenden Zellen organisierten sich zu Gemeinschaften, aus denen dann vor 700 Millionen Jahren die ersten mehrzelligen Pflanzen und Tiere hervorgingen. In den nächsten 130 Millionen Jahren entstanden die Grundbaupläne der höher entwickelten Tiere, darunter auch das Skelett mit Wirbelsäule, das es den ersten Fischen ermöglichte, sich im Wasser blitzschnell und wendig fortzubewegen.

Während die Evolution zur Entwicklung der ersten primitiven Zellen Jahrmilliarden benötigte, folgten die späteren herausragenden Ereignisse in Abständen von nur einigen Hundert Millionen von Jahren aufeinander, eine deutliche Beschleunigung in der Entwicklung.[11] Als vor 63 Millionen Jahren die Dinosaurier ausstarben, übernahmen die Säugetiere (die Insekten werden hier möglicherweise widersprechen) die Herrschaft über die Erde[12]. Mit dem Auftauchen der Primaten vollzog sich der Fortschritt nun in Schritten von mehreren zehn Millionen Jahren.[13] Vor 15 Millionen Jahren entstanden dann die ersten Hominiden – sie zeichneten sich durch den Gang auf den hinteren Extremitäten aus –, womit sich die Zeiträume der Evolution auf Jahrmillionen verkürzten.[14]

Vor ungefähr 500000 Jahren entwickelte sich unsere Spezies, der Homo sapiens. Ihn kennzeichnet vor allem die vergrößerte Großhirnrinde, die für das rationale Denken zuständig ist. Dennoch unterscheidet der Homo sapiens sich von anderen Primaten genetisch nur unwesentlich. Seine DNS entspricht zu 98,6 Prozent der des Flachlandgorillas und zu 97,8 Prozent der des Orang-Utans.[15] Seit dieser Zeit konzentriert sich die Entwicklungsgeschichte auf eine Variante der Evolution, die von der Menschheit vorangetrieben wird: auf den technischen Fortschritt.

Technik: die Fortsetzung der Evolution mit anderen Mitteln

Wenn ein Wissenschaftler etwas als möglich darstellt, liegt er fast sicher richtig. Wenn er etwas als unmöglich hinstellt, liegt er sehr wahrscheinlich falsch. – Die einzige Möglichkeit, die Grenzen des Möglichen zu erkunden, liegt darin, sich dicht an ihm vorbei ins Unmögliche zu wagen. – Jede einigermaßen moderne Technik ist von Magie nicht zu unterscheiden.

Die drei Gesetze der Technik von Arthur C. Clarke

Eine Maschine ist ebenso charakteristisch, typisch und deutlich menschlich wie eine Sonate für Violine oder ein Lehrsatz des Euklid.

Gregory Vlastos

Die Evolution, die ein exponenziell wachsendes Tempo an den Tag legt, geht nahtlos in den technischen Fortschritt über. Während der Homo sapiens nicht als einzige Spezies Werkzeuge benutzt, zeichnet er sich als einziges Wesen durch die Erfindung von Technik aus.[16] Technik geht über die bloße Herstellung und den Gebrauch von Werkzeugen hinaus. Zu ihr gehören eine Tradition der Herstellung und eine kontinuierliche Verbesserung von Werkzeugen. Technik erfordert Erfindungsreichtum und setzt die Evolution mit anderen Mitteln fort. So wie die Evolution in der Biologie mit der Erfindung der DNS, des »genetischen Codes«, ihr Tempo exponenziell beschleunigte, so gewann die Weiterentwicklung von Werkzeugen mit der Erfindung der Schrift und später mit dem Einsatz von Datenbanken sprunghaft an Fahrt. Die Technik wird schließlich ihrerseits neue Technik entwickeln. Aber greifen wir nicht vor.

Mit dem Auftauchen des Homo sapiens beschleunigte sich die Entwicklungsgeschichte auf einen Rhythmus von einigen Zehntausend Jahren. Viele Unterarten des Homo sapiens tauchten auf. Vor 100000 Jahren erschien in Europa und im Nahen Osten der Homo sapiens neanderthalensis und verschwand vor 35000 bis 40000 Jahren auf mysteriöse Weise wieder. Trotz ihres Rufs der Primitivität schufen die Neandertaler eine Kultur, zu der Bestattungsriten mit Grabbeigaben wie Blumen gehörten. Das Schicksal dieser menschlichen Vettern ist bislang nicht vollständig aufgeklärt. Wahrscheinlich gerieten sie in Konflikt mit unseren unmittelbaren Vorfahren, dem Homo sapiens sapiens, einer Unterart, die vor ungefähr 90000 Jahren auf den Plan trat. Mehrere Arten und Unterarten von Hominiden begannen primitive Formen von Technik zu entwickeln. Die jeweils intelligenteste und wehrhafteste Unterart setzte sich als einzige durch, und damit etablierte sich eine Gesetzmäßigkeit, die sich die gesamte Menschheitsgeschichte hindurch wiederholen sollte: Immer verhalf die technische Überlegenheit einer Gruppe zur Herrschaft. Dieser Trend kann einem freilich Sorgen bereiten, wenn man sich vor Augen hält, dass die Maschinen des 21. Jahrhunderts uns an Intelligenz und technischem Sachverstand überholen werden.

So blieb vor 40000 Jahren als einzige Unterart des Menschen nur der Homo sapiens sapiens übrig.

Was ist Technologie?

Da Technik die Fortsetzung der Evolution mit anderen Mitteln ist, wächst das Tempo ihrer Entwicklung ebenfalls exponenziell. Das Wort »Technik« stammt aus dem Griechischen: techne meint »Handwerk« oder »Kunst«. Im Begriff der Technologie steckt zudem das griechische logia für »das Studium von«. Nach einer Deutung wäre Technologie so das Studium des Handwerks. Handwerk meint die Herstellung von Hilfsmitteln zum Erreichen praktischer Zwecke. Die hier angeführte Definition basiert auf dem Begriff »Hilfsmittel« statt auf »Material«, weil Technologie auch den Umgang mit nichtmateriellen Hilfsmitteln wie Information abdeckt.

Technologie wird oft definiert als die Herstellung von Werkzeugen, mit denen der Mensch die Kontrolle über die Umwelt gewinnt. Diese Definition ist allerdings unzulänglich. Der Mensch ist nicht das einzige Wesen, das Werkzeuge herstellt oder benutzt. Orang-Utans auf Sumatra brechen Äste ab und bringen sie so in Form, dass sie mit ihnen Termitenbauten aufbrechen können. Krähen fertigen Werkzeuge aus Zweigen und Blättern an. Blattschneideameisen stellen aus zerkauten trockenen Blättern Kleister her. Und Krokodile nutzen Wurzeln, um ihre Beute festzuklemmen.[17]

Typisch menschlich bei der Herstellung von Werkzeugen ist dagegen der Einsatz von Wissen – von aufgezeichnetem Wissen. Die Wissensbasis ist gewissermaßen der genetische Code der technischen Entwicklung. Mit dem technischen Fortschritt wurden auch die Mittel zur Aufzeichnung dieser Wissensbasis weiterentwickelt: von der mündlichen Überlieferung aus uralter Zeit über die Konstruktionszeichnungen der Handwerker des 19. Jahrhunderts bis hin zu den computergestützten Datenbanken der Neunzigerjahre unseres Jahrhunderts.

Eine Technologie impliziert zudem, dass sie ihre materiellen Bestandteile transzendiert. Erst wenn verschiedene Bauteile in richtiger Weise zusammengefügt werden, entsteht die vollkommene Neuheit der Erfindung. Als Alexander Graham Bell 1875 zufällig zwei bewegliche Trommeln mit Solenoiden (Magnetspulen) zu einem Telefon zusammenfügte, transzendierte das Ergebnis dessen Bestandteile: Erstmals wurde es möglich, eine menschliche Stimme wie durch Zauberkraft über große Entfernungen zu übertragen.

Wenn wir Dinge willkürlich zusammenfügen, entsteht meistens nur ein Zufallsprodukt. Aber werden Materialien – und in der modernen Technik Information – in genau der richtigen Weise zusammengefügt, geschieht eine Transzendenz. Das zusammengesetzte Objekt ist weitaus mehr als die Summe seiner Einzelteile.

Dieses Phänomen der Transzendenz taucht auch in der Kunst auf, die als Sonderform der menschlichen Technik gelten kann. Wenn man eine Violine oder ein Klavier auf die richtige Art manipuliert, entlockt man ihnen auf wundersame Weise in harmonischer Folge Töne: Musik. Musik ist mehr als eine Folge akustischer Signale. Sie löst im Zuhörer eine kognitive, emotionale und vielleicht auch spirituelle Reaktion aus – eine andere Art der Transzendenz. Alle Formen der Kunst teilen dieses eine Ziel: Sie stellen eine Kommunikation vom Künstler zu seinem Publikum her. Im Zentrum stehen nicht nüchterne Fakten, sondern köstliche Früchte aus dem Garten der Erscheinungen: Gefühle, Gedanken, Erfahrungen und Sehnsüchte. Die griechische Bedeutung von techne logia schließt die Kunst als zentrale Erscheinungsform der Technik mit ein.

Eine weitere Form menschlicher Technik ist die Sprache. Eine der ursprünglichsten Anwendungen von Technik ist Kommunikation, zu der Sprache die Grundlage liefert. Kommunikation ist eine überlebenswichtige Fähigkeit. Sie versetzte Sippen und Stämme in die Lage, gemeinsame Strategien zur Überwindung von Hindernissen und Widrigkeiten zu entwickeln. Auch Tiere kommunizieren. Affen unterschiedlicher Entwicklungsstufen verständigen sich mit einer Vielzahl von Gebärden und Lauten. Bienen lotsen Mitglieder ihres Staates mit Schwänzeltänzen zu Nektarquellen. Weibchen einer malaiischen Baumfroschart zeigen mit einer Art Stepptanz Paarungsbereitschaft an. Krabben bedrohen mit einem bestimmten Winken der Scheren ihre Rivalen und locken durch ein Winken in verändertem Rhythmus Weibchen an.[18] Allerdings scheint sich diese Art der Verständigung nur durch Veränderung von Erbanlagen weiterzuentwickeln. Diesen Arten fehlt die Möglichkeit, die Mittel ihrer Kommunikation zu dokumentieren: Sie werden von Generation zu Generation meist unverändert weitergereicht. Dagegen entwickelt sich die menschliche Sprache wie alle Formen der Technik weiter. Mit den höher entwickelten Formen von Sprache entstanden dank der Technik gleichzeitig auch immer bessere Mittel, mit denen Sprache aufgezeichnet und weiterverbreitet werden kann.

Der Homo sapiens ist einzigartig im Gebrauch und der Weiterentwicklung aller möglichen Formen von Technik: seien es die Künste, die Sprache oder die Maschinen. Und immer stellt ihre Weiterentwicklung die Fortsetzung der Evolution mit anderen Mitteln dar.

Von den Sechziger- bis in die Neunzigerjahre machen Menschenaffen immer wieder Furore, weil ihnen Sprachvermögen auf mindestens kindlichem Niveau nachgesagt wurde. Die Schimpansen Lana und Kanzi drückten in bestimmten Reihenfolgen verschiedene Knöpfe mit Sprachsymbolen. Dagegen hieß es von den Gorillas Washoe und Koko, sie benutzten die amerikanische Taubstummensprache. Skeptische Sprachwissenschaftler wenden allerdings ein, dass diese Affen auch vielfach unstrukturierte Sätze hervorbrächten: »Nim essen, Nim essen, trink iss mich Nim, Gummi, ich Gummi kitzle mich, Nim spielen, du ich Banane ich Banane du.« Selbst bei einer großzügigeren Bewertung dieser Experimente sind solche Fähigkeiten im Tierreich immer nur die Ausnahme. Die Menschenaffen haben die von ihnen erlernte Sprache als Spezies nicht selbst entwickelt, sie erwerben sie nicht spontan und setzen sie auch nur in sehr beschränktem Maße ein.[19] Bestenfalls haben sie am Rande Anteil an einer rein menschlichen Errungenschaft: der Kommunikation durch die – auf sich selbst verweisende, auf Symbolen beruhende und sich weiterentwickelnde – Sprache.

Unsere Vorfahren hatten von früheren Arten und Unterarten der Hominiden so manche Errungenschaft geerbt: Felszeichnungen, Formen von Malerei, Musik und Tanz, Religion, eine entwickelte Sprache, Feuer und Waffen. Zigtausend Jahre lang schufen Menschen Werkzeuge aus Steinen, die auf einer Seite angeschliffen wurden. Erst nach so langer Zeit entdeckte unsere Spezies, dass ein beidseitig geschliffener Stein als Werkzeug weitaus nützlicher sein kann. Wichtig sind aber nicht die langen Zeiträume, sondern die Tatsache, dass solche Erfindungen gemacht wurden und dass sie sich durchsetzten. Keine andere Spezies der Erde, die Werkzeuge benutzt, hat sich fähig gezeigt, bei deren Herstellung Neuerungen einzuführen und an ihnen festzuhalten.

Ein weiterer entscheidender Punkt ist, dass sich die Entwicklung der Technik – so wie die biologische Evolution – in einem immer schnelleren Tempo vollzieht. In den Anfängen – so bei der Herstellung von Faustkeilen – dauerte die Weiterentwicklung ganze Zeitalter. (Anders als bei den Jahrmilliarden der Evolution der Lebensformen sind darunter allerdings nur Jahrtausende zu verstehen.)

Wie die Evolution der Arten hat sich die technische Entwicklung mit der Zeit stark beschleunigt.[20] So vollzog sich der technische Fortschritt des 19. Jahrhunderts sehr viel rasanter als der früherer Zeiten: Die Menschen gruben Kanäle, bauten riesige Dampfschiffe, pflasterten Straßen, verlegten Eisenbahngleise und erfanden die Telegrafie, die Fotografie, das Fahrrad, die Nähmaschine, die Schreibmaschine, das Telefon, den Plattenspieler, das Kino, das Automobil und natürlich auch, Thomas Edison sei Dank, die Glühbirne. Durch die sich weiterhin exponenziell beschleunigende technische Entwicklung brachten die beiden ersten Jahrzehnte des 20. Jahrhunderts so viele Errungenschaften, wie im gesamten 19. Jahrhundert erreicht worden waren. Heute vollziehen sich technische Revolutionen im Rhythmus von wenigen Jahren. So gibt es das World Wide Web, die jüngste revolutionäre Neuerung in der Telekommunikation, als eines von vielen Beispielen erst seit wenigen Jahren.

Die technische Entwicklung als Zwangsläufigkeit

Sobald das Leben einen Planeten erobert hat, kann die Entstehung von Technik als unausweichlich betrachtet werden. Die Fähigkeit, durch Technik den eigenen physischen Wirkungskreis zu erweitern – und sich durch sie Annehmlichkeiten zu verschaffen –, bringt einen entscheidenden Selektionsvorteil. Die Technik versetzt unsere Spezies in die Lage, sich in ihrer ökologischen Nische zu behaupten. Dabei erfordert ihre Herstellung zwei Eigenschaften: Intelligenz und die physische Fähigkeit, die Umwelt zu manipulieren. Mehr zum Wesen der Intelligenz in Kapitel 4: »Eine neue Form von Intelligenz auf Erden«. Zur Intelligenz gehört sicher auch die Fähigkeit, beschränkte Ressourcen, auch Zeit, optimal zu nutzen. Da diese Fähigkeit die Überlebensaussichten einer Art vergrößert, wird sie durch die natürliche Auslese der Evolution gefördert. Ebenso nützlich ist die Fähigkeit des Organismus, seine Umwelt zu manipulieren, eine Fähigkeit, ohne die er ihr vollkommen ausgeliefert wäre: Dies gilt für den Schutz vor Fressfeinden ebenso wie für die Nahrungsaufnahme oder für die Befriedigung anderer Bedürfnisse. Früher oder später muss ein Organismus daher beide Fähigkeiten entwickeln.

Der Lebenszyklus einer Technologie

Technologien kämpfen ums Überleben, sie entwickeln sich weiter, und sie sind einem charakteristischen Lebenszyklus unterworfen. Dabei können wir sieben Phasen deutlich gegeneinander abgrenzen.

In der Vorläuferphase sind die Grundvoraussetzungen einer neuen Technologie vorhanden: Visionäre sehen sie schon detailgenau vor sich. Ihre Träume können allerdings auch dann noch nicht als Erfindung gelten, wenn sie schriftlich oder anders fixiert werden. Leonardo da Vinci hat detaillierte Baupläne von Flugapparaten und sich selbstständig bewegenden Fahrzeugen gezeichnet, ohne dass man ihn deshalb als Erfinder des Flugzeugs oder des Automobils betrachtet.

Die nächste Phase – sie wird in unserer Kultur besonders gefeiert – ist die der eigentlichen Erfindung, das sehr kurze Stadium einer Geburt nach langen Wehen. Mit einer Mischung aus Neugierde, wissenschaftlichem Forscherdrang und Entschlossenheit – und gewöhnlich einem Schuss Geltungssucht – kombiniert der Erfinder verschiedene technische Ansätze auf neue Weise und hebt so sein Kind aus der Taufe.

Als Nächstes folgt die Entwicklungsphase. Die Erfindung steht unter Schutz und wird von Tüftlern (zu denen auch der Erfinder gehören kann) weiterentwickelt. Diese Phase ist wichtiger als die der Erfindung, denn sie kann weitere kreative Neuerungen mit noch größerer Bedeutung hervorbringen. Obwohl zahlreiche Tüftler Automobile zusammenschraubten, trat die Erfindung Auto ihren Siegeszug erst nach Henry Fords Erfindung der Massenproduktion an.

Die vierte Phase ist das Reifestadium. Obwohl noch immer in Entwicklung begriffen, hat sich die technische Neuerung aus dem Bannkreis der Fangemeinde gelöst und beginnt ein Eigenleben zu führen. Sie kann im Alltagsleben so tiefe Wurzeln schlagen, dass sie aus ihm nicht mehr wegzudenken ist. Daraus ergibt sich ein interessantes Szenario für die nächste Phase, die ich das Stadium der Anwärter nennen möchte. Ein Emporkömmling droht die etablierte Technik zu verdrängen. Begeisterte Verfechter prophezeien ihm vorschnell einen Sieg. Aber trotz einiger Vorteile stellt sich möglicherweise heraus, dass ein für die Funktion oder für die Qualität wichtiger Aspekt nicht berücksichtigt wurde. Wenn sich die Neuerung gegen die etablierte Technik nicht durchsetzen kann, sehen Konservative dies als Beweis dafür, dass der alte Ansatz technisch nicht zu schlagen ist.

Ein solcher Sieg ist für eine alternde Technologie aber nur von kurzer Dauer. Ein anderer neuer Ansatz verweist sie schon wenig später ins Reich des Überholten. Dieser Abschnitt im Lebenszyklus einer Technologie sind sozusagen die Seniorenjahre, die von einem schrittweisen Niedergang gekennzeichnet sind. Ihr ursprünglicher Zweck und ihre Funktionen werden jetzt von einem leistungsfähigeren Konkurrenten erfüllt. Diese Phase, die vielleicht zwischen fünf und zehn Prozent des Lebenszyklus ausmacht, weicht schließlich dem Stadium des Historischen (heute zum Beispiel Pferd und Wagen, das Cembalo, die mechanische Schreib- oder die elektromechanische Rechenmaschine).

Beispielhaft ist hier die Geschichte der Schallplatte. Mitte des 19. Jahrhunderts tauchten mehrere Vorläufer auf, so Édouard-Léon Scott de Martinvilles Phonograf, der Schallwellen in Form eines Prägemusters aufzeichnete. Aber erst Thomas Edison kombinierte 1877 die notwendigen Bestandteile miteinander und erfand so das erste Gerät zur Aufzeichnung und Wiedergabe von Tönen. Die kommerzielle Nutzung erforderte technische Verbesserungen. Voll ausgereift war die Technik schließlich 1948, als Columbia die Langspielplatte (LP) mit 33 Umdrehungen pro Minute und RCA Victor eine Platte mit geringerem Durchmesser und mit 45 Umdrehungen pro Minute auf den Markt brachte. Als Konkurrent – Anwärter – erschien in den Sechzigerjahren der Kassettenrekorder, der in den Siebzigern weite Verbreitung fand. Anfangs prognostizierten Verfechter, wegen seiner Handlichkeit und der Reproduzierbarkeit von Aufnahmen werde der Kassettenrekorder den unhandlichen Plattenspieler und die Schallplatte, deren Klangqualität durch Kratzer beeinträchtigt werden kann, schließlich vom Markt verdrängen.

Neben den erkennbaren Vorteilen hat die Kassette allerdings auch Nachteile: Ein wahlfreier Zugriff (die Möglichkeit, Titel ohne besonderen Aufwand in einer bestimmten Reihenfolge abzuspielen) fehlt. Zudem leidet ebenfalls durch Abnutzung die Klangqualität. In den späten Achtziger- und den frühen Neunzigerjahren versetzte die digitale Compactdisc (CD) der herkömmlichen Schallplatte den Todesstoß. Die CD gestattet einen wahlfreien Zugriff und verfügt über eine Klangqualität, die bis nahe an die Grenzen des menschlichen Hörvermögens heranreicht. Wegen dieser beiden Vorteile kann die herkömmliche Schallplatte seit Mitte der Neunzigerjahre als technisch überholt gelten. Obwohl Schallplatten in kleinen Mengen noch immer produziert werden, tritt diese von Edison vor mehr als hundert Jahren begründete Technik langsam ins Stadium des Historischen ein.

Ein weiteres Beispiel ist der Buchdruck, eine Technik, die sich bis vor Kurzem im Reifestadium befunden hat. Mit dem Erscheinen des »virtuellen« Buches auf der Grundlage von Software ist diese Technik nun ins Stadium der Anwärter eingetreten. Allerdings ist dieser Konkurrent noch keine ernsthafte Bedrohung, wenn man die Auflösung, den Kontrast, die Flimmerfreiheit und andere optische Qualitäten von Papier und Druckerschwärze betrachtet. Ein Sieg der neuen Technik ist erst zu erwarten, wenn künftige Computerbildschirme zum Papier eine befriedigende Alternative bieten.

Die unaufhaltsame Entwicklung der Computertechnik

Die Definition, Menschen seien Tiere, die Werkzeuge herstellen, ist nicht schlecht. Ihre ersten Erfindungen, die sie dazu befähigten, in einer unzivilisierten Welt bestehen zu können, waren ganz einfache und primitive Werkzeuge. Ihre jüngsten Errungenschaften, die nicht nur die Fähigkeit der menschlichen Hand ersetzen, sondern auch den menschlichen Intellekt entlasten, sind auf die Verwendung höher entwickelter Werkzeuge zurückzuführen.

Charles Babbage

Alle bisher betrachteten grundlegenden Prozesse – die Entstehung des Universums, die Evolution der Arten und die sich anschließende Entwicklung der Technik – vollzogen sich mit exponenziell zu- oder abnehmender Geschwindigkeit. Wo liegt die Gemeinsamkeit dieser Entwicklungen? Warum hat sich die Entwicklung des Kosmos exponenziell verzögert, während sich die Evolution der Arten beschleunigt? Die Antworten sind überraschend und für das Verständnis des 21. Jahrhunderts von grundlegender Bedeutung.

Doch dazu später; wenden wir uns zuvor einem weiteren wichtigen Beispiel für eine beschleunigte Entwicklung zu: dem exponenziellen Wachstum der Rechenleistung.

In einem frühen Stadium der Evolution bildeten sich Organe mit der Fähigkeit heraus, innere Zustände aufrechtzuerhalten und auf äußere Reize differenziert zu reagieren. Nach der Entwicklung des Nervensystems entstanden immer komplexere und leistungsfähigere Gehirne mit der Fähigkeit, große Mengen an Sinnesdaten zu speichern, visuelle, auditive und taktile Muster zu erkennen und immer kompliziertere Schlüsse zu ziehen. Die Fähigkeit, Probleme zu erkennen und sie zu lösen – Rechenleistungen zu erbringen –, wurde zu einer Triebfeder bei der Entwicklung mehrzelliger Organismen.

Gleiche Bedeutung hat die Rechenleistung in der technischen Entwicklung. Produkte sind nützlicher, wenn sie innere Zustände aufrechterhalten und auf variierende äußere Umstände und Situationen differenziert reagieren können. Maschinen, die immer größere Gedächtnisleistungen erbringen und immer zielsicherer logische Entscheidungen treffen, sind mehr als nur Hilfsmittel, die dem Menschen einen erweiterten Wirkungskreis und größere physische Stärke verleihen. Die Nocken, Zahnräder und Hebel aus dem Mittelalter bildeten die technischen Voraussetzungen, auf deren Grundlage sich in der europäischen Renaissance ausgeklügelte Automaten entwickeln konnten. Die ersten mechanischen Rechenmaschinen des 17. Jahrhunderts wurden zu immer komplizierteren Anlagen weiterentwickelt. Schließlich konnte 1890 in den USA erstmals eine Volkszählung automatisch durchgeführt werden. Der Computer spielte im Zweiten Weltkrieg bei der Entschlüsselung der Geheimcodes der Nationalsozialisten die entscheidende Rolle. Seither haben sich Rechenanlagen in einer Aufwärtsspirale immer rasanter weiterentwickelt.

Das Mooresche Gesetz

Das sogenannte Mooresche Gesetz beschreibt ein bemerkenswertes Phänomen – und zwar die verblüffende Gesetzmäßigkeit, mit der sich in den letzten vierzig Jahren die Entwicklung der Computertechnik beschleunigt hat. Gordon Moore, der Erfinder des integrierten Schaltkreises und Intel-Gründer, hatte 1965 folgende Entdeckung gemacht: Die Oberfläche der Transistoren, die in integrierte Schaltkreise eingeätzt werden, verringerte sich alle zwölf Monate mit jeder neuen Chip-Generation um ca. 50 Prozent. Später, so wurde berichtet, hätte Moore den Rhythmus dieses Generationswechsels auf achtzehn Monate korrigiert, er selbst sprach 1975 von vierundzwanzig Monaten, ein Wert, der der tatsächlichen Entwicklung dann auch eher entspricht.

Die Auswirkungen des Mooreschen Gesetzes

Jahr

Anzahl der Transistoren auf dem neuesten Computer-Chip von Intel[***]

1972

3.500

1974

6.000

1978

29.000

1982

134.000

1985

275.000

1989

1.200.000

1993

3.100.000

1995

5.500.000

1997

7.500.000

Im Ergebnis bedeutet dies, dass alle zwei Jahre die doppelte Menge an Transistoren auf einen integrierten Schaltkreis gepackt werden. Damit verdoppelt sich die Anzahl der Schaltelemente auf einem Chip ebenso wie deren Arbeitsgeschwindigkeit. Bei den ziemlich konstanten Produktionskosten eines integrierten Schaltkreises bekommt man damit alle zwei Jahre für das gleiche Geld doppelt so viele Schaltelemente mit zweifacher Arbeitsgeschwindigkeit. Bei zahlreichen Anwendungen bedeutet dies de facto eine Vervierfachung der Leistungsfähigkeit. Von dieser Entwicklung sind alle Arten von Schaltelementen betroffen, von den Arbeitsspeichern der Computer bis hin zu ihren Prozessoren.

Diese aufschlussreiche Beobachtung ist als das Mooresche Gesetz in die Geschichte der Technik eingegangen. Wie lange kann diese Entwicklung fortdauern? Nach einer optimistischen Schätzung der Chiphersteller wird das Mooresche Gesetz seine Gültigkeit noch fünfzehn Jahre behalten: Bei den fotolithografischen Verfahren (die Verfahren der Halbleiterherstellung auf der Grundlage von lichtempfindlichen Trägersubstanzen) werden immer höhere Auflösungen erzielt. Dadurch wird die Größe der Transistoren und anderer Schaltelemente – sie werden heute in Millionstel Metern gemessen – konstant weiter reduziert.[21] Aber dann – nach fast sechzig Jahren – wird dieses Paradigma allerdings zwangsläufig fallen. Denn bis dahin wären die Isolationsschichten der Transistoren nur noch wenige Atome dick, weshalb sie sich mit herkömmlichen Methoden nicht weiter reduzieren ließen.

Was kommt dann?

Wie zunächst einmal festzuhalten ist, hat das exponenzielle Wachstum von Rechenleistung nicht erst mit der Entwicklung integrierter Schaltkreise und dem Mooreschen Gesetz begonnen. Die nachfolgende Grafik stellt dieses Wachstum in einem Zeitraum von 1900 bis 1998 dar. [22]Dabei erfasst sind 49 im 20. Jahrhundert entwickelte bedeutende Rechenanlagen. Auf der y-Achse erscheinen in Zehnerpotenzen die Rechengeschwindigkeiten pro Kosteneinheit (Anzahl der »Rechenoperationen pro Sekunde« in 1000 US-Dollar). Dabei entspricht jeder Punkt auf der Kurve einer dieser Maschinen. Die ersten fünf arbeiteten auf mechanischer Basis, die folgenden drei auf elektromechanischer Grundlage (mit Relais), die nächsten elf mithilfe von Vakuumröhren und die folgenden zwölf mit sogenannten »diskreten« Transistoren. Nur die letzten achtzehn Computer funktionierten auf der Grundlage integrierter Schaltkreise.

 

Das exponenzielle Wachstum der Rechenleistung 1900–1998

Ich habe durch die Punkte eine Kurve für ein sogenanntes Polynom vierten Grades gelegt, die bis zu vier Extrempunkte haben kann. Ich habe also nicht von vornherein versucht, eine Gerade durch die Punkte zu legen, sondern die am besten passende Kurve vierten Grades. Dennoch kamen Geraden dabei heraus – eine für den Zeitraum von 1900 bis 1985, und eine weitere, stärker ansteigende für den Zeitraum von 1985 bis 1998. (Auf diesen »Knick« wird in Kapitel 6, »Der Bau neuer Gehirne«, ausführlich eingegangen.) Eine Gerade in einem Diagramm mit Potenzen auf der y-Achse zeigt ein exponenzielles Wachstum an. Diese Art Zunahme hat folglich nicht erst mit dem Mooreschen Gesetz zur Entwicklung der integrierten Schaltkreise begonnen. Sie geht vielmehr auf die Entwicklung elektrischer Rechenanlagen Anfang des 20. Jahrhunderts zurück.

Mechanische Rechenanlagen

1.

1900

Analytische Maschine

2.

1908

Hollerith Tabulator

3.

1911

Monroe Calculator

4.

1919

IBM Tabulator

5.

1928

National Ellis 3000

Elektromechanische (auf Relaistechnik beruhende) Rechenanlagen

6.

1939

Zuse 2

7.

1940

Bell Calculator Model 1

8.

1941

Zuse 3

Rechenanlagen auf der Basis von Vakuumröhren

9.

1943

Colossus

10.

1946

Eniac

11.

1948

IBM SSEC

12.

1949

BINAC

13.

1949

EDSAC

14.

1951

Univac I

15.

1953

Univac 1103

16.

1953

IBM 701

17.

1954

EDVAC

18.

1955

Whirlwind

19.

1955

IBM 704

Rechenanlagen mit diskreten Transistoren

20.

1958

Datamatic 1000

21.

1958

Univac II

22.

1959

Mobidic

23.

1959

IBM 7090

24.

1960

IBM 1620

25.

1960

DEC PDP-1

26.

1961

DEC PDP-4

27

1962

Univac III

28.

1964

CDC 6600

29.

1965

IBM 1130

30.

1965

DEC PDP-8

31.

1966

IBM 360 Modell 75

Computer mit integrierten Schaltkreisen

32.

1968

DEC PDP-10

33.

1973

Intellec-8

34.

1973