Wer bin ich - und wenn ja wie viele? - Richard David Precht - E-Book

Wer bin ich - und wenn ja wie viele? E-Book

Richard David Precht

4,6
9,99 €

Beschreibung

„Fragen zu stellen ist eine Fähigkeit, die man nie verlernen sollte.“ (Richard David Precht)

Eine faszinierende Reise in die Welt der Philosophie – Richard David Prechts Buch bietet Antworten auf die großen Fragen des Lebens
Was ist Wahrheit? Woher weiß ich, wer ich bin? Warum soll ich gut sein?
Bücher über Philosophie gibt es viele. Doch Richard David Prechts Buch „Wer bin ich?“ ist anders als alle anderen Einführungen. Niemand zuvor hat den Leser so kenntnisreich und kompetent und zugleich so spielerisch und elegant an die großen philosophischen Fragen des Lebens herangeführt. Ein einzigartiger Pfad durch die schier unüberschaubare Fülle unseres Wissens über den Menschen. Von der Hirnforschung über die Psychologie zur Philosophie bringt Precht uns dabei auf den allerneusten Stand. Wie ein Puzzle setzt sich das erstaunliche Bild zusammen, das die Wissenschaften heute vom Menschen zeichnen. Eine aufregende Entdeckungsreise zu uns selbst: Klug, humorvoll und unterhaltsam!


• Eine ebenso kompetente wie spielerische Annäherung an die großen philosophischen Fragen
• Ein Buch, das die Lust am Denken weckt!

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 548

Bewertungen
4,6 (90 Bewertungen)
68
11
11
0
0



Buch

Bücher über Philosophie gibt es viele. Aber Richard David Prechts Buch ist anders als alle anderen. Denn es gibt bisher keines, das den Leser so umfassend und kompetent – und unter Berücksichtigung naturwissenschaftlicher Erkenntnisse – an die großen philosophischen Fragen des Lebens herangeführt hätte: Was ist Wahrheit? Woher weiß ich, wer ich bin? Was darf die Hirnforschung? Prechts Buch schlägt einen weiten Bogen über die verschiedenen Disziplinen und ist eine beispiellose Orientierungshilfe in der schier unüberschaubaren Fülle unseres Wissens vom Menschen: Eine Einladung, lustvoll und spielerisch nachzudenken – über das Abenteuer Leben und seine Möglichkeiten!

Autor

Richard David Precht, Philosoph, Publizist und Autor wurde 1964 in Solingen geboren. Er promovierte 1994 an der Universität Köln und war fünf Jahre Wissenschaftlicher Mitarbeiter in einem kognitionspsychologischen Forschungsprojekt am Lehrstuhl für Schulpädagogik. Im Jahr 2000 wurde er mit dem Publizistikpreis für Biomedizin ausgezeichnet. Mit seinem Philosophiebuch »Wer bin ich – und wenn ja, wie viele?«, das viele Jahre auf der Sachbuch-Bestsellerliste stand, begeisterte er Leser wie Kritiker. Auch seine Bücher »Liebe. Ein unordentliches Gefühl«, »Die Kunst, kein Egoist zu sein« und »Warum gibt es alles und nicht nichts?« waren große Bestsellererfolge. Als Honorarprofessor lehrt er Philosophie an der Leuphana Universität Lüneburg und an der Musikhochschule Hanns Eisler Berlin. Seit September 2012 moderiert er die ZDF-Philosophiesendung »Precht«.

Von Richard David Precht im Goldmann Verlag außerdem erschienen:

Die Instrumente des Herrn Jørgsen (mit Georg Jonathan Precht)Die KosmonautenLiebe. Ein unordentliches GefühlDie Kunst, kein Egoist zu seinWarum gibt es alles und nicht nichts?Anna, die Schule und der liebe GottLenin kam nur bis LüdenscheidTiere denkenErkenne die Welt. Geschichte der Philosophie IErkenne dich selbst. Geschichte der Philosophie IIJäger, Hirten, KritikerKünstliche Intelligenz und der Sinn des Lebens

Inhaltsverzeichnis
 
Widmung
Einleitung
 
Was kann ich wissen?
SILS MARIA – Kluge Tiere im All
HADAR – Lucy in the Sky
MADRID – Der Kosmos des Geistes
ULM – Ein Winterabend im 30-jährigen Krieg
WIEN – Die Mach-Erfahrung
OMICRON CETI III – Mr. Spock liebt
WIEN – Kein Herr im eigenen Haus
NEW YORK – Da war doch was?
CAMBRIDGE – Die Fliege im Glas
 
Was soll ich tun?
PARIS – Rousseaus Irrtum
MADISON – Das Schwert des Drachentöters
KÖNIGSBERG – Das Gesetz in mir
FRANKFURT AM MAIN – Das Libet-Experiment
CAVENDISH – Der Fall Gage
PARMA – Ich fühle was, was du auch fühlst
BOSTON – Der Mann auf der Brücke
LONDON – Tante Bertha soll leben
IM UTERUS – Die Geburt der Würde
BERLIN – End-Zeit
OXFORD – Jenseits von Wurst und Käse
ATLANTA – Der Affe im Kulturwald
WASHINGTON – Die Qual der Wale
MONTREAL – Ansichten eines Klons
GENT – Kinder von der Stange
CLEVELAND – Die Brücke ins Geisterreich
 
Was darf ich hoffen?
LE BEC – Die größte aller Vorstellungen
BISHOP WEARMOUTH – Die Uhr des Erzdiakons
BIELEFELD – Eine ganz normale Unwahrscheinlichkeit
NAXOS – Do be do be do
MÁS A TIERRA – Robinsons Altöl
BOSTON – Das Rawls-Spiel
VANUATU – Inseln der Seligkeit
ATHEN – Der ferne Garten
UTOPIA – Die Matrix-Maschine
 
Anhang
Register
Copyright
Für Oskar und Juliette, David und Matthieu
Einleitung
 
 
 
 
Die griechische Insel Naxos ist die größte Insel der Kykladen im Ägäischen Meer. In der Mitte der Insel steigt die Bergkette des Zas bis auf tausend Meter an, und auf den würzig duftenden Feldern grasen Ziegen und Schafe, wachsen Wein und Gemüse. Noch in den 1980er Jahren besaß Naxos einen legendären Strand bei Agia Ana, kilometerlange Sanddünen, in denen nur wenige Touristen sich Bambushütten geflochten hatten und ihre Zeit damit verbrachten, träge im Schatten herumzudösen. Im Sommer 1985 lagen unter einem Felsvorsprung zwei junge, gerade 20-jährige Männer. Der eine hieß Jürgen und kam aus Düsseldorf; der andere war ich. Wir hatten uns erst vor wenigen Tagen am Strand kennen gelernt und diskutierten über ein Buch, das ich aus der Bibliothek meines Vaters mit in den Urlaub genommen hatte: ein inzwischen arg ramponiertes Taschenbuch, von der Sonne ausgebleicht, mit einem griechischen Tempel auf dem Umschlag und zwei Männern in griechischem Gewand. Platon: Sokrates im Gespräch.
Die Atmosphäre, in der wir unsere bescheidenen Gedanken leidenschaftlich austauschten, brannte sich mir so tief ein wie die Sonne auf der Haut. Abends, bei Käse, Wein und Melonen, sonderten wir uns ein wenig von den anderen ab und diskutierten weiter unsere Vorstellungen. Vor allem die Verteidigungsrede, die Sokrates laut Platon gehalten haben soll, als man ihn wegen des Verderbens der Jugend zum Tode verurteilte, beschäftigte uns sehr.
Mir nahm sie – für einige Zeit – die Angst vor dem Tod, ein Thema, das mich zutiefst beunruhigte; Jürgen war weniger überzeugt.
Jürgens Gesicht ist mir entfallen. Ich habe ihn nie wieder getroffen, auf der Straße würde ich ihn heute sicher nicht erkennen. Und der Strand von Agia Ana, an den ich nicht zurückgekehrt bin, ist laut zuverlässiger Quelle heute ein Touristen-Paradies mit Hotels, Zäunen, Sonnenschirmen und gebührenpflichtigen Liegestühlen. Ganze Passagen aus der Apologie des Sokrates in meinem Kopf dagegen sind mir geblieben und begleiten mich gewiss bis ins Altenpflegeheim; mal sehen, ob sie dann immer noch die Kraft haben, mich zu beruhigen.
Das leidenschaftliche Interesse für Philosophie habe ich nicht mehr verloren. Es lebt fort seit den Tagen von Agia Ana. Aus Naxos zurückgekehrt, leistete ich zunächst einen unerquicklichen Zivildienst ab. Es war gerade eine sehr moralische Zeit, Nato-Doppelbeschluss und Friedensbewegung erhitzten die Gemüter, dazu Abenteuerlichkeiten wie US-amerikanische Planspiele über einen begrenzten Atomkrieg in Europa, die man sich ohne Kopfschütteln heute kaum noch vorstellen mag. Mein Zivildienst als Gemeindehelfer freilich regte nicht zu kühnen Gedanken an; seit ich die evangelische Kirche von innen gesehen habe, mag ich den Katholizismus. Was blieb, war die Suche nach dem richtigen Leben und nach überzeugenden Antworten auf die großen Fragen des Lebens. Ich beschloss, Philosophie zu studieren.
Das Studium in Köln begann allerdings mit einer Enttäuschung. Bislang hatte ich mir Philosophen als spannende Persönlichkeiten vorgestellt, die so aufregend und konsequent lebten, wie sie dachten. Faszinierende Menschen wie Theodor W. Adorno, Ernst Bloch oder Jean-Paul Sartre. Doch die Vision von einer Einheit aus kühnen Gedanken und einem kühnen Leben verflüchtigte sich beim Anblick meiner zukünftigen Lehrer sofort: langweilige ältere Herren in braunen oder blauen Busfahreranzügen. Ich dachte an den Dichter Robert Musil, der sich darüber gewundert hatte, dass die modernen und fortschrittlichen Ingenieure der Kaiserzeit, die neue Welten zu Lande, zu Wasser und in der Luft eroberten, gleichzeitig so altmodische Zwirbelbärte, Westen und Taschenuhren trugen. Ebenso, schien es mir, wendeten die Kölner Philosophen ihre innere geistige Freiheit nicht auf ihr Leben an. Immerhin brachte mir einer von ihnen schließlich doch das Denken bei. Er lehrte mich, nach dem »Warum« zu fragen und sich nicht mit schnellen Antworten zu begnügen. Und er paukte mir ein, dass meine Gedankengänge und Argumentationen lückenlos sein sollten, so dass jeder einzelne Schritt möglichst streng auf dem anderen aufbaut.
Ich verbrachte wunderbare Studienjahre. In meiner Erinnerung vermischen sie sich zu einer einzigen Abfolge aus spannender Lektüre, spontanem Kochen, Tischgesprächen beim Nudelessen, schlechtem Rotwein, wilden Diskussionen im Seminar und endlosen Kaffeerunden in der Mensa mit Bewährungsproben unserer philosophischen Lektüre: über Erkenntnis und Irrtum, das richtige Leben, über Fußball und natürlich darüber, warum Mann und Frau – wie Loriot meinte – nicht zusammenpassen. Das Schöne an der Philosophie ist, dass sie kein Fach ist, das man je zu Ende studiert. Genau genommen, ist sie noch nicht einmal ein Fach. Naheliegend wäre es deshalb gewesen, an der Universität zu bleiben. Aber das Leben, das meine Professoren führten, erschien mir, wie gesagt, erschreckend reizlos. Zudem bedrückte mich, wie wirkungslos die Hochschulphilosophie war. Die Aufsätze und Bücher wurden lediglich von Kollegen gelesen, und das zumeist nur, um sich davon abzugrenzen. Auch die Symposien und Kongresse, die ich als Doktorand besuchte, desillusionierten mich restlos über den Verständigungswillen ihrer Teilnehmer.
Allein die Fragen und die Bücher begleiteten mich weiter durch mein Leben. Vor einem Jahr fiel mir auf, dass es nur sehr wenige befriedigende Einführungen in die Philosophie gibt. Natürlich existieren viele mehr oder weniger witzige Bücher, die von Logeleien und Kniffen des Denkens handeln, aber die meine ich nicht. Auch nicht die klugen nützlichen Bücher, die das Leben und Wirken ausgewählter Philosophen beschreiben oder in ihre Werke einführen. Ich vermisse das systematische Interesse an den großen übergreifenden Fragen. Was sich als systematische Einführung ausgibt, präsentiert zumeist eine Abfolge von Denkströmungen und -ismen, die mir oft zu sehr historisch interessiert sind oder die zu sperrig sind und zu trocken geschrieben.
Der Grund für diese unkulinarische Lektüre liegt nahe: Universitäten fördern nicht unbedingt den eigenen Stil. Noch immer wird in der akademischen Lehre meist mehr Wert auf exakte Wiedergabe gelegt als auf die intellektuelle Kreativität der Studenten. Besonders störend an der Vorstellung von der Philosophie als einem »Fach« sind dabei ihre ganz unnatürlichen Abgrenzungen. Während meine Professoren das menschliche Bewusstsein anhand der Theorien von Kant und Hegel erklärten, machten ihre Kollegen von der medizinischen Fakultät, nur achthundert Meter entfernt, die aufschlussreichsten Versuche mit hirngeschädigten Patienten. Achthundert Meter Raum in einer Universität sind sehr viel. Denn die Professoren lebten auf zwei völlig verschiedenen Planeten und kannten nicht einmal die Namen ihrer Kollegen.
Wie passen die philosophischen, die psychologischen und die neurobiologischen Erkenntnisse über das Bewusstsein zusammen? Stehen sie sich im Weg, oder ergänzen sie sich? Gibt es ein »Ich«? Was sind Gefühle? Was ist das Gedächtnis? Die spannendsten Fragen standen gar nicht auf dem philosophischen Lehrplan, und daran hat sich, soweit ich sehe, bis heute viel zu wenig geändert.
Philosophie ist keine historische Wissenschaft. Selbstverständlich ist es eine Pflicht, das Erbe zu bewahren und auch die Altbauten im Bereich des Geisteslebens immer wieder zu besichtigen und gegebenenfalls zu sanieren. Aber die rückwärtsgewandte Philosophie dominiert im akademischen Betrieb noch immer allzu sehr über die gegenwartsbezogene. Dabei sollte man bedenken, dass die Philosophie gar nicht so sehr auf dem festgegossenen Fundament ihrer Vergangenheit steht, wie manche meinen. Die Geschichte der Philosophie ist weitgehend auch eine Geschichte von Moden und Zeitgeistströmungen, von Wissen, das vergessen oder verdrängt wurde, und von zahlreichen Neuanfängen, die nur deshalb so neu wirkten, weil vieles, was zuvor gedacht wurde, vernachlässigt wurde. Doch das Leben baut selten etwas auf, wofür es die Steine nicht woanders herholt. Die meisten Philosophen haben ihre Gedankengebäude auf den Trümmern ihrer Vorgänger erbaut, nicht aber, wie sie oft meinten, auf der Ruine der ganzen Philosophiegeschichte. Aber nicht nur viele schlaue Einsichten und Betrachtungsweisen gingen immer wieder verschütt, auch viel Seltsames und Weltfremdes wurde immer wieder neu gedacht und wiederbelebt. Und diese Zerrissenheit zwischen Intelligenz und Ressentiment zeigt sich auch an den Philosophen selbst. Der Schotte David Hume im 18. Jahrhundert zum Beispiel war in vielerlei Hinsicht ein unglaublich moderner Denker. Aber seine Sichtweise anderer Völker, vor allem der afrikanischen, war chauvinistisch und rassistisch. Friedrich Nietzsche im 19. Jahrhundert war einer der scharfsinnigsten Kritiker der Philosophie, aber seine eigenen Wunschbilder vom Menschen waren kitschig, anmaßend und albern.
Auch hängt die Wirkung eines Denkers nicht unbedingt davon ab, ob er mit seinen Einsichten tatsächlich richtig lag. Der gerade erwähnte Nietzsche hatte eine ungeheure Wirkung in der Philosophie, obwohl das meiste von dem, was er gesagt hatte, nicht ganz so neu und originell war, wie es klang. Sigmund Freud war mit Fug und Recht ein bedeutender Mann, einer der größten Ideenstifter überhaupt. Dass an der Psychoanalyse im Detail vieles nicht stimmte, ist eine andere Sache. Und auch die enorme philosophische und politische Bedeutung von Georg Wilhelm Friedrich Hegel steht in einem spannenden Missverhältnis zu den vielen Ungereimtheiten seiner Spekulationen.
Wenn man die Geschichte der abendländischen Philosophie im Überblick betrachtet, fällt auf, dass sich die meisten Scharmützel innerhalb weniger recht übersichtlicher Freund-Feind-Linien abspielen: die Fehde zwischen Materialisten und Idealisten (oder im englischen Sprachgebrauch: der Empiristen und Rationalisten). In der Realität treten diese Sichtweisen in allen erdenklichen Kombinationen und in immer neuen Gewändern auf. Aber sie wiederholen sich. Der Materialismus, der Glaube daran, dass es nichts außerhalb der sinnlich erfahrbaren Natur gibt, keinen Gott und auch keine Ideale, kam das erste Mal im 18. Jahrhundert in der französischen Aufklärung in Mode. Ein zweites Mal begegnet er uns in breiter Front als Reaktion auf die Erfolge der Biologie und auf Darwins Evolutionstheorie in der zweiten Hälfte des 19. Jahrhunderts. Und heute feiert er seine inzwischen dritte Hoch-Zeit im Zusammenhang mit den Erkenntnissen der modernen Hirnforschung. Dazwischen aber lagen jeweils Phasen, in denen der Idealismus in allen möglichen Spielarten vorherrschte. Im Gegensatz zu den Materialisten vertraut er der sinnlichen Welterkenntnis nur wenig und beruft sich auf die weitgehend unabhängige Kraft der Vernunft und ihrer Ideen. Natürlich verbergen sich hinter diesen beiden Etiketten der Philosophiegeschichte mitunter ganz verschiedene Beweggründe und Bedeutungsmuster bei den jeweiligen Philosophen. Ein Idealist wie Platon dachte durchaus nicht das Gleiche wie der Idealist Immanuel Kant. Und deshalb lässt sich eine »ehrliche« Geschichte der Philosophie auch gar nicht schreiben: weder als ein logischer Aufbau in der zeitlichen Abfolge der großen Philosophen noch als eine Geschichte der philosophischen Strömungen. Man wäre gezwungen, vieles wegzulassen, das die Wirklichkeit erst wahrhaftig und rund macht.
Die hier vorliegende Einführung in die philosophischen Fragen des Menschseins und der Menschheit geht deshalb auch nicht historisch vor. Sie ist keine Geschichte der Philosophie. Immanuel Kant hat die großen Fragen der Menschheit einmal in die Fragen unterteilt: »Was kann ich wissen? Was soll ich tun? Was darf ich hoffen? Was ist der Mensch?« Sie bilden einen schönen Leitfaden auch für die Gliederung dieses Buches, wobei letztere Frage durch die ersten drei ganz gut erklärt scheint, so dass ich meine, sie hier getrost weglassen zu können.
Die Frage nach dem, was man über sich selbst wissen kann, die klassische Frage der Erkenntnistheorie also, ist heute nur noch sehr bedingt eine philosophische. Weitreichend ist sie vor allem ein Thema der Hirnforschung, die uns die Grundlagen unseres Erkenntnisapparates und seiner Erkenntnismöglichkeiten erklärt. Die Philosophie erhält hier eher die Rolle eines Beraters, der der Hirnforschung hilft, sich selbst im einen oder anderen Fall besser zu verstehen. Was sie gleichwohl Anregendes zu diesen grundlegenden Fragen beizutragen hatte, führe ich in einer sehr persönlichen Auswahl an der Erfahrung einer Generation vor, die von einem gewaltigen Umbruch geprägt war und die Moderne entscheidend mit vorbereitet hat. Der Physiker Ernst Mach wurde 1838 geboren, der Philosoph Friedrich Nietzsche 1844, der Hirnforscher Santiago Cajal 1852 und der Psychoanalytiker Sigmund Freud 1856. Nur 16 Jahre trennen diese vier Vorreiter des modernen Denkens, deren Nachwirkung kaum überschätzt werden kann.
Der zweite Teil des Buches beschäftigt sich mit der Frage: »Was soll ich tun?«, also mit Ethik und Moral. Dabei geht es ebenfalls zunächst darum, die Grundlagen zu klären. Warum können Menschen überhaupt moralisch handeln? Inwieweit entspricht gut oder böse zu sein der menschlichen Natur? Auch hier steht die Philosophie nicht mehr allein am Lehrerpult. Die Hirnforschung, die Psychologie und die Verhaltensforschung haben inzwischen ein gehöriges Wörtchen mitzureden, und das sollen sie auch tun. Ist der Mensch einmal als ein moralfähiges Tier beschrieben und damit auch die Anreize im Gehirn, die sein moralisches Handeln belohnen, treten die naturwissenschaftlichen Disziplinen in den Hintergrund. Denn die vielen praktischen Fragen, die unsere Gesellschaft heute beschäftigen, warten tatsächlich auf eine philosophische Antwort. Bei Abtreibung und Sterbehilfe, Gentechnik und Reproduktionsmedizin, Umwelt- und Tierethik: Überall entscheiden Normen und Abwägungen, plausible und weniger plausible Argumente – die ideale Spielwiese für philosophische Diskussionen und Abwägungen.
Im dritten Teil »Was darf ich hoffen« geht es um einige zentrale Fragen, die die meisten Menschen in ihrem Leben beschäftigen. Fragen etwa nach dem Glück, nach Freiheit, Liebe, Gott und dem Sinn des Lebens. Fragen, die nicht einfach zu beantworten sind, aber die uns so wichtig sind, dass es sich durchaus lohnt, konzentriert darüber nachzudenken.
Die Theorien und Ansichten, die in diesem Buch oft mit recht leichter Hand miteinander verbunden werden, befinden sich in der Praxis der Wissenschaften mitunter in ganz verschiedenen Ordnern in weit voneinander entfernten Regalen. Trotzdem meine ich, dass es sinnvoll ist, sie auf diese Weise aufeinander zu beziehen, auch wenn sie im Kleingedruckten oft viele knifflige Streitereien wert sein dürften. Verbunden sind sie zudem in einer kleinen Weltreise an die Orte des Geschehens. Nach Ulm, wo Descartes in einer Bauernstube die neuzeitliche Philosophie begründete, nach Königsberg, wo Immanuel Kant lebte, nach Vanuatu, wo die glücklichsten Menschen leben sollen und so weiter. Einige der im Buch vorgestellten Akteure habe ich dabei persönlich näher kennen lernen dürfen, die Hirnforscher Eric Kandel, Robert White und Benjamin Libet sowie die Philosophen John Rawls und Peter Singer. Den einen habe ich gelauscht, mit den anderen gefochten und viel dazugelernt. Ich glaube, dabei erkannt zu haben, dass sich der Vorzug der einen oder anderen Theorie nicht unbedingt in einem abstrakten Theorievergleich zeigt, sondern an den Früchten, die man von ihnen ernten kann.
Fragen stellen zu können, ist eine Fähigkeit, die man nie verlernen sollte. Denn Lernen und Genießen sind das Geheimnis eines erfüllten Lebens. Lernen ohne Genießen verhärmt, Genießen ohne Lernen verblödet. Sollte es diesem Buch gelingen, beim Leser die Lust am Denken zu wecken und zu trainieren, wäre sein Ziel erreicht. Was sollte es für einen schöneren Erfolg geben, als durch fortschreitende Selbsterkenntnis ein bewussteres Leben zu führen, mithin also Regisseur seiner Lebensimpulse zu werden oder, wie Friedrich Nietzsche (für sich selbst vergeblich) hoffte, »Dichter« des eigenen Lebens zu sein: »Es ist eine gute Fähigkeit, seinen Zustand mit einem künstlerischen Auge ansehn zu können, selbst in Leiden und Schmerzen, die uns treffen, in Unbequemlichkeiten und dergleichen.«
Was kann ich wissen?
SILS MARIA
Kluge Tiere im All
Was ist Wahrheit?
 
 
 
 
»In irgendeinem abgelegenen Winkel des in zahllosen Sonnensystemen flimmernd ausgegossenen Weltalls gab es einmal ein Gestirn, auf dem kluge Tiere das Erkennen erfanden. Es war die hochmütigste und verlogenste Minute der ›Weltgeschichte‹: aber doch nur eine Minute. Nach wenigen Atemzügen der Natur erstarrte das Gestirn, und die klugen Tiere mussten sterben. – So könnte jemand eine Fabel erfinden und würde doch nicht genügend illustriert haben, wie kläglich, wie schattenhaft und flüchtig, wie zwecklos und beliebig sich der menschliche Intellekt innerhalb der Natur ausnimmt; es gab Ewigkeiten, in denen er nicht war; wenn es wieder mit ihm vorbei ist, wird sich nichts begeben haben. Denn es gibt für jenen Intellekt keine weitere Mission, die über das Menschenleben hinausführte. Sondern menschlich ist er, und nur sein Besitzer und Erzeuger nimmt ihn so pathetisch, als ob die Angeln der Welt sich in ihm drehten. Könnten wir uns aber mit der Mücke verständigen, so würden wir vernehmen, dass auch sie mit diesem Pathos durch die Luft schwimmt und in sich das fliegende Zentrum dieser Welt fühlt.«
Der Mensch ist ein kluges Tier, das sich doch zugleich selbst völlig überschätzt. Denn sein Verstand ist nicht auf die große Wahrheit, sondern nur auf die kleinen Dinge im Leben ausgerichtet. Kaum ein anderer Text in der Geschichte der Philosophie hat auf so poetische wie schonungslose Weise dem Menschen den Spiegel vorgehalten. Geschrieben wurde dieser vielleicht schönste Anfang eines philosophischen Buches im Jahr 1873 unter dem Titel: Über Wahrheit und Lüge im außermoralischen Sinne. Und sein Verfasser war ein junger, gerade 29-jähriger Professor für Altphilologie an der Universität Basel.
Doch Friedrich Nietzsche veröffentlichte seinen Text über die klugen und hochmütigen Tiere nicht. Soeben hatte er schwere Blessuren davongetragen, weil er ein Buch über die Grundlagen der griechischen Kultur geschrieben hatte. Seine Kritiker entlarvten es als unwissenschaftlich und als spekulativen Unsinn, was es wohl weitgehend auch ist. Von einem gescheiterten Wunderkind war die Rede, und sein Ruf als Altphilologe war ziemlich ruiniert.
Dabei hat alles so viel versprechend angefangen. Der kleine Fritz, 1844 im sächsischen Dorf Röcken geboren und aufgewachsen in Naumburg an der Saale, galt als ein hochbegabter und sehr gelehriger Schüler. Sein Vater war ein lutherischer Pfarrer, und auch die Mutter war sehr fromm. Als der Junge vier Jahre alt ist, stirbt der Vater und kurz darauf auch Nietzsches jüngerer Bruder. Die Familie zieht nach Naumburg, und Fritz wächst in einem reinen Frauenhaushalt auf. Auf der Knabenschule und später am Domgymnasium wird man auf sein Talent aufmerksam. Nietzsche besucht das angesehene Internat Schulpforta und schreibt sich 1864 an der Universität Bonn für klassische Philologie ein. Das Theologiestudium, das er ebenfalls beginnt, gibt er schon nach dem ersten Semester wieder auf. Zu gern hätte er der Mutter den Gefallen getan, ein rechter Pfarrer zu werden – allein ihm fehlt der Glaube. Der »kleine Pastor«, als der das fromme Pfarrerskind einst in Naumburg verspottet wurde, ist vom Glauben abgefallen. Die Mutter, das Pfarrhaus und der Glaube sind ein Gefängnis, aus dem er sich gesprengt hat, doch ein Leben lang wird dieser Wandel an ihm nagen. Nach einem Jahr wechselt Nietzsche mit seinem Professor nach Leipzig. Sein Ziehvater schätzt ihn so sehr, dass er ihn der Universität Basel als Professor empfiehlt. 1869 wird der 25-jährige außerordentlicher Professor. Seine fehlenden Abschlüsse, Promotion und Habilitation, bekommt er kurzerhand von der Uni verliehen. In der Schweiz lernt Nietzsche die Gelehrten und Künstler der Zeit kennen, darunter Richard Wagner und seine Frau Cosima, denen er zuvor bereits in Leipzig begegnet war. Nietzsches Begeisterung für Wagner ist so groß, dass er sich 1872 von dessen pathetischer Musik zu seinem nicht weniger pathetischen Fehlschlag über Die Geburt der Tragödie aus dem Geist der Musik verleiten lässt.
Nietzsches Buch war schnell abgetan. Der Gegensatz vom vermeintlich »Dionysischen« der Musik und dem vermeintlich »Appolinischen« der bildenden Kunst war schon seit der Frühromantik bekannt und gemessen an der historischen Wahrheit eine wilde Spekulation. Außerdem beschäftigte sich die gelehrte Welt in Europa mit der Geburt einer viel wichtigeren Tragödie. Ein Jahr zuvor hat der studierte Theologe und renommierte englische Botaniker Charles Darwin sein Buch über die Abstammung des Menschen aus dem Tierreich veröffentlicht. Obwohl der Gedanke, dass sich der Mensch aus primitiveren Vorformen entwickelt haben könnte, seit spätestens zwölf Jahren im Raum stand – Darwin selbst hat in seinem Buch über die Entstehung der Arten angekündigt, dass hieraus auch auf den Menschen »ein bezeichnendes Licht« fallen werde -, war das Buch ein Reißer. In den 1860er Jahren hatten zahlreiche Naturforscher die gleiche Konsequenz gezogen und den Menschen ins Tierreich nahe dem gerade erst entdeckten Gorilla einsortiert. Die Kirche, vor allem in Deutschland, bekämpfte Darwin und seine Anhänger noch bis zum Ersten Weltkrieg. Doch von Anfang an war klar, dass es nun kein freiwilliges Zurück zur früheren Weltsicht mehr geben konnte. Gott als persönlicher Urheber und Lenker des Menschen war tot. Und die Naturwissenschaften feierten ihren Siegeszug mit einem neuen sehr nüchternen Bild des Menschen: Das Interesse an Affen wurde größer als das an Gott. Und die erhabene Wahrheit vom Menschen als einer gottgleichen Kreatur zerfiel in zwei Teile: das unglaubwürdig gewordene Erhabene und die schlichte Wahrheit vom Menschen als einem intelligenten Tier.
Nietzsches Begeisterung für diese neue Weltsicht ist groß. »Alles, was wir brauchen«, schreibt er später einmal, »ist eine Chemie der moralischen, religiösen, ästhetischen Vorstellungen und Empfindungen, ebenso wie all jener Regungen, welche wir im Groß- und Kleinverkehr der Kultur und Gesellschaft, ja in der Einsamkeit an uns erleben.« Genau an jener »Chemie« arbeiten im letzten Drittel des 19. Jahrhunderts zahlreiche Wissenschaftler und Philosophen: an einer biologischen Daseinslehre ohne Gott. Doch Nietzsche beteiligt sich selbst keinen Deut daran. Die Frage, die ihn beschäftigt, ist eine ganz andere: Was bedeutet die nüchtern wissenschaftliche Sicht für das Selbstverständnis des Menschen? Macht es den Menschen größer, oder macht es ihn kleiner? Hat er alles verloren, oder gewinnt er etwas dazu, dadurch, dass er sich jetzt selbst klarer sieht? In dieser Lage schrieb er den Aufsatz über Wahrheit und Lüge, seinen vielleicht schönsten Text.
Die Frage, ob der Mensch kleiner oder größer geworden war, beantwortete Nietzsche je nach Stimmung und Laune. Wenn es ihm schlecht ging – und es ging ihm oft schlecht -, war er gedrückt und zerknirscht und predigte ein Evangelium des Schmutzes. War er dagegen hochgestimmt, ergriff ihn ein stolzes Pathos und ließ ihn vom Übermenschen träumen. Seine hochfliegenden Phantasien und das donnernde Selbstbewusstsein seiner Bücher standen dabei in einem geradezu haarsträubenden Gegensatz zu seiner Erscheinung: ein kleiner, etwas dicklicher, weicher Mann. Ein trotziger Schnauzbart, eine richtige Bürste, sollte sein weiches Gesicht aufmöbeln und männlicher machen, aber die vielen Krankheiten von Kindertagen an ließen ihn schwach erscheinen und sich schwach fühlen. Er war stark kurzsichtig, litt unter Magenbeschwerden und schweren Migräneanfällen. Mit 35 fühlte er sich bereits als ein körperliches Wrack und beendete seine Lehrtätigkeit in Basel. Eine oft vermutete Syphilis-Infektion, so scheint es, gab ihm später den Rest.
Im Sommer 1881, zwei Jahre nach seinem Abschied von der Universität, entdeckte Nietzsche eher zufällig sein ganz persönliches Paradies: den kleinen Ort Sils Maria im schweizerischen Oberengadin. Eine phantastische Landschaft, die ihn sofort begeisterte und inspirierte. Immer wieder fuhr er in den kommenden Jahren dorthin, unternahm lange einsame Spaziergänge und schmiedete neue pathetische Gedanken. Vieles davon brachte er im Winter in Rapallo und an der Mittelmeerküste, in Genua und in Nizza, zu Papier. Das meiste zeigt Nietzsche als einen klugen, literarisch anspruchsvollen und schonungslosen Kritiker, der seine Finger in die Wunden der abendländischen Philosophie legt. Was seine eigenen Vorschläge zu einer neuen Erkenntnistheorie und Moral anbelangt dagegen, begeistert er sich für einen unausgegorenen Sozialdarwinismus und flüchtet sich oft in schwiemeligen Kitsch. Je markiger seine Texte daherkommen, umso mehr sind sie mit großer Geste danebengegriffen. »Gott ist tot« – schreibt er das eine um das andere Mal -, aber das wissen die meisten seiner Zeitgenossen schon von Darwin und anderen.
1887, Nietzsche blickt das vorletzte Mal auf die schneebedeckten Gipfel von Sils Maria, entdeckt er das Thema von seinen klugen Tieren aus dem alten Aufsatz wieder – das Problem von der begrenzten Erkenntnis aller Menschentiere. Seine Streitschrift Zur Genealogie der Moral beginnt mit den Worten: »Wir sind uns unbekannt, wir Erkennenden, wir selbst uns selbst: Das hat seinen guten Grund. Wir haben nie nach uns gesucht – wie sollte es geschehen, dass wir uns eines Tages fänden?« Wie so oft spricht er von sich selbst im Plural, wie von einer sehr speziellen Tierart, die er als Erster beschreibt: »Unser Schatz ist, wo die Bienenkörbe unsrer Erkenntnis stehn. Wir sind immer dazu unterwegs, als geborne Flügelthiere und Honigsammler des Geistes, wir kümmern uns von Herzen eigentlich nur um Eins – Etwas ›heimzubringen‹.« Viel Zeit dafür bleibt ihm nicht mehr. Zwei Jahre später erleidet Nietzsche in Turin einen Zusammenbruch. Seine Mutter holt den 44-jährigen Sohn in Italien ab und bringt ihn nach Jena in eine Klinik. Später lebt er bei ihr, aber er bringt nichts mehr zu Papier. Acht Jahre darauf stirbt die Mutter, und der geistig schwer umnachtete Sohn kommt in die Wohnung seiner nicht sonderlich geliebten Schwester. Am 25 August 1900 stirbt Nietzsche in Weimar im Alter von 55 Jahren.
Nietzsches Selbstbewusstsein, das er sich einredete, indem er es schreibend heraufbeschwor, war groß: »Ich kenne mein Los, es wird sich einmal an meinen Namen die Erinnerung an etwas Ungeheures anknüpfen.« Doch worin besteht Nietzsches Ungeheuerlichkeit, die ihn nach seinem Tod tatsächlich zum wohl einflussreichsten Philosophen des kommenden 20. Jahrhunderts machen sollte?
Nietzsches große Leistung liegt in seiner ebenso schonungslosen wie schwungvoll vorgetragenen Kritik. Leidenschaftlicher als alle anderen Philosophen zuvor hatte er vorgeführt, wie anmaßend und unwissend der Mensch die Welt, in der er lebt, nach der Logik und Wahrheit seiner Art beurteilt: der Logik der menschlichen Spezies. Die »klugen Tiere« glauben, dass sie einen exklusiven Status hätten. Nietzsche dagegen vertrat vehement die Auffassung, dass der Mensch tatsächlich ein Tier ist und dass auch sein Denken dadurch bestimmt wird: durch Triebe und Instinkte, durch seinen primitiven Willen und durch ein eingeschränktes Erkenntnisvermögen. Die meisten Philosophen des Abendlandes hatten demnach Unrecht, als sie den Menschen als etwas ganz Besonderes betrachtet hatten, als eine Art Hochleistungscomputer der Selbsterkenntnis. Denn kann der Mensch tatsächlich sich selbst und die objektive Realität erkennen? Ist er überhaupt dazu fähig? Die meisten Philosophen hatten nicht daran gezweifelt. Und einige hatten sich noch nicht einmal diese Frage gestellt. Sie hatten ganz selbstverständlich vorausgesetzt, dass das menschliche Denken gleichzeitig so etwas war wie ein universelles Denken. Sie betrachteten den Menschen eben nicht als ein kluges Tier, sondern als ein Wesen auf einer ganz anderen Stufe. Systematisch hatten sie das Erbe aus dem Tierreich geleugnet, das ihnen bei der morgendlichen Rasur vor dem Spiegel ebenso unmissverständlich entgegengrinste wie später, nach Feierabend in den Daunen. Einer nach dem anderen hatten sie an einem großen Graben zwischen Mensch und Tier geschaufelt. Des Menschen Vernunft und Verstand, seine Denk- und Urteilsfähigkeit bildeten den allein selig machenden Maßstab, um die belebte Natur zu bewerten. Und sie verurteilten das »bloß« Körperliche als völlig zweitrangig.
Um sicher zu sein, dass sie mit ihren erlesenen Vorstellungen von sich selbst richtig lagen, mussten die Philosophen annehmen, dass Gott den Menschen mit einem vorzüglichen Erkenntnisapparat ausgestattet habe. Mit seiner Hilfe konnten sie im »Buch der Natur« die Wahrheit über die Welt lesen. Doch wenn es richtig war, dass Gott tot war, dann konnte es auch mit diesem Apparat nicht allzu weit her sein. Dann musste dieser Apparat ein Produkt der Natur sein, und wie alles in der Natur irgendwie unvollkommen. Genau diese Einsicht hatte Nietzsche schon bei Arthur Schopenhauer gelesen: »Wir sind eben bloß zeitliche, endliche, vergängliche, traumartige, wie Schatten vorüber fliegende Wesen.« Und was sollte denen ein »Intellekt, der unendliche, ewige, absolute Verhältnisse fasste?« Das Erkenntnisvermögen des menschlichen Geistes, wie Schopenhauer und Nietzsche vorausahnten, steht in einer direkten Abhängigkeit zu den Erfordernissen der evolutionären Anpassung. Der Mensch vermag nur das zu erkennen, was der im Konkurrenzkampf der Evolution entstandene Erkenntnisapparat ihm an Erkenntnisfähigkeit gestattet. Wie jedes andere Tier, so modelliert der Mensch sich die Welt danach, was seine Sinne und sein Bewusstsein ihm an Einsichten erlauben. Denn eines ist klar: All unser Erkennen hängt zunächst einmal von unseren Sinnen ab. Was wir nicht hören, nicht sehen, nicht fühlen, nicht schmecken und nicht ertasten können, das nehmen wir auch nicht wahr, und es kommt in unserer Welt nicht vor. Selbst die abstraktesten Dinge müssen wir als Zeichen lesen oder sehen können, um sie uns vorstellen zu können. Für eine völlig objektive Weltsicht bräuchte der Mensch also einen wahrhaft übermenschlichen Sinnesapparat, der das ganze Spektrum möglicher Sinneswahrnehmungen ausschöpft: die Superaugen des Adlers, den kilometerweiten Geruchssinn von Bären, das Seitenliniensystem der Fische, die seismographischen Fähigkeiten einer Schlange usw. Doch all das können Menschen nicht, und eine umfassende objektive Sicht der Dinge kann es deshalb auch nicht geben. Unsere Welt ist niemals die Welt, wie sie »an sich« ist, ebenso wenig wie jene von Hund und Katze, Vogel oder Käfer. »Die Welt, mein Sohn«, erklärt im Aquarium der Vaterfisch seinem Filius, »ist ein großer Kasten voller Wasser!«
Nietzsches schonungsloser Blick auf die Philosophie und die Religion hatte gezeigt, wie überanstrengt die meisten Selbstdefinitionen des Menschen sind. (Dass er selbst neue Überanstrengungen und Verspanntheiten in die Welt gesetzt hat, ist eine ganz andere Sache). Das menschliche Bewusstsein wurde nicht durch die drängende Frage ausgeformt: »Was ist Wahrheit?« Wichtiger war sicher die Frage: Was ist für mein Überleben und Fortkommen das Beste? Was dazu nichts beitrug, hatte wahrscheinlich eher wenige Chancen, in der Evolution des Menschen eine bedeutende Rolle zu spielen. Nietzsche hatte zwar die vage Hoffnung, dass vielleicht gerade diese Selbsterkenntnis den Menschen schlauer und möglicherweise zu einem »Übermenschen« machen könnte, der tatsächlich seinen Erkenntnissinn vergrößert. Aber auch hier ist Vorsicht sicher das bessere Rezept als Pathos. Denn auch alle Einsicht in das menschliche Bewusstsein und seine »Chemie«, die, wie wir noch sehen werden, seit Nietzsches Tagen enorme Fortschritte gemacht hat, selbst die ausgeklügeltsten Messapparaturen und sensibelsten Beobachtungen ändern nichts an der Tatsache, dass dem Menschen eine schlechthin objektive Erkenntnis verwehrt bleibt.
Aber ist das eigentlich so schlimm? Wäre es nicht vielleicht viel schlimmer, wenn der Mensch alles über sich selbst wüsste? Brauchen wir eine Wahrheit, die frei und unabhängig über unseren Häuptern schwebt, überhaupt? Manchmal ist der Weg auch ein schönes Ziel, vor allem wenn es ein so spannender Pfad ist wie die verschlungenen Wege, die zu uns selbst führen. »Wir haben nie nach uns gesucht – wie sollte es geschehen, dass wir uns eines Tages fänden?«, hatte Nietzsche in der Genealogie der Moral
HADAR
Lucy in the Sky
Woher kommen wir?
 
 
 
 
Dies ist die Geschichte von drei Geschichten. Die erste lautet so: Am 28. Februar 1967 – die USA bombardierten Nordvietnam mit Napalmbomben und Agent Orange, in Berlin gab es die ersten Studentenproteste, die Kommune I richtete sich gerade ein, und Che Guevara begann seinen Guerillakampf im zentralbolivianischen Hochland, an diesem Tag also schlossen sich Paul McCartney, John Lennon, George Harrison und Ringo Starr in den Abbey Road Studios in London ein. Ergebnis ihrer Aufnahmen war das Album Sgt. Pepper’s Lonely Hearts Club Band, und einer der Songs darauf war Lucy in the Sky with Diamonds. Aufgrund des Titels (Lucy in the Sky with Diamonds) und des surrealen Textes glauben viele Beatles-Fans bis heute, John Lennon hätte das Lied während eines Trips geschrieben und die ganze bunte Traumwelt sei eine Hommage an LSD. Allein, die Wahrheit ist etwas schlichter und anrührender. Denn Lucy ist niemand anders als eine Klassenkameradin von Lennons Sohn Julian, die er seinem Vater auf einem selbst gezeichneten Bild gezeigt hatte, als eben »Lucy in the Sky with Diamonds«.
Und damit beginnt die zweite Geschichte. Donald Carl Johanson war noch keine 30, als er 1973 mit einer internationalen Forschergemeinschaft ins staubige und trockene Hochland Äthiopiens unweit der Stadt Hadar kam. Johanson hatte den Ruf, ein Experte für Schimpansenzähne zu sein, ein Image, das er eher als einen Fluch betrachtete. Schon seit drei Jahren saß er nun an seiner Doktorarbeit über die Zahnreihen der Schimpansen, hatte alle europäischen Museen nach Menschenaffenschädeln durchforstet und hatte eigentlich überhaupt keine Lust mehr auf Schimpansen-Zähne. Doch ein Mann mit seinen Kenntnissen war einigen seiner renommierteren französischen und amerikanischen Kollegen Gold wert. Wer nach menschlichen Fossilien suchte, der brauchte einen Experten für Zähne. Denn Zähne sind häufig die am besten erhaltenen Fundstücke, und Menschenzähne und Schimpansenzähne sind sich sehr ähnlich. Johanson selbst war froh, überhaupt dabei sein zu dürfen, denn eine wissenschaftliche Karriere war dem Sohn schwedischer Auswanderer aus Hartford in Connecticut nicht in die Wiege gelegt worden. Sein Vater starb, als Don gerade zwei Jahre alt war, und Johanson verbrachte eine Kindheit in ärmlichen Verhältnissen. Ein Anthropologe in der Nachbarschaft, der sich des kleinen Don als väterlicher Freund annahm, förderte ihn und weckte sein Interesse an der Ur- und Frühgeschichte. Johanson studierte tatsächlich Anthropologie und trat in die Fußstapfen seines Förderers. Er selbst sollte weitaus größere hinterlassen. Doch davon wusste der dunkelhaarige schlaksige junge Mann mit den langen Koteletten noch nichts, der in dem glühend heißen wüstenhaften Landstrich des so genannten Afar-Dreiecks im Camp nahe dem Awash-Fluss hockte und zwischen Steinen, Staub und Erde nach Überresten urzeitlicher Wesen suchte. Schon nach kurzer Zeit stolperte er über ein paar seltsame Knochen: den oberen Teil eines Schienbeins und den unteren Teil eines Oberschenkels. Beide passten perfekt zusammen. Johanson bestimmte die Knochen als das Knie eines kleinen, etwa 90 Zentimeter großen aufrecht gehenden Primaten, der vor mehr als drei Millionen Jahren gelebt haben musste. Eine Sensation! Denn dass menschenähnliche Wesen schon vor drei Millionen Jahren aufrecht gingen, war bis dahin weder bekannt noch erahnt. Wer würde ihm, dem jungen unbekannten Schimpansenzahn-Experten so etwas glauben? Er hatte nur eine Wahl: Er musste ein komplettes Skelett finden! Die Zeit lief ab, aber ein Jahr später kehrte Johanson ins Afar-Dreieck zurück. Am 24. November 1974 begleitete er den amerikanischen Studenten Tom Gray zu einer Fundstelle. Bevor er ins Camp zurückkehrte, machte er einen letzten Umweg. Dabei entdeckte er einen Armknochen im Geröll. Ringsum lagen noch mehr Knochen, Stücke einer Hand, Wirbel, Rippen, Schädelbruchstücke: die Teile eines urtümlichen Skeletts.
Und dies ist die Verbindung zu der dritten Geschichte – die Geschichte einer kleinen Frau, die in einer Gegend lebte, die dem heutigen Äthiopien entspricht. Sie ging aufrecht, und ihre Hand war zwar kleiner als die heutige Hand eines Erwachsenen, dennoch war sie ihr verblüffend ähnlich. Die Dame war ziemlich kleinwüchsig, aber ihre männlichen Verwandten waren möglicherweise bis zu 140 cm groß. Für ihre Größe war sie sehr kräftig. Sie hatte stabile Knochen, und ihre Arme waren ziemlich lang. Ihr Kopf glich dem eines Menschenaffen, nicht dem eines Menschen. Sie hatte einen stark vorgeschobenen Kiefer und eine flache Schädeldecke. Vermutlich war sie dunkel behaart, wie die anderen afrikanischen Menschenaffen, aber sicher weiß man das natürlich nicht. Es ist auch schwer zu sagen, wie schlau sie war. Ihr Gehirn hatte ziemlich genau die Größe eines Schimpansen-Gehirns, aber wer will sagen, was darin vor sich ging? Sie starb im Alter von 20 Jahren, ihre Todesursache ist unbekannt. 3,18 Millionen Jahre später ist »AL 288-1« das bei weitem älteste halbwegs vollständige Skelett eines menschenähnlichen Individuums, das bisher gefunden wurde. Die junge Dame gehörte zur Spezies Australopithecus afarensis. Australopithecus heißt »Südaffe«, und afarensis bezeichnet den Fundort im Afar-Dreieck.
Die beiden Forscher rasten mit ihrem Geländewagen zurück ins Camp. »Wir haben es«, schrie Gray schon von weitem, »mein Gott, wir haben es. Wir haben das ganze Ding!« Die Stimmung war euphorisch. »In der ersten Nacht nach der Entdeckung gingen wir nicht zu Bett. Wir redeten unaufhörlich und tranken ein Bier nach dem anderen«, wie Johanson sich erinnert. Sie lachten und tanzten. Und hier verknüpft sich die erste mit der zweiten und dritten Geschichte: Der Kassettenrecorder dröhnte in voller Lautstärke immer und immer wieder Lucy in the Sky with Diamonds in den äthiopischen Nachthimmel. Irgendwann war bei dem zu 40 Prozent vollständigen Skelett nur noch von »Lucy« die Rede. Und Lucy O’Donnell, Julian Lennons Klassenkameradin, konnte sich freuen. Das Patenkind ihres Namens wurde der wohl berühmteste Fund der gesamten Ur- und Frühgeschichte.
Don Johansons Lucy bewies, was schon zuvor als überaus wahrscheinlich galt: Die »Wiege der Menschheit« liegt in Afrika. Das Bild von der Stammesgeschichte als persönliche Entwicklungsgeschichte bewahrt den Schöpfungsmythos. Doch weniger bildreich weckt die Rede von der Wiege auch gleichfalls die Hoffnung, die Grenze von Tier und Mensch benennen zu können; nicht nur als Angabe des Ortes, sondern zugleich auch der Zeit, in der der Mensch aus der großen geologischen Vulva der ostafrikanischen Gregory-Spalte entstieg und sich aufrechten Ganges faustkeilbewehrt zum sprechenden Großwildjäger mauserte. Doch war das wirklich die gleiche Spezies, derselbe Mensch, der als erster und einziger Primat den aufrechten Gang wählte, Werkzeuge gebrauchte und damit auf Großwildjagd ging?
Fossilfunde der ersten Vertreter der Hominoidea stammen aus der Zeit vor ungefähr 30 Millionen Jahren. Was man von diesen frühen Affen weiß, ist, dass man eigentlich nichts weiß. Ein paar unvollständige, beschädigte Unterkieferhälften und zwei, drei Schädel: das ist so ziemlich das ganze Material, das Wissenschaftlern für ihre Schlussfolgerungen vorliegt. Auch bei der Einordnung späterer Ur-Affen tappt man weitgehend im Dunkeln. Einen besseren Einblick für die Paläoanthropologie gibt es erst, als sich die Wälder lichteten und offenes Grasland entstand. Gewaltige Kräfte hoben vor fast 15 Millionen Jahren im Osten Afrikas die Erdkruste an und türmten sie bis fast 3000 Meter über den Meeresspiegel. Der kontinentale Felsen wölbte sich, riss über 4500 Kilometer hinweg auf und erzeugte die Bedingungen für eine völlig veränderte Vegetation. Wichtiger als jeder andere Umweltfaktor ermöglichte die Bildung der Gregory-Spalte und mit ihr die des Great Rift Valley die Entstehung neuer Primatenformen, mithin des Menschen. »Hätte die Gregory-Spalte sich nicht an diesem Ort und zu dieser Zeit gebildet«, vermutet der berühmte Paläoanthropologe Richard Leakey, »wäre es durchaus möglich, dass die Spezies Mensch überhaupt nicht entstanden wäre.«
Im Westen des großen Grabens boten nahrungsreiche Urwälder klettertüchtigen Affen einen idealen Lebensraum. In den neuen abwechslungsreichen Lebensräumen im Osten hingegen, wo das Waldsterben Halbwüsten, Savannen, kleine Auwälder und sumpfige Flusslandschaften erzeugte, bevorzugten vor vier oder fünf Millionen Jahren einige Hominiden, wie die Australopithecinen, zum ersten Mal den aufrechten Gang. Manche von ihnen starben irgendwann aus, andere entwickelten sich weiter. Vor etwa drei Millionen Jahren teilten sich die Australopithecinen in mehrere etwas besser bekannte Arten; darunter eine vermutlich vegetarische Spezies mit robustem Schädel und sehr großen Backenknochen, Australopithecus robustus, dessen Spuren sich vor etwa 1,2 Millionen Jahren verlieren, und eine andere Spezies mit leichter gebautem Schädel und kleineren Zähnen, Australopithecus africanus. Sie gilt derzeit als Stammform des Homo habilis, des ersten Vertreters der Familie Hominae, der allerdings seinerseits in mindestens zwei Arten auftrat, deren Verwandtschaftsverhältnisse äußerst unklar sind.
Die Gehirne der Australopithecinen waren typische Affengehirne. Wie bei allen Primaten liegen die Augen vorne im Schädel, was bedeutet, dass Affen immer nur in eine Richtung schauen können. Um ihr Gesichtsfeld zu erweitern, müssen sie den Kopf drehen. Eine Folge davon scheint zu sein, dass Primaten immer nur einen Bewusstseinszustand auf einmal haben können. Da sie verschiedene Dinge nicht simultan wahrnehmen können, kommen diese immer nur nacheinander ins Bewusstsein. Ein solch eingeschränkter Blickwinkel bei Säugetieren ist selten, gar nicht zu reden von anderen Tierklassen, die zum Teil extrem erweiterte Sehfelder haben, wie etwa Fliegen oder Kraken. Was die Sehstärke anbelangt, befinden sich alle Affen im Mittelfeld. Sie sehen besser als etwa Pferde oder Nashörner, aber sie sehen viel schlechter als zum Beispiel Greifvögel. Wie die meisten Wirbeltiere unterscheiden Primaten eine rechte und eine linke Seite der Wahrnehmung. Die Vorstellung von »rechts« und »links« prägt ihre Welterfahrung und auch ihr Denken. Quallen, Seesterne und Seeigel kennen dies nicht, ihre Wahrnehmung besteht nicht aus zwei Hälften, sondern ist kreisförmig. Primaten haben auch kein Gespür für Schwankungen in der Elektrizität, was viele andere Tiere durchaus haben, insbesondere Haie. Im Riechen sind sie ausgesprochen schlecht, Hunde und Bären, aber auch viele Insekten sind ihnen hier weit überlegen. Ihr Gehör ist ganz ordentlich, aber auch dabei sind Hunde und Bären viel besser.
Der spektakuläre Prozess, der bei einigen wenigen Primaten vor etwa drei Millionen Jahren einsetzte, ist der Wissenschaft bis heute ein großes Rätsel. In einer vergleichsweise kurzen Zeit nämlich verdreifachte sich die Größe ihres Gehirns. Hatten die Australopithecinen ein Gehirnvolumen von 400 bis 550 Gramm, so wies Homo habilis vor rund 2 Millionen Jahren schon 500 bis 700 Gramm Gehirnmasse auf. Die vor 1,8 Millionen Jahren aufretenden Homo heidelbergensis und Homo erectus brachten es dann auf ein Gehirnvolumen von 800 bis 1000 Gramm. Und der moderne Mensch Homo sapiens, der vor etwa 400 000 Jahren hervortrat, besitzt ein Gehirn zwischen 1100 und 1800 Gramm.
Wissenschaftler erklärten die starke Zunahme der Gehirnmasse früher gerne mit den neuen Anforderungen an die Vormenschen. Die Savanne des Rift Valley bot andere Lebensbedingungen als vormals der Regenwald, und die Australopithecinen und frühen Homo-Formen stellten sich darauf ein. So weit, so richtig. Aber ein so schnelles Gehirnwachstum als Folge von veränderten Umweltbedingungen ist keineswegs normal, sondern eine völlige Ausnahme. Dass sich Tierarten anpassen, ist nichts Ungewöhnliches. Sie verändern sich, werden größer oder kleiner, aber dass ihre Gehirne dabei regelrecht explodieren, das kommt nicht vor. Auch sind Affen in der Savanne heute keineswegs intelligenter als die Affen im Regenwald. Bei den frühen Menschenformen aber trat ein ganz außergewöhnlicher Vorgang ein: Ihre Gehirne wuchsen schneller als ihre Körper – ein Prozess, der sich, soweit bekannt, nur bei zwei Tierarten jemals entwickelte: bei Menschen und bei Delphinen.
Den Mechanismus für die besondere Gehirnentwicklung des Menschen fanden in den 20er Jahren des 20. Jahrhunderts der Franzose Emile Devaux und der Niederländer Louis Bolk. Unabhängig voneinander entdeckten sie, dass der Mensch nach seiner Geburt noch nicht ausgereift ist, wogegen Menschenaffen ziemlich fertig auf die Welt kommen. Der Mensch verharrt viel länger in seinem Stadium als Fötus und bleibt in dieser Zeit auch entsprechend lernfähig. Die Hirnforschung kann diese Vermutung heute bestätigen. Während das Gehirn bei allen anderen Säugetieren nach der Geburt langsamer wächst als der Körper, entwickelt es sich beim Menschen noch eine ganze Zeit fast im gleichen Tempo weiter wie im Mutterleib. Auf diese Weise wächst das menschliche Gehirn zu einer Größe heran, die diejenige anderer Menschenaffen erheblich übertrifft. Besonders das Kleinhirn und die Großhirnrinde profitieren von diesem fortgesetzten Wachstum. Und innerhalb der Großhirnrinde sind es vor allem die Regionen, die für die Orientierung im Raum, die Musikalität und die Konzentrationsfähigkeit wichtig sind.
So weit der inzwischen bekannte Prozess des Gehirnwachstums. Doch warum er vor etwa drei Millionen Jahren auf diese Weise einsetzte, darüber lässt sich nur sehr vage spekulieren. So präzise wir wissen, was abläuft, so wenig verstehen wir den Grund. Denn eine so schwerwiegende Veränderung lässt sich nicht durch Anpassungen an die Umwelt erklären, selbst wenn man meint – was keineswegs unumstritten ist -, dass besonders große Umstellungen und Anpassungen an das Savannenleben notwendig waren. Dass der aufrechte Gang das Fluchtverhalten veränderte, ist sicher richtig. Dass die Familienverbände in der Savanne anders zusammenlebten als im Regenwald, mag auch sein. Dass man sich auf andere Nahrung spezialisierte, ist durchaus naheliegend. Aber eine so grundlegende Umstellung wie die Verdreifachung des Gehirnvolumens lässt sich dadurch mitnichten erklären. Für eine solche von außen erzwungene Veränderung ist das menschliche Gehirn viel zu komplex. »Der Mensch«, schreibt der Bremer Hirnforscher Gerhard Roth, »hat keineswegs einen besonders großen Cortex bzw. präfrontalen Cortex, weil er diesen dringend benötigte. Vielmehr erhielt er ihn ›umsonst‹ geliefert.«
Das menschliche Gehirn ist also nicht allein eine Reaktion auf Anforderungen der Umwelt. Wenn im ersten Kapitel die Rede davon war, dass unser Wirbeltiergehirn die Folge von Anpassungen im Evolutionsprozess ist, so muss man einräumen, dass die genauen Zusammenhänge noch immer sehr unklar sind. Die »Optimierung«, wenn man so will, geschah ohne einen bislang erkennbaren Grund. Dazu passt, dass unsere Vorfahren ersichtlich lange Zeit auch nur sehr wenig Gebrauch von den Hochleistungsmaschinen machten, die in ihren Köpfen heranreiften. Denn dass sich das Gehirn in der Entwicklung von Australopithecus zu Homo habilis und Homo erectus in ungeheurem Tempo vergrößerte, führte, soweit offensichtlich, zunächst kaum zu Kulturleistungen, wie etwa zu einem differenzierten Werkzeuggebrauch. Selbst nach weitgehendem Abschluss des Gehirnwachstums vor etwa einer Million Jahren brachten die Hominiden mit ihren Hochleistungsgehirnen über Hunderttausende von Jahren kaum mehr als einen notdürftigen Faustkeil hervor. Noch die Werkzeuge der Neandertaler, die vor gerade mal 40 000 Jahren ausstarben, waren eher schlicht und wenig ausgefeilt. Und das, obgleich das Volumen ihrer Gehirne das des heutigen Menschen noch etwas übertraf!
Es besteht wenig Zweifel daran, dass die Größe und Beschaffenheit des menschlichen Gehirns den Ausschlag gab bei der Entwicklung des modernen Menschen und seiner unvergleichbaren Kultur. Doch aus welchem Grund machte der Mensch von seiner durch das Gehirn ermöglichten technischen Innovationsfähigkeit erst so erschreckend spät Gebrauch? Die Antwort ist naheliegend: Offensichtlich hatte das Gehirn weitgehend andere Funktionen zu erfüllen als technischen Fortschritt. Auch heutige Menschenaffen, deren Gebrauch von Werkzeugen ebenso primitiv ist wie derjenige der Australopithecinen, sind ganz offensichtlich intelligenter, als sie für solch simples Hantieren mit Steinen und Ästen sein müssten. Den weit größeren Teil ihrer Intelligenz nutzen Menschenaffen für ihr kompliziertes Sozialleben, und auch für Menschen sind Artgenossen die größte Herausforderung im Alltag. (Vgl. Das Schwert des Drachentöters) Bei alledem nutzen wir gleichwohl nur einen Bruchteil unserer Kapazität, denn Intelligenz ist das, was man einsetzt, wenn man nicht weiß, was man tun soll. Selbst wenn Primatenforscher Albert Einstein mit dem Fernglas beobachtet hätten, so wie sie heute Affen beobachten, würden sie die meiste Zeit nichts Besonderes zu sehen bekommen haben. In seinem normalen Alltag mit Schlafen, Aufstehen, Anziehen, Essen usw. machte Einstein nur sehr wenig Gebrauch von seinem Genie, weil geniale Einfälle und Geistesblitze dafür schlichtweg nicht nötig sind.
Das menschliche Gehirn ist beeindruckend. Aber es ist kein Schachcomputer, der ständig auf der höchsten Schwierigkeitsstufe eingestellt ist. Meist läuft er auf einem unteren Niveau, und damit reiht sich der Menschen ein in die Kette seiner Vorfahren. Prägende Instinkte und Verhaltensweisen wie Krieg und Aggression, Triebhaftigkeit, Familien- und Gemeinschaftssinn teilt er mit Affen und insbesondere Menschenaffen. Je mehr wir über das Leben der Tiere lernen, umso stärker erkennen wir uns selbst, das Echo aus den 250 Millionen Jahren der Säugetierentwicklung in unseren Gehirnwindungen.
Nietzsches kluge Tiere sind also tatsächlich Tiere, und ihr beispielloses Erkenntnisvermögen ist und bleibt ein Rätsel. Einige Philosophen des romantischen Zeitalters zu Anfang des 19. Jahrhunderts hatten dem Lauf der Natur einen Sinn unterstellt, an dessen Ende der Mensch steht – jenes Wesen, das dafür geschaffen wurde, den Weltenlauf zu verstehen. Im Menschen, so lautete die stolze Überhöhung, werde die Natur sich ihrer selbst bewusst. In der Realität freilich spricht nichts dafür, dass der Mensch und sein Tun das Ziel der Evolution sind. Doch nicht erst ein solch angenommener Gang der Geschichte, schon der Begriff des »Ziels« ist bereits verdächtig. Ziele sind sehr menschliche Denkkategorien (haben Salamander Ziele?), sie sind an typisch menschliche Zeitvorstellungen gebunden, ebenso wie die Begriffe »Fortschritt« und »Sinn«. Doch die Natur ist eine physikalische, eine chemische und eine biologische Angelegenheit. Und der Begriff »Sinn« hat ganz andere Eigenschaften als etwa Protein.
MADRID
Der Kosmos des Geistes
Wie funktioniert mein Gehirn?
 
 
 
 
Was ist die komplizierteste Sache der Welt? Eine schwierige Frage, aber für die Naturwissenschaft ist die Antwort eigentlich klar. Sie lautet: das menschliche Gehirn! Zugegeben, von außen betrachtet ist es nicht besonders spektakulär. Es wiegt knapp drei Pfund, hat die Form einer aufgeblasenen Walnuss und die Konsistenz eines weichen Eis. Aber darin verbirgt sich der wohl komplizierteste Mechanismus im ganzen Universum. 100 000 000 000 (hundert Milliarden) Nervenzellen funken darin herum mit bis zu 500 000 000 000 000 (einer halben Trillion) Verbindungen. Ungefähr so viel, lautet ein bekannter Vergleich, wie die Anzahl der Blätter im Amazonas-Regenwald.
Bis vor etwa 120 Jahren war das Innenleben des Gehirns nahezu unbekannt. Wer auch immer etwas über das Gehirn geschrieben und spekuliert hatte, hatte allenfalls mit der Taschenlampe in den Nachthimmel geleuchtet. Umso erstaunlicher, dass jener Mensch, der als Erster die allgemeinen Funktionsabläufe des Gehirns zu deuten wusste und seine grundlegenden Mechanismen entschlüsselte, heute ein nahezu unbekannter Mann ist. Gäbe es eine objektive Aufstellung der bedeutendsten Forscher und Denker des 20. Jahrhunderts – der Name Santiago Ramón y Cajal dürfte nicht darin fehlen. Stattdessen aber gibt es nicht einmal eine deutschsprachige Biografie.
Cajal wurde 1852 in Petilla de Aragón in der spanischen Provinz Navarra geboren. Er war acht Jahre jünger als Nietzsche, und zur Zeit von Cajals Geburt und seiner frühen Kindheit arbeitete Darwin in Down bei London gerade an seinem großen Buch über die Entstehung der Arten. Dass er selbst etwas mit Biologie zu tun haben sollte, war nicht abzusehen. Schon früh wollte er Maler werden. Um den menschlichen Körper zu studieren, grub er als junger Mann gemeinsam mit seinem Vater Knochen aus einem ehemaligen Friedhof aus. Cajals Vater hatte eine Stelle in der anatomischen Abteilung des Krankenhauses von Saragossa und praktizierte dort als Chirurg. Die Beschäftigung mit den Knochen führte Cajal schließlich von der Malerei zur Anatomie. Der große Darwin hatte einst sein Medizinstudium abgebrochen, weil er sich davor ekelte, Leichen zu sezieren. Als Cajal hingegen daranging, Leichen zu untersuchen, fing er richtig Feuer. Schon mit 21 Jahren wurde er Arzt. Weil er besonders fasziniert war von Leichen und Skeletten, ging er zur Armee. In den Jahren 1874 bis 1875 nahm er an einer Expedition nach Kuba teil und infizierte sich dabei mit Malaria und Tuberkulose. Nach seiner Rückkehr wurde er Assistenzarzt an der Medizinischen Fakultät der Universität Saragossa. 1877 promovierte ihn die Universität Complutense in Madrid. Als Professor für Beschreibende und Generelle Anatomie an der Universität Valencia entdeckte er nach und nach den Zauber des Gehirns. Wieso hatte sich noch nie jemand nach allen Regeln der Kunst ganz detailliert mit dem menschlichen Gehirn beschäftigt? Was bislang erforscht war, war nur die grundsätzliche anatomische Gliederung von Hirnregionen. Cajal fasste einen ehrgeizigen Plan: Er wollte die Vorgänge im Gehirn verstehen und eine neue Wissenschaft begründen, die er »rationale Psychologie« nannte. Stück für Stück betrachtete er das Zellgewebe des menschlichen Gehirns unter dem Mikroskop und zeichnete alles, was er dort sah. 1887 wechselte er als Professor für Histologie und Pathologie an die Universität Barcelona und 1892 an die Universität Complutense Madrid, die größte und bedeutendste Universität Spaniens. 1900 wurde er dort überdies Direktor des Nationalen Hygieneinstituts und des Investigaciones Biológicas.
Eine Fotografie zeigt Cajal in seinem Madrider Arbeitszimmer mit einer völlig überfüllten Bibliothek. Den Kopf in die rechte Hand gelegt, blickt er mit struppigem Bart andächtig auf ein menschliches Skelett. Ein anderes Foto zeigt ihn in ähnlicher Haltung in seinem Labor in einem orientalisch anmutenden Kittel und mit einer maghrebinischen Mütze. Seine Augen sind tief und dunkel. Man würde ihn tatsächlich eher für einen Maler halten als für einen Wissenschaftler. Im Alter bekam sein Gesicht einen beeindruckend finsteren Zug; eine Erscheinung wie die eines zwielichtigen Hollywood-Schurken, ein Wissenschaftler mit dem Teufel im Bunde. Aber Cajal war alles andere als ein Finsterling. Seine Zeitgenossen schätzten und mochten ihn sehr. Er war bescheiden und großzügig mit einem warmen Humor und von großer Gelassenheit.
Cajal untersuchte ausschließlich tote Gehirne von Menschen und Tieren. Für Forschungen an lebenden Gehirnen war die Zeit Ende des 19. Jahrhunderts noch nicht reif. Natürlich war das eine Crux. Denn wie sollte man wissen, wie das Gehirn funktioniert, wenn man diese Vorgänge gar nicht in Aktion beobachten konnte? Doch Cajal schaffte Verblüffendes. Das einzig, wenn man so will, Dämonische an ihm war seine enorme Fähigkeit, tote Nervenzellen zum Leben zu erwecken. In seiner Phantasie war er ein sympathischer Frankenstein, denn er beschrieb die Abläufe in den Gehirnzellen, die er unter dem Mikroskop sah, als ob er ihnen tatsächlich bei der Arbeit zusah. In seinen Aufsätzen und Büchern ist in lebhaften Beschreibungen von einem munteren Geschehen die Rede: Die Nervenzellen fühlen, handeln, hoffen und streben. Eine Nervenzelle »tastete« mit ihrer entstehenden Faser umher, »um eine andere zu finden«. Auf diese Weise beschrieb Cajal die Feinstruktur und legte das Fundament für die moderne Erforschung des Nervensystems im Gehirn. In seiner langen Forschertätigkeit schrieb er 270 wissenschaftliche Aufsätze und 18 Bücher. Sie machten ihn zum bedeutendsten Hirnforscher aller Zeiten. Im Jahr 1906 erhielt er den Nobelpreis für Medizin.
Cajals Forschungen waren deshalb so bedeutend, weil Nervenzellen im Gehirn völlig anders aussehen als normale Körperzellen. Ihre seltsamen unregelmäßigen Formen mit den vielen feinen Fortsätzen waren der Wissenschaft zuvor völlig schleierhaft. Cajal zeichnete diese Zellen in sehr genauen Bildern, sorgfältige Skizzen mit seltsamen Spinnwebmustern, und die meisten seiner Gebilde sehen wie kleinteilige Algen aus. Obwohl er keinen der wichtigen und bis heute gültigen Begriffe selbst prägte, beschrieb er die Elemente des Nervensystems im Gehirn so präzise wie niemand zuvor. Er zeichnete und erklärte die Nervenzellen, die Neuronen, und die mehr oder weniger langen Fäden zu beiden Seiten des Neurons, die Axone. Die Verästelungen des Axons, die Dendriten, wurden das erste Mal ganz genau beschrieben, und für die Kommunikationsstellen der Nervenzellen am Ende der Dendriten übernahm er ein Wort seines kongenialen englischen Kollegen Charles Scott Sherrington, die Synapsen. Mit seinen ungemein sorgfältigen Studien hatte Cajal so etwas wie das Alphabet der Nervenzellen im Gehirn entdeckt. Aber die entsprechende Hirngrammatik und noch mehr die gesprochene Sprache seiner Neuronen, die Arbeit der von ihm so genannten neuronalen Schaltkreise, musste er sich phantasievoll dazudenken.
Vieles von dem, was Cajal vermutete, erwies sich später als richtig. Die wichtigste dieser Annahmen war, dass die Nervenströme auf ihrem Weg durch das Gehirn und das Rückenmark immer nur in eine Richtung fließen. Die Synapsen der einen Nervenzelle kommunizieren mit den Synapsen einer anderen. Aber diese Nervenbahnen sind Einbahnstraßen, und die Richtung eines Nachrichtenflusses ist immer unumkehrbar. Wie freilich die Kommunikation der Synapsen funktioniert, konnte Cajal mit seinen toten Gehirnen nicht zeigen: Sie verrieten nichts über die elektrische und die chemische Aktivität. Er wusste aber, dass diese Signalübertragungen stattfanden. Der deutsche Physiologe Otto Loewi hatte 1921 das erste Mal nachgewiesen, wie Nervenimpulse von einer Synapse mithilfe eines chemischen Botenstoffs in eine andere wandern. Aber Cajal konnte sie nicht sehen.
Cajal starb 1934 im Alter von 82 Jahren. Während in den drei Jahrzehnten nach seinem Tod Wissenschaftler in Europa, in den USA und in Australien die grundlegenden Mechanismen der elektrochemischen Signalübertragung im Gehirn erforschten, widmeten sich andere der genaueren Interpretation der einzelnen Hirn-Areale. Was im Gehirn war wofür zuständig und warum? Berühmt wurde dabei vor allem das Modell des US-Amerikaners Paul MacLean aus den 1940er Jahren, der das Gehirn des Menschen sehr übersichtlich einteilte. Da der Mensch sich aus niederen Tierformen entwickelt hatte, rechnete MacLean die verschiedenen Hirnregionen des Menschen unterschiedlichen Stufen seiner Entwicklung zu. Danach bestand das Hirn eigentlich aus »drei Gehirnen«. Das erste ist ein »stammesgeschichtlich altes Reptiliengehirn«, es besteht hauptsächlich aus dem Hirnstamm und dem Zwischenhirn. Das Reptiliengehirn ist die »niedrigste« Form des Gehirns. Hier befinden sich angeborene Instinkte, es ist wenig lernfähig und untauglich für alles Soziale. Das zweite Gehirn ist das »frühe Säugerhirn«. Es entspricht dem limbischen System. Hier sollen nicht nur Triebe und Emotionen zuhause sein, sondern es ist, wie MacLean meint, zugleich der erste Versuch der Natur, ein Bewusstsein und ein Gedächtnis zu entwickeln. Das dritte Gehirn ist das »entwickelte Säugerhirn« und entspricht dem Neocortex als Sitz von Vernunft, Verstand und Logik. Das entwickelte Säugerhirn arbeitet ungeachtet der stammesgeschichtlich älteren Gehirnbereiche. Denn MacLean meinte, dass diese Dreiteilung sehr strikt sei. So etwa gäbe es zwischen dem limbischen System und dem Neocortex nur wenige Verbindungen. Gefühl und Verstand seien streng geteilt in zwei verschiedene Gehirne; ein Grund, warum wir unsere Gefühle mit dem Verstand so schlecht kontrollieren könnten.
MacLeans Aufräumarbeiten im Gehirn wurden sehr populär. Und sie waren auch leicht verständlich. So wie die Philosophen