31,90 €
In den vergangenen hundert Jahren hat die Menschheit spektakuläre Fortschritte bei der Wissenserlangung über das Universum, die Vergangenheit und sich selbst gemacht. Die Geschichte der großen vorklassischen Zivilisationen und die Geschichte der menschlichen Evolution wurden erkundet und detailliert kartiert. Diese Fortschritte waren enorm, aufregend und folgenreich. Doch eine bemerkenswerte Tatsache begleitet diese Entwicklungen: Während man früher glaubte, dass jeder Erkenntnisfortschritt unsere Unwissenheit schmälert, haben uns die jüngsten Riesenschritte gezeigt, wie wenig wir wissen. Das Nachfragen erzeugt somit ein Paradoxon: Zunehmendes Wissen steigert unsere Unwissenheit.
Was also wissen wir? Und wovon wissen wir heute, dass wir es nicht wissen? Und was haben wir über die Natur des Forschens selbst gelernt – die Barrieren und Schwierigkeiten, die überwunden oder berücksichtigt werden müssen? Was sind die Grenzen des Wissens und wie können wir sie überschreiten?
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Veröffentlichungsjahr: 2023
A. C. Grayling
Die Grenzen des Wissens
Was wissen wir von dem, was wir nicht wissen?
Aus dem Englischen von Jens Hagestedt
Für die Studenten, Dozenten und Mitarbeiter, die das New College of the Humanities gegründet haben, und für alle, die sein Vermächtnis weitertragen:
Animi Cultura Gaudere
Die Menschheit hat in jüngster Zeit sehr viel über das Universum, über die Vergangenheit und über sich selbst gelernt. Seit dem 19. Jahrhundert hat sie Jahrtausende ausgegraben, die zuvor vergessen oder völlig unbekannt gewesen waren: die Geschichte der großen vorklassischen Zivilisationen und die Geschichte der menschlichen Evolution. Seit Beginn des 20. Jahrhunderts hat sie bis dahin unvorstellbare Entdeckungen über das physikalische Universum im kleinsten und größten Maßstab gemacht, von der Quantentheorie bis zur Kosmologie und zu den Ursprüngen von Raum und Zeit. Und in den letzten Jahrzehnten ist es ihr gelungen, ins Innere des Gehirns zu schauen, um seine Strukturen detaillierter zu vermessen und bei der Arbeit zu beobachten.
Diese Fortschritte waren enorm, sie waren beglückend, und sie waren folgenreich. Wir bewohnen ein anderes, viel reicheres Universum als noch unsere Vorfahren im 19. Jahrhundert. Doch im Zuge dieser Entwicklungen ist eine bemerkenswerte Tatsache deutlich geworden: Während man früher glaubte, jeder Wissensfortschritt verringere unsere Unwissenheit, haben uns die jüngsten Riesenschritte gezeigt, wie wenig wir wissen. Forschung hat ein paradoxes Ergebnis: Mit zunehmendem Wissen nimmt unser Unwissen zu. Was also wissen wir? Und wovon wissen wir heute, dass wir es nicht wissen? Und was haben wir über das Forschen selbst gelernt – über die Hindernisse und Schwierigkeiten, die überwunden werden müssen, wenn unser größer werdendes Wissen unser Unwissen vergrößert?
Das vorliegende Buch versucht, diese Fragen in Bezug auf drei wichtige Wissensgebiete zu beantworten: die Naturwissenschaft – genauer die Grundlagenphysik und die Kosmologie –, die Geschichtswissenschaft – genauer die Geschichte der vorklassischen Vergangenheit und der menschlichen Evolution – und die Psychologie – genauer die Neurowissenschaften von Gehirn und Geist.
Ich befasse mich als Autor viel mit der Entstehung von Ideen auf den verschiedensten Gebieten und der Geschichte der Philosophie und bin immer wieder fasziniert von Fragen, die das Sichabmühen der Menschheit an den Grenzen des Wissens und das Wesen, die Methoden und die Probleme der Forschung betreffen. Diese Fragen gehören zum Kern der Philosophie – Philosophie im weitesten Sinne verstanden als Nachdenken darüber, was wir wissen, woher wir es wissen und warum dieses Wissen von Bedeutung ist –, weil sie zum Kern des menschlichen Strebens gehören. In diesem Buch möchte ich drei der wichtigsten Grenzbereiche dieses Strebens darstellen und erkunden; ich möchte beschreiben, wo sie früher lagen und wie sie immer weiter hinausgeschoben wurden; und ich möchte erörtern, was ihre aktuelle Lage uns darüber lehrt, was wir noch lernen müssen.
A. C. GraylingNew College of the Humanities
Was wissen wir über die Welt, über die Vergangenheit und über uns selbst? Vor allem in den letzten anderthalb Jahrhunderten hat die Forschung auf diesen Gebieten spektakuläre Fortschritte gemacht. Die allgemeinsten Bezeichnungen für die entsprechenden Fachbereiche sind Naturwissenschaft, Geschichtswissenschaft und Psychologie, aber sie werden weder dem gerecht, was auf diesen Gebieten erreicht wurde, noch dem, was die Errungenschaften bedeuten und wohin sie uns vielleicht führen können. Diese Errungenschaften sind Ergebnisse sich rasch entwickelnder Forschungstechnologien, die die Reichweite unseres Vermögens, Erkenntnisse zu gewinnen, enorm vergrößert haben, und zwar sowohl in Bezug auf die Vergangenheit als auch in Bezug auf vordem unzugängliche Größenordnungen des Raumes – von den entferntesten Galaxien bis zu den komplexen Strukturen des menschlichen Gehirns und weiter hinab zur inneren Architektur des Atoms. Dabei hat jeder kleine Fortschritt neue Fragen aufgeworfen, Fragen, die vorher nicht gestellt werden konnten; und eines der wichtigsten Ergebnisse war, dass ein Paradoxon offenbar wurde: das Paradoxon des Wissens. Je mehr wir wissen, umso mehr wird uns bewusst, wie wenig wir wissen.
Das Paradoxon des Wissens ist uns erst durch die jüngsten Fortschritte im Wissen offenbar geworden; bevor diese Fortschritte so groß und weitreichend wurden, glaubte man, dass erlangtes Wissen den Umfang des nicht Gewussten reduziere, ja dass es möglich sein werde, eines Tages die Grenze des Wissbaren zu erreichen, also alles zu wissen, was es zu wissen gibt. Dass diese Sichtweise sich auf dramatische Weise umgekehrt hat, ist keine Überraschung mehr, aber die Implikationen, einschließlich derer, die das Wesen des Forschens selbst betreffen, gilt es erst noch vollständig zu begreifen.
Im Laufe der Menschheitsgeschichte stieß jede Phase des Zuwachses an Wissen an Grenzen; für die Pioniere, die sich über diese hinauswagten, definierten sie die auf der anderen Seite liegende terra incognita. Nicht selten erwies sich die Richtung des weiteren Vorgehens, in die sie zu weisen schienen, als falsch. Eine der bedeutsamsten Fragen in Bezug auf die heutigen Grenzen ist daher die, ob wir wirklich in die Richtungen, die sie angeben, weitergehen sollten. Die richtige Antwort lautet natürlich: Wie sollen wir das wissen, bevor wir es versucht haben? Aber womöglich gibt es sowohl in der Geschichte der früheren Grenzen als auch in der Herangehensweise an die heutigen Grenzen Hinweise, die weiterhelfen.
In einem wichtigen Sinne des Wortes »Wissen« haben unsere Vorfahren nicht nur vor Tausenden, sondern vor Millionen von Jahren eine Menge gewusst. Allem Anschein nach sind die frühesten Steinwerkzeuge vor 3,3 Millionen Jahren entstanden, auf halbem Weg zurück zu dem Punkt in der Evolutionsgeschichte, an dem sich die Stammbäume von Schimpansen und menschlichen Vorfahren trennten. Das Wissen unserer Vorfahren war Wissen über das Wie, das heißt praktisches Wissen, von der Herstellung von Werkzeugen über den Bau von Behausungen, die Beherrschung des Feuers, die Schaffung von Höhlenkunst, die Domestizierung von Tieren und die Züchtung von Pflanzen, das Behauen und Bewegen riesiger Steine, das Graben von Bewässerungskanälen, die Herstellung von Textilien und Töpferwaren, das Gießen von Bronze aus Kupfer und Zinn, das Schmelzen von Eisen und so weiter bis hin zu den fortgeschrittenen Technologien von heute.
Zum Wissen über das Wie traten mit ziemlicher Sicherheit schon recht früh Bemühungen, Wissen über das Was zu erlangen – das heißt theoretisches Wissen, Erklärungen, warum das Wie funktioniert –, wobei unsere Vorfahren wohl vor allem Erklärungen ersannen, in denen Naturkräften Handlungsmacht zugeschrieben wurde. Um Donner, Wind, Regen und die Bewegungen der Himmelskörper zu erklären, haben unsere Vorfahren wahrscheinlich aus ihrer eigenen Handlungsmacht – der Fähigkeit, selbst etwas zu verursachen, zum Beispiel das Geräusch, das entsteht, wenn man einen Stein ins Wasser wirft – gefolgert, dass alles, was sich bewegt, Geräusche macht oder sich in irgendeiner Weise verändert, eine Handlungsinstanz, einen Beweger, hinter oder in sich haben müsse. Außerdem führte der Anschein intentionalen Verhaltens bei Tieren zweifellos dazu, dass unsere Vorfahren glaubten, Tiere hätten ein ähnliches geistig-seelisches Leben wie sie selbst. Was beim Reh wie Scheu und beim Löwen wie Wildheit aussieht, hielten sie für Entsprechungen eigener Gefühle: Wenn ein Reh weglief, tat es das aus Furcht; wenn ein Löwe angriff, tat er das, weil er aufgebracht war. Die animistischen Quellen religiöser Vorstellungen sind in einigen der frühesten bekannten Versuche, Naturphänomene zu erklären, mit Händen zu greifen. Der »Vorsokratiker« Thales zum Beispiel stellte die Hypothese auf, dass »alles voller Seelen« sei, um etwa zu erklären, warum ein Magnet Eisen anzieht (mit »Seele« meinte er ein belebendes Prinzip).[1]
Die Geschichte lehrt uns, dass Erklärungen für gewusstes Was hauptsächlich in dem bestanden, was wir heute als »religiöse« Vorstellungen bezeichnen. Diese führten zu weiteren Formen vermeintlichen Wissens über das Wie, da sie Formen von Interaktion mit den die Natur beherrschenden Instanzen nahelegten und damit die Hoffnung nährten, diese Instanzen durch Rituale, Gebete und Opfer günstig stimmen zu können. Es ist eine interessante Spekulation, dass sich das Streben nach Herrschaft im selben Maße von der Natur auf die Gesellschaft verlagerte, in dem liturgische (religiöse, rituelle) Mittel zur Beeinflussung der Natur durch praktische, profane Kenntnisse ersetzt wurden. Das Phänomen des »Tabus« lässt vermuten, dass die Kontrolle über bestimmte Verhaltensweisen, als sie nicht mehr notwendig schien, um die Natur oder deren Götter zu beeinflussen, als soziale Kontrolle – in Form von »Moral«-Vorstellungen – erhalten blieb. Aber unabhängig davon, ob dies der Fall war oder nicht, bleibt die Kernaussage richtig, dass bis in die jüngste Epoche der Menschheitsgeschichte das Wissen über das Wie dem Wissen über das Was weit voraus war und dass Letzteres, als »Wissen« in Anführungszeichen, bis vor kurzem in erster Linie auf Einbildung, Phantasterei, Furcht und Wunschdenken beruhte.
Wie der obige Verweis auf Thales schon angedeutet hat, werden die Bemühungen der Menschheit, Wissen nicht nur über das Wie, sondern auch über das Was zu erwerben, ohne sich dafür auf Einbildung und traditionelle Vorstellungen zu stützen, erst im 6. Jahrhundert v. u. Z. bei den Philosophen der griechischen Antike voll sichtbar. Thales, der wahrscheinlich um 624/623 v. u. Z. im ionischen Milet, an der Ostküste der Ägäis, geboren wurde und zwischen 548 und 544 ebenda starb, wird oft als »der erste Philosoph« bezeichnet, weil er der erste Mensch war, von dem bekannt ist, dass er eine die Natur und den Ursprung der Wirklichkeit betreffende Frage gestellt und beantwortet hat, ohne auf einen Mythos zurückzugreifen. Auf der Suche nach einer Erklärung, die plausibler war als die der Mythenerzähler und Dichter, versuchte er, die archē (»Prinzip«) des Kosmos – also das, was Aristoteles später als »dasjenige« definiert hat, »woraus alles Seiende ist […] das Element und Prinzip des Seienden«[2] – in dem zu erkennen, was er um sich herum sah. Für ihn war das Wasser diese archē. Sein Gedanke lässt sich wie folgt rekonstruieren: Wasser ist überall, und es ist von essenzieller Bedeutung. Es ist im Meer, fällt vom Himmel, fließt in unseren Adern, ist in Pflanzen enthalten und ist der Stoff, ohne den alle Lebewesen sterben. Man kann sogar sagen, dass Wasser Erde produziert: Man sehe sich die riesigen Mengen an Erdreich an, die der Nil bei seinen jährlichen Überschwemmungen ausspuckt. Und das entscheidende Argument: Wasser ist die einzige – Thales bekannte – Substanz, die alle drei Aggregatzustände der Materie haben kann: fest (wenn es gefroren ist), flüssig (der Grundzustand) und gasförmig (wenn es verdampft). Für Thales war Wasser also, und zwar als einzige Substanz, allgegenwärtig, essenziell, produktiv und metamorph. Folglich musste es für ihn die Substanz sein, die allen anderen Dingen zugrunde liegt und ohne die sie nicht sein können, was sie sind. Es musste die archē des Universums sein.[3]
Für die damalige Zeit war diese Sichtweise ein großer Wurf. Vor allem aber war sie eine Sichtweise, die sich allein auf Beobachtung und folgerndes Denken stützte, nicht auf Mythen, Legenden oder Einbildung. Darum wird Thales »der erste Philosoph« genannt. Zweifellos haben viele Menschen vor ihm ähnlich gedacht, aber da wir keine schriftlichen Aufzeichnungen über sie haben, beginnt für uns mit ihm eine neue Phase der Geschichte. Denn während die Anfänge der Technik – des Wissens über das Wie – schon Millionen von Jahren zurücklagen, gab es Wissenschaft – Wissen über das Was – erst seit diesem Moment.
Angemerkt sei jedoch, dass Beobachtung und folgerndes Denken eines Forschungszusammenhangs und des Sammelns von Befunden bedürfen, die durch Tests korrigiert werden. Beobachtung und folgerndes Denken allein genügen nicht: Sie haben unsere Vorfahren glauben lassen, dass die Sonne über den Himmel laufe, während die Erde ruhe. Daraus, dass die Sonne ihren Ort zu verändern scheint, schlossen sie, dass das bewegliche Objekt die Sonne, nicht die Erde sei. Analoges denken wir vom Mond, und wir denken es aus dem gleichen Grund, und in diesem Fall haben wir auch recht. Es bedurfte wiederholter und tiefer lotender Anwendungen von Beobachtung und folgerndem Denken, um zu dem kontraintuitiven, dem Augenschein widersprechenden Ergebnis zu kommen, dass die Erde die Sonne umkreist.
Dies ist eines von vielen Beispielen, die die allgemeine Aussage rechtfertigen, dass das Tempo des Fortschritts in der Geschichte des Wissens über das Was zunächst gering war und sich, da erst ein Korpus von Forschungszusammenhängen und Tests gebildet werden musste, auch nur langsam steigerte. Dass es so war, lag auch daran, dass das Bemühen um Wissen über das Was allzu oft von mächtigen traditionalistischen – hauptsächlich religiösen – Interessen bekämpft wurde, die sich von ihm bedroht fühlten. Rasch wuchs das Wissen über das Was erst seit dem Beginn der Neuzeit, seit dem 16. und dem 17. Jahrhundert.[4] Und geradezu kometenhaft ist der Anstieg seit dem 19. Jahrhundert.
Dass immer neue Kenntnisse hinzukommen, bedeutet, dass unser Wissen noch unvollständig ist. Vielleicht ist vieles sogar noch in einem sehr frühen Stadium und wird korrigiert oder ganz verworfen werden, wenn sich die empirischen Befunde häufen und die Methoden und Technologien der Forschung weiter verbessern, was permanent der Fall ist. Die uns und unsere Welt betreffenden Fragen, die der explosionsartige Wissenszuwachs bisher aufwirft, können daher nur vorläufig beantwortet werden. Der menschliche Hunger nach Antworten wird diese allerdings trotz ihrer Vorläufigkeit suchen.
Die Frage »Was wissen wir?« zieht Folgefragen nach sich: Woher wissen wir es? Gibt es Grenzen für das, was man wissen kann? Was verstehen wir überhaupt unter Wissen? Was unterscheidet Wissen von Glaube und Meinung? Und wenn es eine strenge Definition von Wissen gibt, die dieses scharf von »bloßem« Glauben und »bloßer« Meinung abgrenzt, ist dann das, was wir haben, nicht eher Glaube als Wissen? Denn wenn wir Wissen streng als das definieren, was wahr ist und aufgrund von unbestreitbaren Tatsachen akzeptiert wird, ist Wissen dann überhaupt möglich? Wo gibt es – außer in der Mathematik – unbestreitbares Wissen? Einige Vorbemerkungen helfen, diese wichtigen Fragen zu sortieren.
Ein zentrales Gebiet der Philosophie ist die Erkenntnistheorie oder »Theorie des Wissens«.[5] Das Ausgangsmaterial erkenntnistheoretischer Fachdebatten in der Philosophie sind ganz einfache Wissensbehauptungen wie »Ich weiß, dass jetzt ein Laptop vor mir steht« und abstruse Möglichkeiten, sich zu irren, wenn wir solche Behauptungen aufstellen wie »Es könnte sein, dass ich träume oder halluziniere«, verbunden mit der Frage »Wie kann ich diese Möglichkeit ausschließen?«. Das bringt uns dazu, zu fragen: »Wissen wir überhaupt etwas? Können wir wirklich etwas wissen?« Wenn die einfachsten Behauptungen, etwas zu wissen, nicht gegen skeptizistisches Infragestellen verteidigt werden können, nicht einmal gegen das ausgefallenste, dann haben wir – offensichtlich – ein Problem.
Und wie es aussieht, haben wir in der Tat ein Problem. Das skeptizistische Infragestellen, so bizarr es auch erscheinen mag, zeigt uns, dass wir strenggenommen tatsächlich nichts wissen, jedenfalls außerhalb der Mathematik und der Logik, der einzigen Gebiete, auf denen Gewissheit erlangt werden kann.[6] Das bedeutet, dass wir akzeptieren müssen, dass wir nicht Wissen im strengen Sinne erlangen können, sondern nur in hohem Maße belastbare, gut fundierte Überzeugungen, und dass sich demzufolge jede unserer Überzeugungen, wie gut sie auch durch empirische Befunde abgesichert sein mag, als falsch erweisen kann.
Auf dieser Auffassung basiert die Naturwissenschaft, die mit guten Gründen als größte intellektuelle Errungenschaft der Menschheit bezeichnet werden kann. Sie erkennt ihre Wissensbehauptungen als anfechtbar an, das heißt als der Revision im Lichte neuer empirischer Befunde bedürftig, wenn diese die aktuelle Theorie in Frage stellen. Ihre Methode ist das Paradigma einer verantwortungsbewussten, sorgfältigen und gewissenhaften Untersuchung ihrer Gegenstände; sie ist äußerst selbstkritisch und wird von den empirischen Daten des Experiments kontrolliert, das heißt von der tatsächlichen Beschaffenheit der Welt. Aufgrund dieses hochempfindlichen Sinns für erkenntnistheoretische Verantwortung behaupten Naturwissenschaftler nicht, etwas zu wissen, aber sie sorgen dafür, dass ihre Theorien durch rigorose Tests und Evaluierungen so gut wie möglich abgesichert sind. Bei Experimenten in der Hochenergiephysik zum Beispiel ist es üblich, ein Ergebnis erst dann zu veröffentlichen, wenn es den als »5 Sigma« bezeichneten Belastbarkeitsgrad erreicht, das heißt, wenn die über alle Versuchsdurchläufe hinweg erzielten Ergebnisse eine statistische Schwankungsbreite von nur 1 zu 3,3 Millionen aufweisen. Die Zeitschrift Physical Review Letters betrachtet nur 5-Sigma-Ergebnisse als »Entdeckungen«.
Dieses Bewusstsein intellektueller Verantwortung kennzeichnet alle ernsthaften Forschungen, in der Geschichtswissenschaft und den Sozialwissenschaften ebenso wie in den Naturwissenschaften. Zwar unterscheiden sich die Techniken und Methoden, aber der Ethik des Forschens sind alle Forschungen verpflichtet, nicht zuletzt im Umgang mit den Problemen, auf die all ihre Formen stoßen und die ich im Folgenden kurz darstellen werde.
Naturwissenschaft (science) ist wohlgemerkt nicht dasselbe wie Szientismus (scientism), das heißt die Überzeugung, dass die Naturwissenschaft letztlich alles erklären könne und werde. Teilchenphysik oder anorganische Chemie beanspruchen nicht, politische Systeme oder die Qualitäten romantischer Dichtung erklären zu können. Naturwissenschaftliche Forschungen konzentrieren sich jeweils auf ein bestimmtes Thema: auf den fundamentalen Aufbau der Materie, die Evolution biologischer Arten, die Beschaffenheit ferner Galaxien, die Entwicklung von Impfstoffen gegen virale Infektionen und so weiter. Naturwissenschaft ist ein äußerst selbstkritisches Unternehmen. Es ist nicht denkbar ohne die genaue Prüfung, der die Wissenschaftler ihre Arbeit und die Arbeit anderer unterziehen, bevor sie es wagen, sie zu veröffentlichen. Damit setzt sie Maßstäbe: Was die Geschichtswissenschaft und die anderen Sozial- sowie die Geisteswissenschaften bieten, hat zwar mehr den Charakter von Kommentaren zur Gesellschaft und zum menschlichen Dasein, aber sie stellen dieselben Überlegungen zur intellektuellen Redlichkeit an.
Diese Überlegungen nötigen uns, uns mit den Problemen auseinanderzusetzen, die die Forschung bedrängen und die uns die jüngsten dramatischen Wissensfortschritte nicht zuletzt mit dem Ausmaß an noch nicht Gewusstem, das sie offenbaren, noch deutlicher vor Augen führen. Ich nenne im Folgenden ein Dutzend dieser Probleme, die ich in den Erörterungen des Buches an den jeweils relevanten Stellen ansprechen werde. Es sind dies im Einzelnen:
Das Nadellochproblem. Unsere Ausgangspunkte bei all unseren Forschungen sind die (nicht nur zahlenmäßig) sehr begrenzten Daten, die uns jeweils an Ort und Stelle in Raum und Zeit zur Verfügung stehen und uns aus unserer endlichen Perspektive wie durch ein Nadelloch, das genau vor uns, zwischen dem ganz Kleinen und dem ganz Großen, positioniert ist, einen Blick auf das Universum und in die Vergangenheit erlauben. Führen unsere Methoden uns durch das Nadelloch?[7]
Das Metaphernproblem. Welche Metaphern und Analogien ziehen wir zur Bezeichnung unserer Forschungsergebnisse heran, und kann es sein, dass sie uns in die Irre führen?
Das Kartierungsproblem. Wie verhalten sich die Theorien zu den Realitäten, auf die sie sich beziehen? (Auch eine Landkarte unterscheidet sich ja von dem Land, das sie darstellt.)
Das Kriterienproblem. Wie ist die Anwendung von Kriterien wie »Einfachheit«, »Optimalität«, ja »Schönheit« und »Eleganz« bei der Formulierung von Forschungsprogrammen und der Anerkennung von Ergebnissen zu rechtfertigen und gegebenenfalls zu korrigieren? Helfen Bezugnahmen auf diese »außertheoretischen Kriterien« bei der Forschung, oder verfälschen sie sie?
Das Wahrheitsproblem. Welches sind angesichts der Tatsache, dass empirische Forschung uns nur Wahrscheinlichkeiten liefert, die Maßstäbe (wie die Sigma-Skala in der Naturwissenschaft) dafür, dass Ergebnisse als der Gewissheit ausreichend nahe kommend betrachtet werden können? Bedeutet die besagte Tatsache, dass wir »Wahrheit« pragmatisch interpretieren müssen, als möglicherweise unerreichbares Ziel der Forschung, dem diese im Idealfall aber näher kommt? Was bedeutet das für den Begriff der Wahrheit selbst?
Das Ptolemäus-Problem. Ptolemäus’ geozentrisches Modell des Universums »funktionierte« in mancherlei Hinsicht: Es ermöglichte zum Beispiel das erfolgreiche Navigieren auf den Ozeanen und die Vorhersage von Sonnenfinsternissen und bewies damit, dass eine Theorie hilfreich und dennoch falsch sein kann. Wie verhindern wir, von pragmatischer Angemessenheit irregeführt zu werden?
Das Hammerproblem. Prägnant formuliert als »Wenn dein Werkzeug ein Hammer ist, sieht alles aus wie ein Nagel«, erinnert uns dieses Problem daran, dass wir dazu neigen, nur das zu sehen, was unsere Methoden und Apparaturen uns zeigen können.
Das Laternenlichtproblem. Jeder kennt den Witz von dem Mann, der seine Schlüssel nachts auf der Straße verloren hat und sie unter einer Laterne sucht, weil er unter ihr besser sehen kann. Wir erforschen das, was der Erforschung zugänglich ist, aus dem offenkundigen Grund, dass wir zum Unzugänglichen keinen Zugang haben.
Das Einmischungsproblem. Untersuchen und Beobachten kann das, was untersucht oder beobachtet wird, beeinflussen. Wenn man Tiere in freier Wildbahn studiert, studiert man sie dann so, als ob sie unbeobachtet wären, oder studiert man ein Verhalten, das durch die Beobachtung beeinflusst wird? Im letzteren Fall macht sich der sogenannte »Beobachtereffekt« geltend. Kann zuverlässig ausgeschlossen werden, dass das Aufschneiden und Färben einer Probe für die mikroskopische Untersuchung den Befund verfälscht? Kann die Zertrümmerung subatomarer Teilchen zuverlässig Aufschluss darüber geben, wie sie entstanden sind?
Das Problem des Hineinlesens. Dieses Problem ergibt sich vor allem für die Geschichtswissenschaft und die psychologischen Wissenschaften, weil sie Gegebenheiten oft ausgehend von Annahmen interpretieren, die mit der Erfahrung und dem epochebedingten Blickwinkel der Interpreten zusammenhängen. Können wir uns gegen die darin liegende Gefahr der Verfälschung wappnen?
Das Parmenides-Problem. Dieses Problem ist die Gefahr, die dem Reduktionismus innewohnt: alles auf eine einzige letzte Ursache oder Erklärung zurückzuführen. Was auf den ersten Blick der schlimmste elementare Fehler zu sein scheint, ist bemerkenswerterweise ein Charakteristikum harter Naturwissenschaft.
Zu guter Letzt das Problem des Abschließens: Auch der Wunsch, zu einem Abschluss zu kommen, etwas vollständig zu erklären oder eine Geschichte zu Ende zu erzählen, aufzuräumen und Schluss zu machen, kann ein Problem sein. Es ist ein natürlicher menschlicher Impuls, befriedigende narrative Erklärungen vom Typ »dies, weil das« geben zu wollen, wobei »das« die Aufgabe erfüllt, die Kette der Erklärungen zu beenden und die Notwendigkeit eines weiteren »das« aufzuheben. Klassische Beispiele dafür liefern vermeintliche Erklärungen von der Art des »Gottes der Lücken«. Siehe auch oben das Parmenides-Problem.
Die drei Bereiche der Forschung, die ich in diesem Buch unter die Lupe nehme, sind von den genannten Problemen in unterschiedlichem Maße betroffen. Ich erörtere in jedem Bereich und in der Schlussfolgerung die wichtigsten.
Aufgrund der genannten Probleme sagen manche Denker, es gebe Dinge, die wir niemals wissen könnten: Fragen etwa, die die Beschaffenheit des Bewusstseins betreffen, könnten nie beantwortet werden, weil der Versuch, sie zu beantworten, dem Versuch eines Auges gliche, sich selbst zu sehen. Aber das ist ein Argument, das auf Resignation hinausläuft und das kein Forscher akzeptieren sollte. Wäre die Frage »Gibt es Grenzen des Wissens?« sinnvoll, so wäre sie bestenfalls defätistisch, da sie implizieren würde, dass es solche Grenzen geben könnte. Doch sie ist nicht sinnvoll, da sie nicht beantwortbar ist – sie könnte nur beantwortet werden, wenn es uns, was in sich widersprüchlich ist, gelänge, die Grenzen des Wissens zu überschreiten und auf sie zurückzublicken, um zu sehen, wo sie liegen. Die agniologische (»kann nicht wissen«) Position ist als Bestandteil einer allgemeinen Theorie der Forschung und ihrer Ziele also unhaltbar. Stattdessen gilt es, sich zu den unbegrenzten Möglichkeiten des Wissens zu bekennen; das ist es, was uns bei der beharrlichen Suche nach einem besseren Verständnis des Universums und unserer selbst motiviert. Wir lernen aber aus dem Durchdenken des Nadellochproblems und der anderen Probleme, wie wir forschen sollten und was wir angesichts der Herausforderungen, vor denen dieses Unterfangen steht, vermeiden oder berücksichtigen müssen; wir lernen, was wir tun müssen, um unser Wissen zu erweitern und unsere Unwissenheit zu verringern.
In diesem Buch geht es nicht um Erkenntnistheorie im engeren philosophischen Sinne, also darum, auf skeptizistisches Infragestellen unserer grundlegendsten Wissensbehauptungen zu antworten, um herauszufinden, was gewusst werden kann, wenn man »Wissen« nach der strengsten Definition als das bestimmt, was wahr ist und aufgrund von unbestreitbaren Tatsachen akzeptiert wird. Es geht vielmehr darum, die in hohem Maße belastbaren, gut fundierten Überzeugungen zu untersuchen und zu verstehen, die wir informell als »Wissen« bezeichnen. Daher werde ich den Begriff des »Wissens« von hier an in diesem letzteren Sinne verwenden, der auch dem gängigen Verständnis entspricht: »Wissen« ist zum Beispiel, was wir in Enzyklopädien finden. Es geht also um Wissen und Nichtwissen in diesem Sinne, und zwar im Zusammenhang mit den jüngsten Fortschritten in Naturwissenschaft, Geschichte und Psychologie.
Ich stelle, genauer, folgende Fragen: Was wissen wir auf diesen Gebieten, und was glaubten wir einst zu wissen? Woher wissen wir, was wir heute zu wissen glauben, und haben wir Fragen zu – oder Vorbehalte gegenüber – den Methoden und Annahmen, die diesem Wissen und seinem Erwerb zugrunde liegen? Eine der konstruktiven Aufgaben der Philosophie ist die begriffliche Organisation, die sie durch die Art ihrer Fragen leisten kann. In seinem Essay Concerning Humane Understanding (dt. Versuch über den menschlichen Verstand) – verfasst zur Förderung der aufblühenden Naturwissenschaft des 17. Jahrhunderts – hat John Locke diese Aufgabe als die eines »Hilfsarbeiters«[8] bezeichnet, der den Weg ebnet, auf dem die Forschung voranschreitet. Versteht man unter Philosophie Reflexion und den Versuch zu begreifen, dann ist diese Metapher eine treffende Bezeichnung für die hier gestellte Aufgabe.
Die Teilgebiete der drei Forschungsbereiche – der Welt, der Vergangenheit und des Geistes –, die ich untersuche, sind: (Teil I) Teilchenphysik und Kosmologie, (Teil II) Geschichte, Archäologie und Paläoanthropologie sowie (Teil III) die (kognitiven) Neurowissenschaften von Geist und Gehirn. Meine Darlegungen können natürlich nicht allumfassend sein; ich konzentriere mich auf zentrale Aspekte jedes Teilgebiets.
Dies sind nicht die einzigen neuen Wissensgebiete, die in jüngerer Zeit entstanden und mit schwindelerregender Geschwindigkeit gewachsen sind, aber es sind wohl diejenigen, die unser Selbstverständnis am stärksten verändert haben. Großen Einfluss auf die Zukunft der Menschheit haben allerdings auch andere Wissensbereiche: Zu nennen wäre als Erstes die Gentherapie, das »Genetic Engineering« (die unter anderem vor Erbkrankheiten schützen soll), mit den Anwendungen der Stammzellenforschung. Diese Entwicklungen sind noch nicht am Ziel, und über ihre Auswirkungen kann man nur spekulieren. Man kann hoffen, dass sie nicht nur für den Kampf gegen viele Krankheiten von Nutzen sein werden, die die Menschheit heute, da die Lebenserwartung so sehr gestiegen ist, plagen – Herz-Kreislauf-Erkrankungen und Krebs sind die wichtigsten –, sondern auch für den Kampf gegen das Altern. Über die sozialen, psychologischen und wirtschaftlichen Folgen eines noch längeren und viel gesünderen Lebens, als es das heutige ist, hat man bisher allerdings kaum nachgedacht.
Das andere Set zukunftsweisender Entwicklungen betrifft die Anwendungen der künstlichen Intelligenz. Vielleicht ist die Aussage, dass diese Entwicklungen die Zukunft beeinflussen werden, schon anachronistisch: KI ist da und bereits in vielfältiger Weise im Einsatz, und zwar zumeist zu unserem Vorteil. Wie weit die Entwicklungen gehen und wie sie sich in ihrer Gesamtheit auswirken werden, dies sind Fragen, die derzeit zur Debatte stehen.[9]
»Neu« ist das entscheidende Wort im Zusammenhang mit den Teilgebieten der drei Forschungsbereiche, die ich in diesem Buch betrachte. Man bedenke: Ein subatomares Teilchen wurde erstmals 1897 beobachtet, als J. J. Thomson das Elektron entdeckte. Der Atomkern wurde erstmals 1909 von Hans Geiger und Ernest Marsden beschrieben, die im Labor von Ernest Rutherford arbeiteten. Einsteins Spezielle Relativitätstheorie wurde 1905 veröffentlicht, seine Allgemeine Relativitätstheorie 1915. Die Quantentheorie entwickelte sich in den ersten Jahrzehnten des 20. Jahrhunderts und erhielt eine Art offizielle Bestätigung durch die Physiker auf der Solvay-Konferenz von 1927. Das Photon hatte seinen Namen erst im Jahr zuvor erhalten. Das »Standardmodell« des Atoms hatte sich in den 1970er Jahren weitgehend durchgesetzt, und die Bestätigung für die Existenz des Higgs-Feldes vervollständigte das Modell im Juli 2012.
Erst 1924, durch die Arbeit von Edwin Hubble, wurde klar, dass die Milchstraße, in der sich unser Sonnensystem befindet, nicht das gesamte Universum ist, sondern nur eine von unzähligen Galaxien. 1929 stellte Hubble fest, dass sich das Universum ausdehnt. Das wiederum führte zur Formulierung der »Urknalltheorie«. 1992 bestätigte der Cosmic Background Explorer (COBE) der NASA die Existenz der Hintergrundstrahlung, die vom Urknall vor 13,72 Milliarden Jahren (nach heutigen Berechnungen) übriggeblieben ist.
Ahnungen und Hypothesen, die einen kleinen Teil des Weges zu diesen Entdeckungen bahnten, gab es natürlich schon davor: Philosophen der griechischen Antike hatten behauptet, die Materie müsse aus kleinsten Teilen bestehen (daher das Wort »Atom«; atomos bedeutet unteilbar, unzerschneidbar); im 17. Jahrhundert hatten Denker wie Pierre Gassendi und Robert Boyle spekuliert, dass Korpuskel (»kleine Körper«) Bestandteile von Materie und Gasen seien; und auf einer belastbareren Beobachtungsbasis hatten John Dalton und Robert Brown im 19. Jahrhundert dasselbe behauptet. Immanuel Kant hatte im 18. Jahrhundert vermutet, dass sich das Universum ausdehne; als einer der Begründer der »Kant-Laplaceschen Theorie«, die auch als »Nebularhypothese« bezeichnet wird, hat er daher Verdienste auf diesem Gebiet. Und keine der Arbeiten von Thomson, Rutherford, Einstein und ihren Nachfolgern in der Naturwissenschaft des 20. Jahrhunderts wäre ohne Galileo Galilei, Newton, Faraday, Maxwell und andere möglich gewesen. Aber es bleibt dabei: Der bei weitem größere Teil unseres heutigen Wissens auf den Gebieten der Physik und der Kosmologie stammt aus der jüngeren Vergangenheit; die großen Erkenntnisfortschritte wurden alle im Laufe der letzten einhundert Jahre gemacht.
Das Erstaunlichste an diesem Wissenszuwachs ist jedoch: Er hat uns offenbart, dass wir nur zu etwa fünf Prozent der physikalischen Wirklichkeit Zugang haben. Und was die Kosmologie betrifft: Dass es der Menschheit gelungen ist, sich ein empirisch begründetes Bild von der Geschichte des Universums vom Urknall bis zur Gegenwart zu machen – eine gewaltige Errungenschaft –, ist nicht einmal ein Jahrhundert her, aber schon heute lassen die Rätsel exotischere Möglichkeiten denkbar erscheinen, die auf der Hypothese beruhen, dass es dunkle Materie und dunkle Energie gibt, und auf hochspekulativen Mutmaßungen, wie Relativitätstheorie und Quantentheorie vereinigt werden könnten. So wird heute für möglich gehalten, dass unser Universum nur eines von vielen Universen ist, oder nur eine Phase in einer Abfolge von unvorstellbar vielen Universen, oder nur die beste Erklärung aus einem begrenzten, aus unserer Nadellochperspektive erstellten Virtual-Reality-Konstrukt.
Andere Probleme betreffen unser Wissen über die tiefere historische Vergangenheit. Über das klassische Altertum (und die Geschichte seither) gab es schon immer ein ziemlich umfangreiches Wissen, da diese Epoche sowohl in materiellen Zeugnissen als auch in einem Teil ihrer Literatur bis heute überlebt hat. Aber alles, was man darüber hinaus zu wissen glaubte, war vermeintliches Wissen, das aus den Epen Homers und den Geschichten und Legenden der hebräischen Bibel (des »Alten Testaments« der Christenheit) stammte. Die hebräische Bibel gab vor, die Geschichte seit der Erschaffung der Welt etwa sechstausend Jahre vor der Zeit, in der sie selbst entstand, zu erzählen. Ihre Bücher nahmen auf die ägyptischen Pharaonen, das Ur der Chaldäer, das Reich von Babylon und andere Dinge Bezug, die auf eine vorklassische Vergangenheit hindeuteten, und hielten mit Legenden und Mythen ein Bewusstsein wach, dass es jenseits des Bekannten eine tiefere historische Zeit gegeben hatte. Später weckten die Antiken- und Kuriositätensammler der Renaissance mit ihren Aktivitäten das Interesse an dem, was über die bekannte Geschichte hinausging, aber erst im späten 18. und vor allem im 19. Jahrhundert kam es zu systematischeren Bemühungen, diese tiefere historische Vergangenheit auszugraben, und zwar im wahrsten Sinne des Wortes, nämlich archäologisch. Und erst damit geriet diese tiefere Vergangenheit ins Blickfeld.
Als Napoleon 1798 in Ägypten einmarschierte, hatte er zweihundert Gelehrte dabei, die die Topologie, die Botanik, die Zoologie, die Mineralogie, die Gesellschaft, die Wirtschaft und die Geschichte des Landes studieren sollten. Sie vermaßen und zeichneten die Tempel und Monumente von Luxor, Dendera, Philae und dem Tal der Könige. Keine zehn Jahre später waren Erkenntnisse der Gelehrten in den ersten Bänden der enzyklopädischen 23-bändigen Description de l’ Égypte veröffentlicht, die nach ihrer Vollendung 1828 international ein manisches Interesse an allem Ägyptischen und, darüber hinaus, Levantinischen auslöste. Eine Reihe von Gelehrten nahm die sorgfältige Übersetzung der hieroglyphischen Inschriften auf dem Rosetta-Stein in Angriff. Der Durchbruch gelang Anfang der 1820er Jahre, als Jean-François Champollion anhand der Namen in den Kartuschen der Inschriften auf dem Rosetta-Stein und auf anderen Quellen wie dem Obelisken von Philae einige phonetische Schriftzeichen der altägyptischen Sprache identifizieren konnte.
Im 19. Jahrhundert wurden vom rasch wachsenden Interesse an der Ausgrabung der Vergangenheit – »Ausgrabung« im wörtlichen archäologischen Sinne – auch Amateure erfasst. Einige bewog vor allem der Wunsch, eine Bestätigung der Geschichte zu finden, die das Alte Testament erzählt hatte, für andere war die Motivation die Suche nach Kuriositäten und Sammlerstücken, und für Diebe, die durch das Interesse der Amateure auf diese Dinge aufmerksam geworden waren, war es die Aussicht auf Beute. Die erste große Fundstelle in Mesopotamien, Ninive, war Auslöser für die Aktivitäten der beiden letztgenannten Gruppen. Doch das größte publizistische Echo fand eine Grabung des 19. Jahrhunderts, die einem homerischen Impuls folgte: Heinrich Schliemanns 1870 begonnene Suche nach der Stadt Troja. Dieses berühmte Unternehmen richtete weit mehr Unheil an, als es Nutzen brachte, da sich Schliemann ohne jede Umsicht durch die diversen archäologischen Schichten des Hisarlık Tepe grub und zu seinen Funden außerdem allzu ambitionierte Behauptungen aufstellte. Seine unsensiblen archäologischen Methoden waren leider die gleichen wie die seiner Vorgänger und der meisten seiner Zeitgenossen; sie fügten den empfindlichen Stätten großen Schaden zu und vernichteten Zeugnisse, die die Zeit nicht hatte auslöschen können.
In den folgenden Jahrzehnten kam es in der Archäologie zu einem sorgfältigeren und systematischeren Vorgehen, das unter anderem die frühen Zivilisationen des Vorderen Orients schärfer und umfassender in den Blick rückte, und im 20. Jahrhundert ging es auch mit den Methoden der Archäologie und den Beiträgen der Naturwissenschaft zu ihnen voran. Seit den 1940er Jahren wurde die Radiokarbondatierung praktiziert, es folgten Fortschritte in der Geochemie und Geophysik mit verschiedenen Formen der Fernerkundung einschließlich Radar und Lidar, 3D-Laserscanning, Luftbildarchäologie und Raman-Spektrometrie, mit tragbaren Röntgenfluoreszenzanalysatoren, medizinischen Analysen von Zähnen und Knochen und der Untersuchung antiker DNA, forensischen Untersuchungen des Informationsschatzes in antiken Müllgruben und Toiletten und vielem mehr – all das hat die investigativen Kapazitäten der Archäologie erheblich erweitert. Diese Entwicklungen sind allerdings nicht unumstritten: So wird über »prozessuale« und »postprozessuale« Methoden debattiert, und es gibt Spannungen zwischen Vertretern naturwissenschaftlicher und humanistischer Ansätze, auch wenn die Archäologie nach und nach immer mehr Schichten der Vergangenheit abträgt und immer mehr Schichten des Verständnisses erarbeitet.
Doch große Rätsel sind geblieben: Was verursachte um 1200 v. u. Z. den Zusammenbruch der bronzezeitlichen Zivilisation und stürzte die Hochkulturen des östlichen Mittelmeerraums und des Vorderen Orients in ein mehrere Jahrhunderte andauerndes »dunkles Zeitalter«? Ägyptische Aufzeichnungen gaben aufeinanderfolgenden Invasionen sogenannter »Seevölker«, von denen wir nichts wissen, die Schuld, aber die Historiker sind sich weitgehend einig, dass die Ursachen – darunter Klimaveränderungen, Hungersnöte und der Zusammenbruch der Handelsrouten, die vom Industal im Osten bis nach Britannien im Westen führten – viel komplexer waren. Dieses dunkle Zeitalter zog einen Schleier über die Vergangenheit, den erst die Archäologie lüftete; es ist bemerkenswert, dass die eindrucksvolle Architektur und die erlesene Kunst von Mesopotamien, der Levante, der Ägäis und Ägyptens bis vor kurzem fast völlig unbekannt waren.
Aber diese Entdeckungen betreffen nur die letzten etwa sechstausend Jahre – oder die letzten zwölftausend, wenn wir die Einblicke mitberücksichtigen, die sie in die Epoche seit dem Beginn der Jungsteinzeit eröffnen, als systematische Landwirtschaft und Urbanisierung begannen. Die Geschichte des Homo sapiens und seiner Verwandten und Vorläufer verliert sich mit immer spärlicher und mehrdeutiger werdenden Funden in einer weit entfernten Vergangenheit. Die Naturwissenschaft hat auch auf diesem Gebiet für einen Aufschwung gesorgt, aber was uns die Zeugnisse über die Ursprünge des Menschen sagen, wird immer unschlüssiger; jede neue Entdeckung von Zähnen, Knochen und Werkzeugen scheint unser Bild von unseren frühen Vorfahren eher unklarer zu machen. Ein Beispiel dafür ist die bemerkenswerte, nicht einmal zehn Jahre zurückliegende Entdeckung des Homo naledi in Südafrika mit der ihm eigenen rätselhaften Mischung von Merkmalen: Während sein Kopf, sein Oberkörper, seine Hüften und seine gekrümmten Finger so primitiv sind, dass sie an Australopithecinen erinnern, die vor etwa 3 Millionen Jahren lebten, ähneln seine hochentwickelten Hände und Füße denen von Neandertalern und modernen Menschen. Eine sorgfältige Datierung der Überreste führte zu dem erstaunlichen Ergebnis, dass der Homo naledi erst vor etwa dreihunderttausend Jahren lebte, was ihn zum Zeitgenossen des frühmodernen Homo und zu einem Mitglied der Homo-Klade macht.
Es verwundert nicht, dass die größte und die kleinste Größenordnung des Universums und die verschüttete Vergangenheit sowohl der Zivilisation als auch unserer Spezies die Forschung vor so große Herausforderungen stellen. Bemerkenswert ist jedoch, wie deutlich das uns immer vertrauter werdende Paradoxon des Wissens in ihnen wird: Je mehr wir wissen, umso klarer wird, wie viel wir nicht wissen.
Was ist nun mit dem dritten Forschungsbereich, den Neurowissenschaften und der Psychologie? Das Wissen über uns selbst, unseren Geist, unser Bewusstsein, das Wesen des Menschen – es berührt unser Innerstes und interessiert uns geradezu obsessiv, wie unsere Literatur, unsere Unterhaltungsshows, unser Klatsch und Tratsch, unsere Grübeleien, unsere Ängste, Hoffnungen, Liebesgefühle, Träume und Befürchtungen uns unablässig beweisen. Und doch zeigt sich auch hier das Paradoxon, dass eine Explosion des Wissens das Geheimnis vertieft. Trotz der Hingabe, mit der die Philosophie, die bildende Kunst, die Literatur und unsere anderen selbstreflexiven Bemühungen sich der Frage widmen, wer und was wir sind, verstehen wir das Wesen und die Psychologie des Menschen immer noch nicht ganz, und für die zugrunde liegende komplexe materielle Realität, das Gehirn, gilt das erst recht.
Erst seit wenigen Jahrzehnten ist es möglich, die Hirnaktivität eines Menschen nicht-invasiv und in Echtzeit zu betrachten, um mit Hilfe der funktionellen Magnetresonanztomographie (fMRT) zu versuchen, Hirnareale zu funktionalen und psychologischen Fähigkeiten in Beziehung zu setzen. Vor dem Aufkommen der fMRT als neuropsychologisches Werkzeug musste man sich im Wesentlichen auf »Läsionsstudien« stützen, die den Verlust oder die Störung so verschiedener Funktionen wie Sprache, Bewegung, Sehen, Hören, Gedächtnis und Affektkontrolle mit Verletzungen oder Krankheiten in Teilen des Gehirns in Verbindung brachten. Die Hirnforschung ist von großer praktischer Bedeutung für die Aufgabe, geschädigte Gehirne zu reparieren, Demenzerkrankungen zu verhindern oder rückgängig zu machen und Epilepsie zu heilen, wobei die Lösung dieser Aufgabe aus leicht ersichtlichen Gründen das Wissen darüber voraussetzt, wo geistige Fähigkeiten im Hirn lokalisiert sind. Aber Hirnstudien verraten vielleicht nicht alles, was wir über das Wesen und die Psychologie des Menschen wissen wollen. Die Evolutionspsychologie und ihr umfassenderer Vorläufer, die Soziobiologie, bieten in dieser Hinsicht Perspektiven. Doch das ist umstritten, was in gleicher Weise für die Neuropsychologie gilt. Vielleicht muss das auch so sein, denn beide Wissenschaften sind noch im Entstehen begriffen, ihre Methoden und Apparaturen noch in der Entwicklung, und das Gewicht opponierender traditioneller Ansichten und Überzeugungen ist immer noch groß.
Die Widerspenstigkeit des psychologischen Materials ist für unser Bemühen um Verständnis eine gewaltige Herausforderung. Aber das ist nicht das einzige Hindernis, das seiner Erforschung im Wege steht: Es gibt auch Ängste, Befürchtungen, dass hier eine Büchse der Pandora geöffnet werden könnte – schlimmstenfalls so, wie Science-Fiction-Autoren es sich vorstellen, die die beunruhigende oder hilfreiche Neigung haben, nachdenklich stimmende Szenarien zu entwerfen. Zum Beispiel das Szenario, dass Chips in die Gehirne eingepflanzt werden, um die Gedanken und das Verhalten der Menschen zu kontrollieren, womit ein Einbruch in die Privatsphäre verbunden sein könnte, eine feindliche Übernahme der Menschheit durch künstliche Intelligenz, den Ferrari der Intelligenztechnologien gleichsam, eingebaut als verborgene Steuerungsinstanz in den Ford T (»Tin Lizzie«) des von der Evolution hervorgebrachten Primatengehirns.
Es kommt durchaus auf das Was unseres Wissens an. Es mag zwar weniger wichtig erscheinen, dass wir verstehen, warum es vor dreitausend Jahren zum Zusammenbruch der Bronzezeit kam, als dass wir die Struktur und die Funktion des Gehirns verstehen, da wir diese Kenntnisse brauchen, um Krankheiten und Verletzungen des Organs zu behandeln. Doch könnte das erstgenannte Wissen, das zunächst als Gegenstand bloßer Neugier erscheinen mag, uns einen wertvollen Einblick in die Faktoren vermitteln, die wirtschaftliche und soziale Probleme, ja zivilisatorische Katastrophen verursachen, wie es sie in der dokumentierten Geschichte mehr als einmal gegeben hat. Das zeigt, dass alles Wissen nützlich und vieles davon lebenswichtig ist.
Es ist aber auch wichtig, dass wir verstehen, woher wir wissen, was wir wissen. Wenn wir sehen, wie naturwissenschaftliches und historisches Wissen erworben wird, welche Probleme dabei gelöst und welche Fragen aufgeworfen werden, die die damit zugrunde liegenden Annahmen und eingesetzten Methoden betreffen, lernen wir nicht nur, wie wir das, was wir wissen, bewerten können, sondern wir lernen auch viel über verantwortungsbewusstes Denken und die Gebote intellektueller Redlichkeit. Diese Dinge sind auf jedem Gebiet menschlichen Tuns von Bedeutung, und sie stehen hoch im Kurs. Die Künste der Überredung, der Ablenkung, der Aufbauschung oder der Verschleierung von Fakten, der Beeinflussung und Manipulation von Meinungen werden überall, von der Politik bis zur Werbung, geübt – und sie alle setzen darauf, dass, wie Bertrand Russell einmal gesagt hat, »die meisten Menschen lieber sterben würden, als zu denken, und dass die meisten es tatsächlich tun«. Denn leider wird der Eindruck erzeugt, dass Überredung und Manipulation wichtiger seien als das Bemühen um Wahrhaftigkeit. Daher ist das Wissen, was wir wissen und woher wir es wissen, ein großartiges Korrektiv der virtuellen Realitäten und Halbrealitäten, die parteiische Interessenvertreter ständig vor uns inszenieren, um uns etwas verkaufen zu können – sei es ein Produkt oder eine Idee, ein politisches Projekt oder eine Lüge.
Die Darlegungen sind wie folgt gegliedert. Ich beginne mit einem Überblick über die einstigen Grenzen des Wissens in dem – nicht immer geradlinigen und reibungslosen – Prozess, der zu den aktuellen Wissensbeständen in der Physik, der Frühgeschichte und der Erforschung von Gehirn und Geist geführt hat. Ich gehe anschließend die wichtigsten Entdeckungen durch, die in jüngster Zeit auf diesen Forschungsgebieten gemacht wurden, und betrachte einige der auf dem jeweiligen Gebiet einschlägigen Fragen, Probleme und Versprechen. Da dies ein Buch für interessierte Laien ist, setze ich keine Vorkenntnisse voraus. Wer über Fachwissen auf einem der Gebiete verfügt, kann direkt zu den Abschnitten des entsprechenden Teils gehen, in denen Fragen und Probleme erörtert werden. Ich habe mich durchweg um Klarheit und Genauigkeit bemüht, aber da sich jedes dieser Gebiete noch entwickelt und da auf jedem leidenschaftlich debattiert wird, erwarte ich nicht, dass irgendeine meiner Ansichten allgemeine Zustimmung finden wird. Darauf käme es auch nicht an. Eine Debatte ist eine gute Sache; sie ist der Motor, der die Räder des Fortschritts antreibt.
»Naturwissenschaft« ist ein weiter Begriff, dessen Bedeutung aber hinreichend klar ist: Die meisten Menschen erwerben in der Schule elementare Kenntnisse in Physik, Chemie und Biologie. Weniger vertraut und weitaus tiefgründiger aber sind die Teilbereiche und Kombinationen dieser breit gefächerten Wissenschaften und ihrer Themen, die von den Grundelementen der physikalischen Realität über die Komplexität des Lebens bis hin zu den entferntesten Regionen des Kosmos reichen. In der jüngsten Vergangenheit hat die Zahl der Forschungen auf diesen Gebieten exponentiell zugenommen, und die Anwendungen vieler Entdeckungen in Technik und Medizin waren im wahrsten Sinne des Wortes revolutionär und transformativ.
Dennoch weiß die große Mehrheit der Menschen auf dem Planeten immer noch wenig über das, was die Naturwissenschaften bisher enthüllt haben; stattdessen hält sie an einem Weltbild fest, das in vielerlei Hinsicht demjenigen ähnelt, das vor der wissenschaftlichen Revolution des 16. und 17. Jahrhunderts herrschte. Dieses Weltbild – von einem von Gott geschaffenen Universum, in dessen Mittelpunkt physisch und moralisch der Mensch steht – war damals funktionell dominant, ist aber, obwohl es von der Mehrheit noch immer für wahr gehalten wird, funktionell marginal geworden, da die Welt in fast allen praktischen Belangen auf Wissenschaft und Technik angewiesen ist.
Angesichts der fulminanten Fortschritte der Naturwissenschaft ist es bemerkenswert, dass sie das Paradoxon des Wissens so klar veranschaulicht. Das gilt vor allem für die Grundlagenphysik und die Kosmologie, weniger für Biologie und Medizin, wobei insbesondere die Letztere zeigt, wie weit die Kompetenz zur Beherrschung von Aspekten der Welt in der angewandten Wissenschaft über das hinausgegangen ist, was frühere Generationen sich vorstellen konnten. Daher konzentriere ich mich auf den folgenden Seiten auf die Physik und die Kosmologie, ergänze aber zweierlei: eine Skizze der technischen Vorgeschichte der Naturwissenschaft und etwas, was man als Überlagerung der Denkstrukturen bezeichnen könnte, die die naturwissenschaftliche Forschung bestimmen, um zu veranschaulichen, dass Annahmen darüber, »wie die Welt sein muss« und welche Form eine befriedigende Erklärung für sie haben sollte, erstaunlich hartnäckige Merkmale unseres Realitätssinnes sind und einige der Verwirrungen erklären könnten, die gerade durch die Erfolge der Naturwissenschaft entstanden sind.
Obwohl das Wissen über das Wie und das Wissen über das Was (oder das Warum) einander nicht ausschließen, ist die Unterscheidung wichtig. Die Geschichte der Menschheit ist die Geschichte einer erfinderischen, forschenden, Dinge reparierenden Spezies, die während der meisten Zeit ihres Bestehens Techniken und Technologien erfunden hat, die nicht nur ihrem Kampf ums Überleben dienten, sondern in einer Rückkopplungsschleife auch ihre Evolution vorantrieben. Theodor W. Adorno soll gesagt haben, dass die Menschheit im Laufe der Zeit intelligenter geworden sei, wie die Weiterentwicklung des Speers zur Lenkrakete beweise, aber nicht klüger, wie die Lenkrakete selbst beweise. Das ist ein lehrreicher Gedanke, aber es ist gut, sich daran zu erinnern, dass die meisten Techniken und Technologien für die friedlichen Zwecke des Lebens und Überlebens erfunden wurden, auch wenn die Rüstungsbudgets heute genauso groß oder sogar größer sind als die für die meisten anderen Aktivitäten der Menschheit.
Fast jede funktionierende Technik dient der Befriedigung eines Bedürfnisses. Zu verstehen, warum sie funktioniert, kann in manchen Fällen von Bedeutung sein, ist aber meist nicht notwendig. Manchmal ist es das nicht einmal in der Wissenschaft: Der berühmte Physiker Richard Feynman soll geraten haben, die schwierige Frage, wie die Quantenphysik zu deuten sei, zu ignorieren; statt den Versuch zu machen, sie zu beantworten, solle man einfach »den Mund halten und rechnen«. Ungeachtet solch robuster Ansichten ist Wissenschaft in erster Linie das Bemühen zu verstehen, das heißt zu erkennen, warum die Dinge so sind, wie sie sind. In der Technik geht es demgegenüber darum, etwas hinzukriegen, ganz gleich, wie der Erfolg zu erklären ist. Es geht nicht um Theorie, sondern allein um Zweckmäßigkeit.
Die Geschichte der Technik ist lang und eindrucksvoll. Die Geschichte der Wissenschaft ist kurz, aber noch eindrucksvoller. Da die Geschichte der Technik selten erzählt wird und meist nur diejenigen interessiert, die als Menschen mit mehreren Kugelschreibern in der Brusttasche karikiert werden, liefert der folgende Überblick Hintergrundinformationen für die allgemeine Frage nach dem Wissen über das Was und über das Wie.
Man hat früher geglaubt, dass Werkzeuggebrauch nur für den Menschen charakteristisch sei. Aber viele andere Spezies stellen ebenfalls (sei es auch zumeist nur rudimentäre) Werkzeuge her und benutzen sie. Werkzeuggebrauch kann also nicht mehr als Alleinstellungsmerkmal des Menschen dienen. Ganz sicher aber sind die Art, die Qualität und die Vielfalt der Werkzeuge selbst der frühen Menschen und ihre Weiterentwicklung zu den ausgereiften Technologien von heute Alleinstellungsmerkmale. Ein weiteres und noch wichtigeres ist die Tatsache, dass Werkzeuggebrauch im Verlauf der Evolution des Homo sapiens schließlich fast obligatorisch wurde, so dass sich unsere Spezies ohne Werkzeuge nicht so gut entwickelt hätte, wie es der Fall war, und heute Schwierigkeiten hätte zu überleben. Zu den Besonderheiten des Menschen zählt also, dass er ein technologisches Wesen ist, und zwar ein systematisch technologisches – im Unterschied etwa zum Schimpansen, der Termiten mit einem abgerissenen Zweig fängt, oder zum Seeotter, der Muscheln mit einem Kieselstein knackt.
Es ist zwar umstritten, aber es könnte sein, dass ein Hominin oder vielleicht Hominid – der Begriff der Hominiden bezeichnet jene Klasse der Primaten, von der die Homininen die menschliche und menschenverwandte Untergruppe sind – bereits vor 3,3 Millionen Jahren mit der Herstellung von Steinwerkzeugen begonnen hat. Die Entdeckung von offenbar bearbeiteten Steinen an der archäologischen Fundstätte Lomekwi 3 am Westufer des Turkana-Sees in Kenia lässt das zumindest vermuten. Ihren Entdeckern zufolge weisen einige der dort gefundenen Steine Spuren von Knapping auf, einem Verfahren, bei dem vom Kern eines Steins Splitter abgespalten oder abgebrochen werden. Die Werkzeuge von Lomekwi, vor allem die als Ambosse verwendeten Steine, sind ausgesprochen groß. Da sie 500 000 Jahre älter sind als die ersten Homo-Fossilien (sie stammen aus derselben Zeit wie die Australopithecinen) und 700 000 Jahre älter als die ersten Werkzeuge (nämlich die der Oldowan-Steinindustrie), die sicher mit Homininen in Verbindung gebracht werden können, sind die Funde von Lomekwi spannend.
Die etwa 150 Artefakte von Lomekwi deuten auf die Anwendung der Block-auf-Block-Schlagmethode zum Brechen von Steinen hin, einer Technik, die heute bei Schimpansen zu beobachten ist, während Spuren doppelter Knappungen auf eine absichtliche Bearbeitung der Steine zu Werkzeugen schließen lassen, deren Zweck allerdings, falls es sich tatsächlich um Werkzeuge handelt, unbekannt ist, da sie nicht in der Nähe von Tierknochen gefunden wurden, die Schnitt- oder Schlagspuren aufweisen. Schimpansen zerkauen zwar, nach Abstreifen der Blätter, die Enden von Zweigen zu Bürsten, um damit Termiten zu fangen, doch wurde nie beobachtet, dass sie Steine zum Zerlegen von Fleisch oder zum Aufbrechen von Schädeln und anderen Knochen verwenden, um an das weiche Gewebe zu gelangen.
Oldowan-Werkzeuge sind eindeutig Homininen-Werkzeuge. Benannt sind sie nach dem Ort ihrer ersten Entdeckung, der Oldowai-Schlucht in Tansania, doch wurden frühere Exemplare in Äthiopien gefunden: in Gona und am Grabungsort Ledi-Geraru in der Afar-Region. Mit einem Alter von mehr als 2,6 mya (»mya« ist die Standardabkürzung für »million years ago«, »vor x Millionen Jahren«) sind die letzteren die ältesten bekannten Werkzeuge dieser Kulturstufe. Das charakteristische Oldowan-Werkzeug ist der »Chopper« (»Hacker«), ein Stein, dessen eine Seite durch das Abschlagen von Splittern zu einer Schneide geschärft wurde, so dass er außer zum Hacken auch zum Schneiden und Schaben verwendet werden konnte. Mikrofeine Spuren an Oldowan-Schneidkanten beweisen, dass mit den Steinen sowohl Pflanzen als auch Fleisch und Knochen bearbeitet wurden. Zum Werkzeugsatz der Oldowan gehörten auch Stößel, mit denen Pflanzenfasern weichgeklopft und Knochen aufgebrochen wurden, um an das Mark zu gelangen. Diese Art von Werkzeugen blieb eine Million Jahre in Gebrauch. Exemplare wurden im gesamten östlichen und südlichen Afrika, im Vorderen Orient, in Europa und Südasien gefunden und dem Homo habilis (dem »geschickten Menschen«) und dem frühen Homo erectus zugeschrieben.[10]
Diese Werkzeuge sind Belege für einen Wandel in den Ernährungs- und den sozialen Gewohnheiten der Homininen, die sie herstellten. Die Steinbearbeitungstechniken erzeugten scharfe Kanten, deren Spuren auf Tierknochen zu erkennen sind, die neben den Werkzeugen an Oldowan-Fundstätten lagen. Sowohl die Steine für die Herstellung der Werkzeuge als auch die Beutetiere wurden von den Orten ihrer Herkunft zu diesen Fundstätten transportiert, was beweist, dass sich die Homininen dort versammelten, um die Arbeit und deren Erträge zu teilen.
Eine gewisse Verfeinerung weisen die Werkzeuge der Acheuléen-Steinindustrie auf, deren Anfänge 1,76 Millionen Jahre zurückliegen. Die genannten Zeitabstände sind extrem groß; der Abstand zwischen dem Beginn der Lomekwi- und dem der Oldowan-Steinindustrie scheint auf ein niedriges Nutzungsniveau und sehr wenig Entwicklung hinzudeuten, aber das Tempo des Fortschritts von der Oldowan- zur Acheuléen-Industrie war nicht größer. Das ist auch nicht verwunderlich, da Werkzeuge zwar den Energieaufwand für die Erledigung von Arbeiten verringern, dafür aber vorhanden sein müssen. Und sie zu beschaffen ist mit erheblichem Aufwand verbunden: Zunächst müssen geeignete Rohstoffe gefunden werden, dann müssen diese zu Strukturen verarbeitet werden, die für den vorgesehenen Zweck geeignet sind, und die Fähigkeiten, die für das Finden geeigneter Materialien, die Herstellung der Werkzeuge aus ihnen und den effektiven Gebrauch derselben erforderlich sind, müssen entwickelt werden. Man hat errechnet, dass die Herstellung und der sachkundige Gebrauch von Artefakten auf Acheuléen-Niveau Hunderte von Stunden an Erfahrung voraussetzten. Faulheit ist die einfachere Option; sie ermuntert zum Festhalten an einer vertrauten Technik, wenn diese ihren Zweck halbwegs erfüllt. Die Herstellung der eleganten, symmetrischen und vielfältigen Acheuléen-Werkzeuge erforderte zweifellos ein viel höheres Maß an Geschicklichkeit und Planung als die der Oldowan-Werkzeuge, und das spricht Bände; der Verstand ihrer Fabrikanten muss sehr viel weiter entwickelt gewesen sein.
Acheuléen-Werkzeuge wurden aus Steinen hergestellt, die aufgrund ihrer günstigen Brucheigenschaften gewählt wurden: Chalzedon, Jaspis und Feuerstein, an einigen Orten auch Quarzit. Geeignete Steine wurden über beträchtliche Entfernungen vom Fundort zum Lager der Werkzeugmacher transportiert und dort zu zweischneidigen Handbeilen und Hackmessern verarbeitet. Die gefundenen Exemplare beweisen, dass die Werkzeuge im Laufe der 1,3 Millionen Jahre, in denen diese Industrie florierte, immer weiter verfeinert wurden. Während die Steine der frühen Handbeile durch Schlagen gegen einen anderen Stein, der als Amboss diente, in die gewünschte Form gebracht wurden, wurden später Holzhämmer verwendet, um kleinere, schlankere Äxte mit schärferen und geraderen Schneiden zu erhalten. Es gibt Indizien dafür, dass die Werkzeuge der Acheuléen-Industrie zum Teil schon Griffe hatten; zwar hat sich das Holz der Griffe nicht erhalten, aber an einigen Äxten und Hämmern finden sich Spuren von klebenden Materialien wie Bitumen und Nadelbaumharz, was zusammen mit den Schlagspuren darauf schließen lässt, dass diese Werkzeuge mit Griffen geführt wurden.
Vor etwa 300 000 Jahren entwickelte sich dann die Levallois-Technik, die sich durch sorgfältige Vorbereitung der Kerne auszeichnete. Dabei wurde ein Steinbrocken, eben der Kern, in eine schildkrötenähnliche, nämlich unten flache und oben bucklige Form gebracht. Durch einen geschickten Schlag auf einen ausgewählten markanten Punkt entstand dann ein sogenannter Abschlag, der mit einem Knochen, einer Geweihspitze oder einem weichen Stein weiter bearbeitet werden konnte, um das gewünschte Ergebnis zu erzielen. Die Anwendung dieser Technik durch die Neandertaler ist für die Steinindustrie des Moustérien charakteristisch, das nach der französischen Ortschaft Le Moustier benannt ist, wo die ersten Exemplare gefunden wurden; die Technik wurde allerdings zur selben Zeit auch in weiten Teilen Afrikas praktiziert.
Die Levallois-Technik wurde zeitgleich mit dem Erscheinen der ersten »anatomisch modernen Menschen« in Afrika entwickelt. Vor etwa 100 000 Jahren entstand zum ersten Mal Kunst – die Entdeckungen in der Blombos-Höhle in Südafrika haben einige der frühesten Belege erbracht –, und von etwa 60 bis 50 kya (»kya« ist die Abkürzung für »kilo years ago«, »vor x tausend Jahren«) kam es sowohl in Afrika als auch außerhalb Afrikas zu immer rascheren technischen Veränderungen, die ab 40 kya zur Werkzeugindustrie des Aurignacien mit Klingen, Sticheln, Nadeln und Schabern nicht nur aus Stein, sondern auch aus Knochen und Geweih führten. Da die Menschen des Aurignacien auch Höhlenmalereien, Skulpturen (herausragende Beispiele sind die Venus vom Hohlen Fels und die Löwenmenschenfigur vom Hohlenstein-Stadel), Schmuckgegenstände, etwa Halsketten, und Musikinstrumente (z. B. die ebenfalls im Hohlen Fels gefundene Knochenflöte) hinterlassen haben, hatten sie ihre Werkzeuge nicht nur für Subsistenzzwecke hergestellt. Diese Entwicklungen dokumentieren einen weiteren großen Schritt in der Geschichte der Menschheit.
Vor etwa 12 000 Jahren wurden die ersten mikrolithischen Werkzeuge – kleine scharfe Splitter, die an einem Griff befestigt wurden und als Sägen oder Sensen dienten – geschaffen. Außerdem wurden die Steine durch sorgfältiges Schleifen poliert, was ihre Festigkeit und Effektivität als Werkzeuge wie als Waffen verbesserte und sie weniger anfällig für Brüche machte. In den Augen ihrer Nutzer erhöhte das Polieren zweifellos auch ihre ästhetischen Qualitäten, wie die Tatsache beweist, dass polierte Steinäxte zusammen mit anderen Beigaben in den Gräbern ihrer verstorbenen Besitzer gefunden wurden.
Wie gering die Fortschritte waren, die die Technik der Menschheit in der Jungsteinzeit (ab 12 kya) machte, lässt sich an Ötzi, dem Mann aus dem Eis, ablesen, dessen in einem Gletscher konservierter Leichnam 1991 in den Alpen entdeckt wurde. Obwohl er gegen Ende des 4. Jahrtausends v. u. Z. lebte, unterschieden sich seine Werkzeuge und seine Ausrüstung nicht von dem, was zu Beginn der Jungsteinzeit zur Verfügung stand (mit einer Ausnahme: er besaß eine Axt mit Kupferkopf). Sowohl seine Pfeilspitzen als auch sein Dolch waren aus behauenem Feuerstein, er trug Kleidung aus verschiedenen Lederarten und eine Bärenfellmütze mit einem ledernen Kinnriemen. Sein Mantel war aus geflochtenem Gras, und er trug wasserdichte Schuhe mit Sohlen aus Bärenfell und Oberteilen aus genähtem Hirschleder. Zu seinem Werkzeugsatz gehörten eine Ahle oder ein Stichel zum Stanzen von Löchern in Leder, Schaber und Feuersteinsplitter sowie ein Werkzeug, das möglicherweise zum Schärfen von Pfeilen diente. Einige Pfeile in seinem Köcher waren am hinteren Ende des Schafts zur Verbesserung ihrer Flugeigenschaften mit Federn versehen, andere aber nicht, was darauf hindeutet, dass er seine Ausrüstung nach und nach anfertigte. Er war an der linken Schulter von einem Pfeil getroffen worden und starb wahrscheinlich an Blutverlust, da die Wunde in der Nähe einer Arterie lag. Der Kupferkopf seiner Axt war mit Lederriemen an einem Eibenstiel befestigt. Auf die gleiche Weise waren die Pfeilspitzen aus Feuerstein mit ihren Schäften verbunden.
Es ist nicht abwegig, sich vorzustellen, dass einer von Ötzis Vorfahren zu Beginn der Jungsteinzeit ähnlich gekleidet und ausgerüstet war wie er. Steinwerkzeuge wurden im Vorderen Orient noch bis etwa 1200 v. u. Z. zum Schlachten verwendet, und während der gesamten Bronzezeit ähnelten Feuersteindolche Bronzedolchen und umgekehrt, was beweist, dass sich Stein- und Metalltechnologien lange Zeit überlappten.
Ebenso interessant wie die Werkzeuge selbst ist das, was sie über ihre Hersteller aussagen. Die drei Millionen Jahre der Geschichte der Werkzeugherstellung zeugen von auf Erfahrung basierender Planung. Man bedenke, was das bedeutet: Sich erinnern, nachdenken, zu einer Erkenntnis kommen, immer wieder experimentieren, Verbesserungen vornehmen – das sind die Formen des bewussten und zielgerichteten Gebrauchs von Intelligenz, und obwohl die Entwicklung in diesen drei Millionen Jahren zum größten Teil sehr langsam vonstattenging, liegen Welten zwischen den bearbeiteten Steinen der Oldowan-Industrie vor 2,6 Millionen Jahren und der Verwendung von Steinen zum Aufbrechen von Nüssen durch einige Primatenarten.
Bessere Werkzeuge führten zu mehr und besserer Nahrung. Für die Evolution der Homininen bedeutete das, dass ihre Ernährung mit dem steigenden Energiebedarf ihrer größeren und aktiveren Gehirne Schritt halten konnte. Es handelte sich aber um eine Wechselbeziehung, genauer um eine Rückkopplungsschleife, die eine Reihe von Anpassungen beinhaltete. Input und Output förderten sich gegenseitig. Dass die Menschen nach und nach intelligenter wurden, hängt daher eng mit der Technologie der Herstellung von Werkzeugen und den Fortschritten im Sozialen und in der Ernährung zusammen, die diese Technologie ermöglichte.
Ein Meilenstein war dabei die Beherrschung des Feuers, das für Wärme, Licht und Sicherheit vor Raubtieren sorgte und die Verfügbarkeit von Nahrungsmitteln, die jetzt verdaulicher und unbedenklicher geworden waren, erheblich verbesserte. Unbedenklicher, weil die frühesten unserer Vorfahren, die ihre aus Wurzeln und Früchten bestehende Nahrung durch tierische Kost ergänzten, mit ziemlicher Sicherheit noch Aasfresser gewesen waren, die sich an den Resten von Kadavern gütlich taten, nachdem die Raubtiere sich satt gefressen hatten. Es gibt viele Belege dafür, dass sie Knochenmark verzehrten, ein sehr nahrhaftes und – darauf kommt es hier an – vergleichsweise unbedenkliches Lebensmittel, das kaum krank machte. Vielleicht wurde Fleisch auch in der Sonne getrocknet oder gar mit Salz konserviert, bevor das Kochen möglich wurde; beides blieb jedenfalls auch später eine Option. Das Fleisch von Kadavern zu kochen aber machte es nicht nur unbedenklich, sondern auch schmackhafter; auch wir kochen die meisten Arten von Fleisch, da das Fleisch von toten Tieren als solches bereits verwest. Feuer half unseren Vorfahren im Übrigen auch bei der Herstellung von Werkzeugen, indem es beispielsweise die Spitzen von Holzspeeren härtete und bei bestimmten Steinsorten das Abschlagen von Splittern erleichterte.
Zweifellos machten sich die Homininen Waldbrände zunutze, wann immer sie konnten, aber was wirklich zählte, war die Beherrschung des Feuers: die Fähigkeit, es nach Belieben zu entfachen, in einem Behältnis einzuschließen und von einem Ort zum anderen zu bringen. Die vorteilhaften Folgen eines Waldbrands – gebratene Kadaver, leichter zugängliche und verdauliche Knollen zum Beispiel – hatten unseren Vorfahren gezeigt, wozu Feuer gut war; heutige Schimpansen machen sich verbrannte Landschaften ebenfalls zunutze. Ein langwieriger Lernprozess, der das Nutzen auf natürliche Weise entstandener Feuer, das Unterhalten eines Feuers für eine gewisse Zeit und schließlich das Entfachen eines Feuers beinhaltete, führte zur Beherrschung einer Energiequelle, die gefährlich sein konnte, wenn sie falsch gehandhabt wurde, aber nützlich war, wenn man sie unter Kontrolle behielt. Es gibt Indizien dafür, dass der Homo erectus Feuer schon vor 1,7 Millionen Jahren systematisch nutzte; mit Sicherheit besaß der anatomisch moderne Homo die Fähigkeit zur Beherrschung des Feuers schon vor mehr als 200 000 Jahren, wie Funde in Südafrika, in der Feuerstellenhöhle der Provinz Limpopo und in den Klasies-River-Höhlen der Provinz Ostkap belegen.
Alle Spuren von früheren und späteren Feuern, die entdeckt wurden, könnten allerdings von Waldbränden stammen: Die Menschen könnten zum Beispiel einen Ast in die Flammen gehalten und sich das Feuer dann gezielt zunutze gemacht haben. Daher ist es schwer, auch nur grob ein sicheres Datum für den Beginn der systematischen Beherrschung des Feuers anzugeben. Aber selbst bevor es dazu kam, war die Einbeziehung des Feuers in die Ressourcen unserer menschlichen Vorfahren für sie und damit auch für ihre Nachkommen von großer Bedeutung.
