Verlag: C. Bertelsmann Verlag Kategorie: Geisteswissenschaft Sprache: Deutsch Ausgabejahr: 2018

Das E-Book lesen Sie auf:

E-Reader EPUB für EUR 1,- kaufen
Tablet EPUB
Smartphone EPUB
Computer EPUB
Lesen Sie in der Cloud®
mit Legimi-Apps.
Warum lohnt es sich?
Hören Sie in der Cloud®
mit Legimi-Apps.
Warum lohnt es sich?

Leseprobe in angepasster Form herunterladen für:

Sicherung: Wasserzeichen E-Book-Leseprobe lesen

E-Book-Beschreibung Unsicherheit - Achim Peters

Die Krankmacher unserer Zeit: Unsicherheit und Stress und wie wir uns dagegen schützen können.Liebe, Freude, Wut, Angst, Neid und Traurigkeit sind Empfindungen, die so alt sind wie die Menschheit. Aber jede Zeit hat ihre eigenen Anforderungen und bringt eigene Emotionen hervor: Oft sind sie deutliche Anzeichen für neue – zeitspezifische – Herausforderungen und Belastungen. Der Internist und Hirnforscher Achim Peters hat nun das tiefgreifendste Gefühl unserer heutigen Zeit analysiert: Unsicherheit. Er erklärt aus medizinischer Sicht, was Unsicherheit in uns verändert, warum sie uns krank machen kann – und wie wir uns bewusst und ganzheitlich dagegen wappnen können.

Meinungen über das E-Book Unsicherheit - Achim Peters

E-Book-Leseprobe Unsicherheit - Achim Peters

Liebe, Freude, Wut, Angst, Neid und Traurigkeit sind Empfindungen, die so alt sind wie die Menschheit. Aber jede Zeit hat ihre eigenen Anforderungen und bringt eigene Emotionen hervor: Oft sind sie deutliche Anzeichen für neue – zeitspezifische – Herausforderungen und Belastungen. Der Internist und Hirnforscher Achim Peters hat nun das tiefgreifendste Gefühl unserer heutigen Zeit analysiert: Unsicherheit. Er erklärt aus medizinischer Sicht, was Unsicherheit in uns verändert, warum sie uns krank machen kann – und wie wir uns bewusst und ganzheitlich dagegen wappnen können.

Zum Autor

Professor Dr. med. Achim Peters, geboren1957, ist Hirnforscher, Endokrinologe und Diabetologe. Er leitet die interdisziplinäre Forschergruppe »Selfish Brain« an der Universität Lübeck. 2011 erschien sein Bestseller Das egoistische Gehirn, 2013 seine provokante Aufklärungsschrift Mythos Übergewicht- Warum dicke Menschen länger leben.

ACHIM PETERSMIT SEBASTIAN JUNGE

Unsicherheit

Das Gefühl unserer Zeit

und was uns gegen Stress und gezielte Verunsicherung hilft

C. Bertelsmann

Der Inhalt dieses E-Books ist urheberrechtlich geschützt und enthält technische Sicherungsmaßnahmen gegen unbefugte Nutzung. Die Entfernung dieser Sicherung sowie die Nutzung durch unbefugte Verarbeitung, Vervielfältigung, Verbreitung oder öffentliche Zugänglichmachung, insbesondere in elektronischer Form, ist untersagt und kann straf- und zivilrechtliche Sanktionen nach sich ziehen.

Sollte diese Publikation Links auf Webseiten Dritter enthalten, so übernehmen wir für deren Inhalte keine Haftung, da wir uns diese nicht zu eigen machen, sondern lediglich auf deren Stand zum Zeitpunkt der Erstveröffentlichung verweisen.

1. Auflage

© 2018 beim C. Bertelsmann Verlag, München, in der Verlagsgruppe Random House GmbH

Umschlaggestaltung: Jorge Schmidt, München

Umsetzung eBook: Greiner & Reichel, Köln

ISBN 978-3-641-22447-9V001

www.cbertelsmann.de

Inhalt

I. Teil: DAS GEHIRN

1. Was ist Stress?

2. Unsicherheit, Information und Energie

3. Das bayesianische Gehirn

4. Vom Umgang mit verborgenen Zuständen

5. Claude Shannon oder: »Was ist eigentlich Information?«

6. Vorhersage – Vorhersagefehler – Update

7. Der Motor unseres Handelns

II. Teil: DER MENSCH

8. Entscheiden in Unsicherheit

9. Überwachheit – Datenautobahn hinauf zur obersten Gehirnetage

10. Der Stoff des Lernens

11. Energie auf Anfrage

12. Der Gebirgsfluss

13. Stress ist ein Unsicherheits-Beseitigungs-Programm

14. Wer habituiert hat, kann Stress besser tolerieren

15. Wer habituiert hat, zeigt eingeschränktes Hochfahren, Umlernen und Handeln

16. Dick durch Habituation

17. Veränderungen der Körperform während des Lebens

III. Teil: DIE GESELLSCHAFT

18. Was ist eigentlich das ICH?

19. Empathie, Vertrauen und sozialer Zusammenhalt

20. Manipulation meiner Zielerwartungen

21. Schattenseiten der Fremdverantwortung

22. Es braucht Information, um Unsicherheit zu reduzieren. Was behindert unseren Zugang zu Informationen?

23. Lügner, Scharlatane & Gaslighter

24. Entrümpeln und entsorgen

25. Der gute Engel der Gewissheit

Dank

Anmerkungen

Register

Meinen Eltern

I. Teil

Das Gehirn

1. Was ist Stress?

Der älteste Gefühlszustand der Welt • Die Entdeckung des Stressbegriffs • Wann ist Stress gut, wann tolerierbar und wann toxisch? • Lässt sich Unsicherheit berechnen? • Claude Shannon und die Suche nach der Formel für ein stressreduziertes Leben

Worüber sprechen wir eigentlich, wenn wir von Gefühlen sprechen? Von Liebe, Angst, Eifersucht, Ekel, Furcht, Geborgenheit, Hass, Hoffnung, Neid, Reue, Scham, Trauer, Wut oder Zuneigung? Gefühle, die wohl jeder Mensch schon erlebt hat. Ganz gleich, welcher Epoche oder Kultur er angehört. Diese Gefühle sind wahrscheinlich so alt wie die Menschheit selbst. Es gibt für diese Gefühle Namen oder Bezeichnungen in beinahe jeder Sprache – von Albanisch bis Walisisch. Und auch die Begriffe für Liebe, Hoffnung oder Hass in den jeweiligen Sprachen sind so alt, dass ihr Ursprung kaum zu bestimmen ist.

Wenn also unser Gefühlsleben so vielfältig ist und schon vor so langer Zeit Eingang in alle Kulturen und Sprachen gefunden hat, wie kann es dann sein, dass ein bestimmter Gefühlszustand scheinbar erst in der Moderne »entdeckt« wurde? Und es geht hier nicht um irgendein abseitiges, selten auftretendes Phänomen, sondern um einen Zustand, den wir ebenfalls alle kennen: STRESS. Eingeführt (und wohl auch geprägt) wurde der Begriff nämlich erst 1936 – von dem Arzt und Chemiker Hans Selye.1 Er stellte als Erster den Stressbegriff auf eine biologisch-medizinische Grundlage. Ihm ging es dabei um die Frage, was im Körper passiert, wenn er starken negativen Reizen ausgesetzt ist – wie zum Beispiel Hitze, Hunger oder Durst. Selye setzte Versuchstiere unterschiedlichsten Belastungen aus und entdeckte, dass bei ihnen immer wieder die gleichen Symptom-Muster auftraten: Die Nebennieren wuchsen, der Thymus schrumpfte, und es entstanden Magen-Darm-Geschwüre. Er nannte dieses Phänomen Stress. Heute wissen wir, dass das Anwachsen der Nebenniere mit der vermehrten Ausschüttung von Cortisol (einem Stresshormon) zusammenhängt und dass der geschrumpfte Thymus Zeichen einer Schwächung des Immunsystems ist. Doch damals – vor weniger als hundert Jahren – war dieses Gebiet wissenschaftliches Neuland. Wir wissen mittlerweile auch, dass neben Hitze, Hunger und Durst eine ganze Reihe anderer Stressoren existiert.

Stress taucht als Begriff also zum ersten Mal vor über achtzig Jahren auf und markiert den Beginn der Stressforschung. Seitdem ist vieles passiert, und viele neue Erkenntnisse wurden gewonnen. Aber auch das Wort Stress hat ein Eigenleben außerhalb der Wissenschaft begonnen. Und da sind wir wieder bei den Gefühlen. Kritiker könnten jetzt einwenden, ob es sich bei Stress überhaupt um ein Gefühl handelt – und sie hätten recht. Stress nur als Gefühl zu beschreiben, würde seiner Komplexität kaum gerecht werden. Die subjektiven Gefühlszustände im Stress hängen eng mit der Wahrnehmung von den zahlreichen Veränderungen im gestressten Körper zusammen, wie »das Herz schlägt mir bis zum Hals«. Genauer gesagt ist das, was wir umgangssprachlich unter dem Begriff Stress verstehen, vor allem ein hochemotionaler Zustand. Wenn wir sagen, dass wir gestresst sind, dann meinen wir im Allgemeinen, angespannt, erschöpft, unruhig oder vielleicht auch nur genervt zu sein. Wenn wir allerdings erklären sollen, was Stress genau ist, denn fällt die Antwort nicht mehr so leicht. Im Grunde haben wir eine eher diffuse Vorstellung davon, was Stress ist und was ihn auslöst, wie wir ihm entgegenwirken können, welche Rolle dabei unser eigenes Verhalten spielt und was Stress in unserem Körper bewirkt.

Interessanterweise geht das nicht nur Laien so. Auch in der Forschung tun sich Wissenschaftler damit schwer, den Begriff klar zu definieren. Sicher ist, dass die Stressforschung noch immer eine vergleichsweise junge Wissenschaft ist und ziemlich am Anfang steht. Und obwohl der Begriff erst 1936 geprägt wurde, ist das Phänomen Stress selbst mindestens so alt wie jene tiefbewegenden Zustände, welche Liebe, Hass oder Hoffnung hervorbringen. Bestimmt ist Stress sogar noch älter. Womöglich ist Stress sogar der älteste Gefühlszustand der Welt. Oder anders gesagt: Stress ist ein Zustand, den jedes Lebewesen kennt. Selbst der primitivste Einzeller, der wohl kaum ein bewusstes Erleben, geschweige denn einen Begriff von der großen Liebe haben kann, zeigt unter kritischen Umständen genau das unruhige Suchverhalten, wie es typisch ist für Stress. Denn Stress entsteht überall dort, wo lebenswichtige Dinge fehlen oder wo das Überleben in Gefahr ist. Deswegen könnte man wohl behaupten: Stress ist so alt wie das Leben selbst. Und er ist – bis heute – eine der größten und mächtigsten Kräfte, die auf uns im täglichen Leben einwirken. Deshalb ist es so wichtig, ihn besser zu erforschen und zu verstehen.

Und dieser Weg des Verstehens fängt mit einer ganz einfachen, grundlegenden Frage an: Was ist Stress? Auf diese Frage würde jeder spontan und situativ wahrscheinlich ganz unterschiedlich antworten: der Stau, der einen daran hindert, pünktlich zur Arbeit zu kommen. Der Chef, der eine Leistung kritisiert. Das Baby, das nachts schreit anstatt zu schlafen. Oder die Angst, den Job zu verlieren. Doch das alles sind keine wissenschaftlich belastbaren Definitionen, sondern bestenfalls Auslöser dafür, dass unser Stresssystem hochfährt, also sogenannte Stressoren. Und was ist nun Stress, wissenschaftlich betrachtet?

Wenn wir von Stress sprechen, ist es zunächst wichtig, festzustellen, welche Stressstufe eigentlich gemeint ist. Denn Stress ist nicht gleich Stress. Grundsätzlich unterscheidet die Stressmedizin drei Stressebenen:

1. Guter Stress: Er ist in der Regel kurz. Stressforscher sprechen auch von einer Episode. Wir erleben zum Beispiel eine fordernde Situation, die schnelles und umsichtiges Handeln verlangt. Wir besorgen uns die nötigen Informationen, entscheiden und lösen das Problem. Der Druck lässt nach, die Anspannung auch, und das Stresssystem, das kurzfristig hochaktiv war, begibt sich wieder in die Ruheposition. Wir haben danach ein gutes Selbstwertgefühl und auch das Gefühl, die Sache wieder unter Kontrolle zu haben. Ein derartiges Stresserlebnis können wir durchaus als anstrengend empfinden, aber auch als erfolgreich und bereichernd.

2. Tolerierbarer Stress: Jetzt ist der Druck größer, und meine Möglichkeiten zu handeln sind eingeschränkt. Wir können das Problem und die bedrohliche Situation nicht auflösen. Aber wir selbst können uns vielleicht verändern. Ein Beispiel: Ein 52-jähriger Mann ist seit acht Jahren arbeitslos. In der ersten Zeit war er extrem verunsichert, angespannt, aufgeregt, erschöpft, schlaflos und hat oft nachts gegrübelt. Mit der Zeit hatte er sich aber an seine neue Lebenssituation gewöhnt. Mittlerweile lebt er äußerst bescheiden und hat eine gewisse Ruhe gefunden. Indem er sich mithilfe seiner Puffermechanismen sowie seiner sozialen Unterstützung in der Familie an die Lage angepasst hat, erlebt er seine schwierige Lebenssituation als tolerierbar. Könnte er dies nicht, liefe er Gefahr, sich mittelfristig toxischem Stress auszusetzen.

3. Toxischer Stress: Wir befinden uns in einer Situation, in der das Stresssystem immer wieder oder dauerhaft erregt ist. Ständig werden wir überrascht. Wir sehen oder finden keine Möglichkeit, daran etwas zu ändern. Aber wir suchen und suchen weiter nach der Lösung, der richtigen Strategie. Oft verharren wir dann in der Unsicherheit, ohne etwas Konkretes zu unternehmen. Das kann zum Beispiel jemand sein, der sich von seinen Kollegen gemobbt fühlt und nicht weiß, ob er kündigen soll, oder jemand, der in einer Partnerschaft mit einer Person lebt, die aufgrund eines Alkoholproblems unberechenbar ist. Wie gesagt, das sind nur einige von vielen Möglichkeiten, in eine Lebenssituation zu geraten, die mit toxischem Stress einhergeht. Wir werden uns im Verlauf dieses Buchs besonders eingehend mit toxischem Stress befassen. Denn seine Auswirkungen können verheerend sein – nicht nur auf unsere Lebensqualität, sondern auch auf unsere Gesundheit.

Aber all das beantwortet natürlich noch nicht definitiv die Frage, was Stress genau ist. Gemeinsam mit dem amerikanischen Pionier der Stressforschung, Bruce McEwen, und dem britischen Psychiater Karl Friston habe ich folgende Frage formuliert, die sich auf jede Form von Stress anwenden lässt:2, 3

• Welche meiner Strategiemöglichkeiten soll ich auswählen, um mein zukünftiges physisches, mentales und soziales Wohlbefinden sicherzustellen?

Wenn es gelingt, hier jeweils die richtige Antwort zu geben, sind alle möglichen schlimmen Überraschungen ausgeschaltet: Wir haben dann genug zu essen, ein gesichertes Einkommen. Nichts und niemand bedroht uns. Wir sind gesund, leben in einer intakten Beziehung, haben Freunde und Kollegen, mit denen wir uns verstehen, und arbeiten in einem Job, in dem wir uns wohlfühlen. Es sind auch keine Gefahren am Horizont zu erkennen – wie zum Beispiel schulische Probleme der Kinder, oder dass unser Arbeitgeber in einer wirtschaftlich schwierigen Phase ist und womöglich Stellen abbauen wird. Das sind natürlich nur Beispiele, aber ich denke, es wird deutlich, was gemeint ist: Wir sind in der Lage, unser Leben so zu gestalten, dass wir Überraschungen vermeiden können.

Und jetzt kommen wir zum zweiten und eigentlichen Teil der Stressdefinition nach Peters, McEwen und Friston:

• Stress tritt immer dann auf, wenn Menschen in einer riskanten Lebenssituation diese Frage – welche meiner Strategiemöglichkeiten soll ich auswählen, um mein zukünftiges Wohlbefinden sicherzustellen? – nicht sicher beantworten können.

Damit lässt sich auch die Frage beantworten, auf die wir meist keine Antwort wissen: Nämlich was macht den Stress für den Einzelnen eigentlich so stressig? Oder anders gefragt: Warum reagiert nicht jeder Mensch auf potenzielle Stressoren gleich? Warum fühlt sich der eine von der Kindererziehung gestresst und ein anderer nicht? Warum regen sich manche Menschen im Stau auf und andere entspannen? Warum macht der gleiche Job dem einen Angst und dem anderen Freude? Der Schlüssel zu diesen Fragen ist individuelle UNSICHERHEIT. Nicht zu wissen, was ich als Nächstes tun soll, erzeugt Unsicherheit (Abb. 1). Damit erhält Stress seine subjektive Dimension! Und Unsicherheit steckt seit jeher hinter jedem Stressor. Die Situationen und Stressoren haben sich im Verlauf der Menschheitsgeschichte gewandelt, die Stressantwort des Körpers ist die gleiche geblieben. Bei unseren Vorfahren war es womöglich die Begegnung mit einem wilden Raubtier – und die Wahl von zwei Möglichkeiten, der Gefahr zu entgehen: Kämpfen oder fliehen. Aber welche der Strategiemöglichkeiten ist jetzt die richtige? Die Folge, wenn man das nicht weiß: Unsicherheit. Oder der Angestellte, der sich in seinem beruflichen Umfeld unwohl fühlt: Soll er bleiben oder sich einen neuen Job suchen? Welche der beiden Möglichkeiten wird sich als erfolgreich erweisen? Die Folge: ebenfalls Unsicherheit. Und diese Unsicherheit wächst in dem Maße, in dem uns relevante Informationen fehlen. Der junge Mann, der sich zum ersten Mal einem Raubtier gegenübersieht, weiß nicht, was jetzt zu tun ist – kämpfen oder fliehen? Und weil seine Unsicherheit groß ist, steigt sein Stresslevel immer weiter an. Vielleicht entscheidet er sich für die eine oder andere Strategie. Vielleicht ist er aber auch so gelähmt, dass er nichts tun kann. Der erfahrene Jäger empfindet auch Stress bei dieser Begegnung. Er aber weiß, dass bei Begegnungen mit Bären die Flucht nichts bringt, weil der Bär im Zweifelsfall schneller ist. Er wird die Ruhe bewahren, sich langsam zurückziehen und sich aber mental auf den Kampf einstellen, in der Hoffnung, dass es nicht so weit kommen wird. Genauso, wie er es in der Vergangenheit schon mehrfach erlebt hat. Seine Unsicherheit weicht einer gewissen Sicherheit, weil er über Erfahrung verfügt (siehe Abb. 1).

Abb.1:WiederholteStressreaktioneninZeitenderUnsicherheit.Stressreaktionen entstehen, wenn sich die Umwelt ändert und der Mensch in der riskanten Lage unsicher ist, welche seiner Strategiemöglichkeiten er auswählen soll, um sein zukünftiges physisches, mentales und soziales Wohlbefinden sicherzustellen. Ihm stellt sich die Frage: Welches ist die beste Strategie? In dieser Situation ordnet sein Gehirn den möglichen Antworten jeweils eine Wahrscheinlichkeit zu. Die Zuordnung der Wahrscheinlichkeit 0 zu irgendeiner der Antworten bedeutet das Gleiche wie wenn man sagt: Diese Antwort ist unmöglich. Die Zuordnung der Wahrscheinlichkeit 1 zu einer Antwort ist das Gleiche als wenn man sagt: Diese Antwort ist sicher. Üblicherweise liegen die Wahrscheinlichkeitswerte für die Antworten irgendwo zwischen 0 und 1. Vor 70 Jahren verwendete Claude Shannon, der Begründer der Informationstheorie, genau solche Wahrscheinlichkeiten von möglichen Antworten, um Unsicherheit mathematisch exakt zu definieren. Seine Definition von Unsicherheit hat die interessante Eigenschaft, dass, wenn man einer Antwort die Wahrscheinlichkeit 1 zuordnet – und demzufolge allen anderen die Wahrscheinlichkeit 0 zuweist – die Unsicherheit 0 beträgt. (Wer bereits die richtige Antwort kennt, hat keine Unsicherheit.) Wenn hingegen alle verfügbaren Antworten die gleiche Wahrscheinlichkeit aufweisen, dann ist die Unsicherheit maximal. (Wer so spärliche Informationen hat, dass er gleiche Wahrscheinlichkeiten zuweisen muss, ist in Bezug auf die Antwort so unsicher wie möglich.) Shannon definierte Unsicherheit also als einen Wert, der anzeigt, wie unsicher jemand bei der Beantwortung einer wohldefinierten Frage ist. Ist die Unsicherheit eines Menschen in Bezug auf die oben gestellte Frage nach der besten Strategie maximal (oberes Diagramm), dann löst sein Gehirn auch maximale Stressreaktionen aus: Der Mensch wird überwach, sein Herz schlägt schneller, denn die Stresshormone fluten seinen gesamten Organismus. Diese Reaktionen dienen dazu, Informationen für das Gehirn zu beschaffen, um die Unsicherheit wieder aufzulösen. Shannon fuhr fort, indem er die Information in einer Nachricht als den Unterschied zwischen zwei Unsicherheiten definierte: einer Unsicherheit, die mit dem Wissen vor einer Nachricht verbunden ist, und der anderen Unsicherheit, die mit dem Wissen nach einer Nachricht verbunden ist. Man versteht also, was er meinte, wenn er sagte: Es braucht Information, um Unsicherheit zu reduzieren. Als Nächstes berücksichtigen wir hier noch ein wichtiges physikalisches Grundprinzip: Um Information zu erhalten, wird Energie benötigt. Ausgehend von diesem Grundprinzip wird deutlich, warum die Stressreaktion als weitere wichtige Komponente die Beschaffung von zusätzlicher Energie für das Gehirn enthält. Mit der Hilfe dieser Extraenergie für das Gehirn wird die Informationsverarbeitung gesteigert. Wenn die Unsicherheit schließlich aufgelöst ist, dann kann der Mensch wieder sicher eine der verfügbaren Strategien auswählen (unteres Diagramm). Denn in diesem Fall gibt es eine ziemlich sichere Antwort auf die Frage nach der besten Strategie. So kann die Sicherheit zurückgewonnen werden, und die Stressreaktionen verschwinden.

Worin die relevante Information besteht, mit der sich Stress auflösen lässt, hängt stark von der Situation ab. Begegnungen mit Bären sind heutzutage eher selten und althergebrachtes Jägerwissen würde uns in modernen Stresssituationen nicht weiterhelfen. Aber das Prinzip lässt sich übertragen. Zum Beispiel auf die Arbeitswelt. Nehmen wir an, ein Angestellter ist für ein Unternehmen tätig, das seit Generationen als solide gilt und seinen loyalen Mitarbeitern gewissermaßen einen sicheren Arbeitsplatz auf Lebenszeit garantiert hat. Aber im Zuge der Globalisierung haben sich die Märkte verändert. Es gibt neue Konkurrenz aus Übersee. Die Auftragsbücher sind schon lange nicht mehr voll. Eine Betriebsstätte wurde bereits geschlossen. Eine Welle von Sparmaßnahmen schwappt über die Belegschaft hinweg. Dann kommt es zu Verzögerungen bei der Lohnzahlung. Es gibt Übernahmegerüchte oder das Gerücht, dass der Konkurs bevorsteht. Doch Konkretes passiert erst einmal nicht. Der Angestellte wird seinen Arbeitsplatz jetzt nicht mehr als sicher empfinden. Er denkt an seine Zukunft, an die Hypothek fürs Haus und ob er einen vergleichbaren Job finden wird, wenn er jetzt kündigt. Er weiß nicht, wie es mit dem Unternehmen weitergehen wird. Er weiß aber auch nicht, ob die neue Arbeitsstelle, die er in Aussicht hat, sich als zufriedenstellend erweisen wird. Er empfindet mittlerweile starken dauerhaften Stress, weil seine berufliche Situation von Unsicherheit geprägt ist. Er kann sich nicht entscheiden, ob er gehen oder bleiben soll, weil ihm entscheidende Informationen fehlen.

Das Szenario wird vielen Menschen bekannt vorkommen – ob aus den Nachrichten oder weil sie selbst betroffen waren oder sind. Und wer so etwas schon einmal erlebt hat, weiß, wie zermürbend sich so eine Situation anfühlen kann, vor allem dann, wenn sich die Unternehmenskrise langsam über Monate oder Jahre zuspitzt. So wie es bei der Abwicklung großer Firmenkomplexe immer wieder vorkommt. Also: Welche Information könnte dem Angestellten in dieser Situation den Stress nehmen? Zum Beispiel eine Arbeitsplatzgarantie für einen bestimmten Zeitraum, den der Arbeitgeber ihm und seinen Kollegen verlässlich zusichert. Das mag zumindest vorübergehend das Stressempfinden dämpfen. Aber wir sehen, wie schwierig und komplex es sein kann, die relevanten Informationen zu erhalten. Und überhaupt – wie lassen sich diese Informationen erfassen oder gar bemessen? Lassen sie sich überhaupt bemessen? Tatsächlich ist ein derartiges Messverfahren in der Stressforschung bisher nicht bekannt. Dabei wäre es mehr als nur hilfreich, über so ein Verfahren zu verfügen. Weil so Stress erstmals konkret erfasst und bewertet werden könnte. Die Schwammigkeit des Stressbegriffs würde Erkenntnissen weichen, die es erstmals ermöglichen würden, auch individuelle psychosoziale Belastungen konkret einzuschätzen, um angemessen und sinnvoll zu intervenieren. Wir werden diesen Gedanken im Verlauf des nächsten Kapitels weiterverfolgen und versuchen zu ergründen, wie so eine Formel zur Berechnung aussehen könnte. Ausgangspunkt dieser Überlegungen ist eine Definition, die der amerikanische Mathematiker Claude Elwood Shannon bereits 1948 in seiner epochemachenden Arbeit veröffentlichte: Es braucht Information, um Unsicherheit zu reduzieren.4 Wenn dieses theoretische Konzept anwendbar ist, dann ist ein Verfahren zur Bemessung oder Quantifizierung von Information in Bezug auf Stress sogar essenziell. Denn mit so einer Formel ließe sich erstmals der Zusammenhang von Information, Unsicherheit und Stress mathematisch genau beschreiben. Zugegeben, das klingt jetzt etwas kompliziert, ist aber im Grunde gar nicht so schwierig zu verstehen. Und es wird sich auf jeden Fall lohnen, hier etwas tiefer einzusteigen.

2. Unsicherheit, Information und Energie

Ein Besuch in der British Library • Wie viel Energie kostet es, Unsicherheit zu reduzieren? • Information und Chaos • Was ist ein Bit? • Die Chancen bei Glücksspielen berechnen • Thomas Bayes tritt auf • Wie ein Notarzt mit Wahrscheinlichkeiten umgeht • Keine Dogmen in der Wissenschaft • Deleuze oder: Warum es keine absolute Wahrheit geben kann

Stellen wir uns vor, wir befinden uns in der größten Bibliothek der Welt, der BRITISH LIBRARY in London. Hier werden 170 Millionen Bücher und andere Medien aufbewahrt. Wir suchen ein bestimmtes Buch. Ein komplexes Ordnungssystem wird uns helfen, herauszufinden, ob ein Exemplar des Buches in der Bibliothek existiert und wo es zu finden ist. Stellen wir uns jetzt aber weiter vor, jemand habe über Nacht alle Bücher komplett durcheinandergebracht. Keines sei mehr dort zu finden, wo es sich laut Ordnungssystem befinden sollte. Dann hätten wir eine chaotische Situation, in der das Auffinden eines bestimmten Titels unter 170 Millionen fast unmöglich erscheint, zumindest aber enorm viel Zeit und Energie erfordern würde. Solche nicht geordneten Zustände sind in Bibliotheken zum Glück selten, aber in der Physik treffen wir sie häufig an.

Um das leicht verständlich zu machen, verwendete Richard Feynman, amerikanischer Physiker und Nobelpreisträger des Jahres 1965, in einer seiner berühmten Vorlesungen das Beispiel eines Systems, dessen Information ausgelesen werden kann5: Ein luftdichter, aufrecht stehender Zylinder wird mit einem Gas befüllt. Nur eines der Gasteilchen ist rot markiert. Die Aufgabe besteht darin, dieses rote Teilchen zu finden. Allerdings haben sich alle Teilchen chaotisch im Zylinder verteilt. Diesen Hang zur immer größeren Unordnung beschreibt man in der Physik mit dem Begriff Entropie. Mit Ordnung ist Organisation und Struktur gemeint: das Gegenteil von Zufälligkeit oder Chaos. Das Gas befindet sich also im Zustand größtmöglicher Entropie, wenn sich alle Teilchen möglichst unordentlich oder chaotisch im Zylinder verteilt haben. Das rote Teilchen könnte jetzt überall im Hohlraum sein. Niemand könnte seine Position vorhersagen. Doch unser Zylinder verfügt über eine spezielle Kolbenvorrichtung. Sein Hohlraum lässt sich mittels einer beweglichen dünnen Trennplatte zusammenschieben. Im unteren Teil des Zylinders befinden sich die Gasteilchen, oberhalb des Scheibenkolbens ist Luft, die Schritt für Schritt immer mehr Raum einnimmt. Sobald das Gas komprimiert wird, wird dieses heißer; aber wenn wir eine Weile warten, entweicht die Wärme wieder aus der Vorrichtung, und die Temperatur des Gases kehrt zu ihrem ursprünglichen Wert zurück. Je weiter wir also den Scheibenkolben nach unten drücken, desto weniger Orte gibt es, an denen sich das rote Gasteilchen befinden kann, und wir sind weniger unsicher über seinen Aufenthaltsort.

Die Energie, die wir zum Ordnen der Gasteilchen aufwenden müssen, lässt sich bemessen – und zwar in der für Energie gebräuchlichen Einheit Joule (oder Kalorien). Aber auch die Entropie – also das Maß der Unordnung oder Unsicherheit – lässt sich messtechnisch erfassen: nämlich in der Einheit Bit (binary digit). Da Claude Shannon feststellte, dass die Reduktion von Unsicherheit durch Information erfolgt, gilt umgekehrt für das komprimierte Gas, dass wir Informationen gewonnen haben. Wir haben das gesuchte Teilchen zwar noch nicht gefunden, aber wir wissen zumindest, dass es sich nicht mehr im oberen Teil des Zylinders befinden kann, der sich mit Luft gefüllt hat, und haben so das Suchfeld eingegrenzt.

Aber diese Eingrenzung des Areals, in dem sich das Teilchen befindet, ist nicht umsonst zu haben. Und das wirft folgende Frage auf: Wie viel Energie (Joule) muss ich aufbringen, um eine bestimmte Information (Bit) zu erhalten? Was auch immer die Berechnung im konkreten Fall ergeben wird, auf jeden Fall wird das Ergebnis nicht »null« lauten. Und das macht deutlich, wie wichtig der Zusammenhang zwischen Energie und Information ist. Denn aus der Verbindung von Physik und Informationstheorie lässt sich hier dieses allgemeingültige Gesetz ableiten: Es gibt keine Information ohne Energie.

Schon frühere Generationen von Physikern konnten mathematisch aufzeigen, wie eng Information und Energie miteinander verflochten sind.6–8 Jedoch erst kürzlich gelang der jüngsten Forschergeneration der entscheidende Durchbruch. Mit ausgeklügelten Experimenten wurde aufgezeigt, dass, wer Information bekommen will, Energie investieren muss; wer Information löscht, sogar Energie zurückerhält.9, 10 Das alles kann in der Praxis natürlich sehr unterschiedlich aussehen. Im Fall unseres Zylinderexperiments wurde Muskelarbeit verrichtet, indem der Scheibenkolben von oben nach unten gedrückt wurde, um so Information zu gewinnen.

Auch im Fall der Büchersuche in der BRITISH LIBRARY ist die gewünschte Information ohne Energie nicht zu haben: Wir wenden uns an ein Computerterminal, geben den Titel des Buches in das Register ein, überprüfen, ob der vorgeschlagene Titel unserem Buch entspricht, merken uns, in welcher Abteilung und in welchem Regal das Buch genau zu finden ist, und begeben uns dorthin. Da in diesem Fall aber der Entropiefaktor gering ist – Bibliotheken sind für ihre penible Ordnung berühmt –, ist unser Energieaufwand zur Beschaffung der Information, wo das gesuchte Buch zu finden ist, eher gering. Vor allem im Vergleich zu dem oben beschriebenen Szenario, in dem alle 170 Millionen Bücher heillos durcheinandergebracht wurden. In so einer Ausgangssituation das Buch zu finden, würde uns Jahre oder Jahrzehnte kosten und damit unseren Energieaufwand um ein Vielfaches erhöhen.

Wenn nun aber Information und Stress eng miteinander verknüpft sind, wie lässt sich dann feststellen, wie viel Information ich tatsächlich habe bzw. wie viel mir fehlt und wie groß die damit verbundene Unsicherheit ist? Tatsächlich lässt sich das – abhängig von der jeweiligen Situation – sogar exakt darstellen und berechnen. Nehmen wir zunächst ein einfaches Beispiel, das jeder kennt: den berühmten Münzwurf und die damit verbundene Frage: Kopf oder Zahl? Wie jeder weiß, beträgt die Chance, zu gewinnen oder zu verlieren, 50 Prozent. Das heißt: Unsere Unsicherheit darüber »was kommen mag«, ist hier recht groß. Genauer gesagt: Größer kann die Unsicherheit bei zwei Möglichkeiten gar nicht sein (wäre die Gewinnchance größer als 50 Prozent, hätten wir mehr Sicherheit, dass wir gewinnen; wäre sie kleiner als 50 Prozent, würde unsere Sicherheit zunehmen, dass wir verlieren). Es wäre natürlich beruhigend, wenn wir die Sicherheit oder die Wahrscheinlichkeit, zu gewinnen, erhöhen könnten. Können wir aber nicht: Denn der Münzwurf lässt sich nicht beeinflussen (außer die Münze ist gezinkt). Um also an die Information zu kommen und um hier Gewissheit zu erhalten, gibt es nur eine Möglichkeit: das Ergebnis des Münzwurfs abzuwarten. Diese Situation lässt sich auch mathematisch ganz einfach und leicht verständlich darstellen:

• Die Unsicherheit vor einem Münzwurf (Zweierentscheidung: Kopf oder Zahl) beträgt 1 Bit.• Die Unsicherheit nach dem Münzwurf ist 0 Bit (wir kennen ja das Ergebnis).• Also ist die Information, die der Münzwurf liefert (d. h. die Reduktion von Unsicherheit), genau 1 Bit: nämlich 1 Bit – 0 Bit = 1 Bit.

Machen wir es also im nächsten Schritt ein bisschen komplizierter: Die Unsicherheit, die richtige aus 4 Spielkarten vorherzusagen, beträgt 2 Bits; die Unsicherheit, die richtige aus 8 Karten vorherzusagen, 3 Bits, usw. (siehe Abb. 2). Wer verstehen will, wie sich die Reduktion von Unsicherheit in einfachen Fällen berechnen lässt, findet Einzelheiten dazu in Box 1 im Anhang.

Abb. 2: Unsicherheitsreduktion bei der Identifikation einer Spielkarte. Die Unsicherheit, die richtige aus 8 Karten vorherzusagen, beträgt 3 Bit. Jede der 3 Informationen (die man durch Beantwortung der Fragen erhält) reduziert unsere Unsicherheit jeweils um 1 Bit.

Nun sind die Unsicherheitsfaktoren bei Münzwürfen, Spielkarten und Würfeln vergleichsweise leicht zu berechnen, weil diese auf der Basis eng umrissener Zahlensysteme funktionieren. Was aber passiert, wenn der menschliche Faktor hinzukommt? Im täglichen Leben kann das »infernalische Duo« Unsicherheit und Stress in allen möglichen Erscheinungen auftreten. In Situationen, in denen sich mathematische Formeln kaum oder nur eingeschränkt anwenden lassen, weil eben wichtige Informationen nicht verfügbar sind. Ja, manchmal fehlt sogar der konkrete Ausgangspunkt, von dem aus eine Berechnung überhaupt vorgenommen werden könnte. Einer der ersten Menschen, die sich über dieses Problem Gedanken gemacht haben, war Thomas Bayes, ein presbyterianischer Geistlicher und Mathematiker aus Leidenschaft, der im England des 18. Jahrhunderts auf folgende Idee kam: Wenn sich etwas nicht exakt berechnen lässt (weil wir keinen direkten Zugang zur Wahrheit haben), könnte man sich dem Ergebnis dann nicht mathematisch annähern, um so das richtige Ergebnis zumindest einzugrenzen? Mit dieser revolutionären Idee gilt Bayes heute als einer der wichtigsten Pioniere der Wahrscheinlichkeitsrechnung. Revolutionär ist sein Ansatz zunächst deshalb, weil er das Problem des fehlenden Ausgangspunkts ganz pragmatisch löst, indem er einen sogenannten Prior setzt. Ein Prior bezeichnet eine Ausgangswahrscheinlichkeitsverteilung. Beim oben erwähnten Münzwurf gingen wir ja davon aus, dass die Priorwahrscheinlichkeit 50 Prozent für Kopf und 50 Prozent für Zahl ist, oder anders ausgedrückt jeweils 0,5. Bayes definierte also einen Ausgangspunkt und versuchte jetzt, von dort ausgehend immer weitere Informationen zu sammeln und in die Beurteilung einzubringen, um so dem Ergebnis Schritt für Schritt näher zu kommen. Was aber das Bayes-Theorem besonders interessant macht, ist ein zweiter Aspekt: Das Bayes-Theorem erlaubt es, von einem beobachteten EFFEKT auf eine uns unbekannte URSACHE zu schließen.11

Schön und gut – das klingt erst einmal ziemlich theoretisch. Aber das sogenannte Bayes-Theorem lässt sich durchaus in ganz lebensnahen Situationen anwenden. Folgende Szene soll uns als Beispiel dienen: Ein Notarzt wird von einem Passanten gerufen, der nachts einen bewusstlosen Menschen am Straßenrand entdeckt hat. Der Arzt sieht die 17-jährige Person am Boden liegen und erfasst sofort, dass es sich hier um ein Koma handelt. Er nimmt also sozusagen den EFFEKT (Symptom) wahr – was er aber nicht kennt, ist die URSACHE (Diagnose) des Problems. Er kann jetzt Vermutungen anstellen, aber er kann sich zu diesem Zeitpunkt nicht sicher sein. Was wird der Arzt nun tun? Informationen sammeln, um sich der wahrscheinlichsten Ursache des Komas anzunähern. Er geht in Gedanken sein Wissen über jugendliche Komapatienten durch und kommt zu folgendem Schluss: Es gibt in diesem Fall drei wahrscheinliche Komaursachen:

1. Intoxikation – also eine Vergiftung durch Alkohol oder Drogen2. Neuroglukopenisches Koma – ein Koma durch Unterzuckerung im Zuge einer Typ 1 Diabetes-Erkrankung (Insulinüberdosis)3. Hirnblutung – verursacht durch ein rupturiertes Aneurysma (erweitertes Blutgefäß, das platzt) im Kopf

Wie wahrscheinlich diese drei Möglichkeiten sind, bezeichnet das, was Bayes Prior-Wahrscheinlichkeitsverteilung nannte. Aufgrund seiner Erfahrung ist für den Notarzt die Ursache 1 der Favorit (mit 50-prozentiger Wahrscheinlichkeit richtig), gefolgt von Ursache 2 (mit 40-prozentiger Wahrscheinlichkeit richtig) und dem Schlusslicht Ursache 3 (mit 10-prozentiger Wahrscheinlichkeit richtig). Diese Prior-Wahrscheinlichkeitsverteilung ist der Ausgangspunkt, der es dem Arzt überhaupt erst ermöglicht, die Ursache einzugrenzen. Um sich dem Ergebnis weiter anzunähern, überprüft der Arzt zunächst den Blutzucker. Das Blutzuckerergebnis ist dann der zweite EFFEKT, den die zugrunde liegende Krankheit verursacht. Die Messung ergibt eine Glukosekonzentration von 25 mg/dl. Das ist deutlich unter dem Normalwert von 70–100 mg/dl. Ein Hinweis für Ursache 2 – das neuroglukopenische Koma. Er hat mit diesem Schritt seine Unsicherheit deutlich reduzieren können. Aber hundertprozentig sicher kann er noch nicht sein. Es ist unwahrscheinlicher, aber eben nicht unmöglich, dass ein so niedriger Blutzuckerspiegel auch durch eine Alkoholvergiftung oder ein geplatztes Aneurysma entsteht. Wenn man die Situation jetzt mathematisch betrachtet, wird aber deutlich, wie stark die Unsicherheit zurückgedrängt wurde:

(Wer nicht so sehr an den mathematischen Einzelheiten interessiert ist, kann Tabelle 1 auch überspringen)

17-jähriger Patient im Koma

Ursache

Effekt

Prior

Likelihood

Posterior

X

Y

P(X)

P(Y|X)

P(X|Y)

Intoxikation

Blutglukose-Messung zeigt 25 mg/dl

0,5

0,1

0,12

Neuroglukopenisches Koma

0,4

0,9

0,86

Hirnblutung

0,1

0,1

0,02

Tabelle 1: Medizinische Diagnostik nach dem Bayes-Theorem. Der Prior – d. h. die Wahrscheinlichkeit der unbekannten Ursache P(X) vor der Blutuntersuchung – beträgt bei der Intoxikation 50% (0,5), beim Neuroglukopenischen Koma 40% (0,4) und bei der Gehirnblutung 10% (0,1). Alle drei Priorwahrscheinlichkeiten zusammen betrachtet nennt man Prior-Wahrscheinlichkeitsverteilung oder Priorerwartung. Nachdem der Arzt festgestellt hat, dass der Blutzucker mit 25 mg/dl zu niedrig ist, wird sich seine Einschätzung deutlich verändern. Der Arzt weiß nämlich aus seiner Erfahrung, wie wahrscheinlich es ist, dass die jeweilige Ursache (X) zum neu beobachteten Effekt (Y) passt. Das ist die Likelihood. Genauer gesagt: Die Likelihood P(Y|X) beschreibt die (bedingte) Wahrscheinlichkeit, dass Y eintritt, wenn X bereits eingetreten ist. Dass also ein Blutzucker von 25 mg/dl eintritt, wenn tatsächlich ein neuroglukopenisches Koma vorliegt, hat eine 90%ige Wahrscheinlichkeit. Verglichen mit den beiden anderen Diagnosen, passt das neuroglukopenische Koma am besten – denn es hat die höchste Likelihood 90% (0,9). Intoxikation und Gehirnblutung passen nicht so gut – denn die Likelihood ist jeweils nur 10% (0,1). Nun könnte der Arzt einfach die Diagnose mit der besten Likelihood auswählen. Solch ein Vorgehen hätte aber einen Nachteil: Was ist, wenn die am besten passende Diagnose sehr selten ist? Sollte sie dann immer noch – auch wenn sie so gut passt – zum Favoriten werden? Optimal ist es hingegen, wenn die Häufigkeit der Diagnose mitberücksichtigt wird. Und das ist genau der Witz beim bayesianischen Schlussfolgern, dass man nämlich sowohl den Prior als auch die Likelihood einbezieht: Man multipliziert einfach den Prior mit der Likelihood. Dieses Ergebnis muss man jetzt noch durch einen Normierungsfaktor P(Y) (in diesem Beispiel 0,42) teilen, um den sogenannten Posterior zu erhalten. Der Posterior P(X|Y) ist die Wahrscheinlichkeit der unbekannten Ursache nach der Messung. Der Normierungsfaktor soll sicherstellen, dass die drei Posteriorwahrscheinlichkeiten zusammenaddiert die Summe 100% (1,0) ergeben. Die Posterioren sind also die bestmöglichen Annäherungspunkte. Das neuroglukopenische Koma liegt jetzt mit einem Posterior von 86% (0,86) weit vorne, vor Intoxikation mit 12% (0,12) und weit abgeschlagen der Hirnblutung mit 2% (0,02). Der Vollständigkeit halber sei hier noch die Bayes-Formel aufgeführt:

Mithilfe des Bayes-Verfahrens hat der Arzt nun eine neue Favoriten-Diagnose ermittelt, nämlich Ursache 2 (aufgrund des Updates mit 86-prozentiger Wahrscheinlichkeit richtig), Ursache 1 und 3 liegen jetzt mit 12 Prozent und 2 Prozent deutlich hinten. Der Arzt wird aufgrund dieser diagnostischen Annäherung eine Glukosespritze geben, und wenn die Diagnose stimmt, erwacht der Patient nach wenigen Augenblicken aus dem Koma. Und dennoch – und dieses ist entscheidend – er kann sich nicht hundertprozentig sicher sein, dass seine Diagnose korrekt ist, selbst wenn die Wahrscheinlichkeit erdrückend hoch ist (nämlich 86 Prozent).

In der Wissenschaft hat man um diese Perspektive jahrhundertelang gestritten. Das Bayes-Theorem galt vielen Mathematikern (und anderen Wissenschaftlern) lange als suspekt, weil sein Entdecker darauf verwies, dass die meisten Probleme nicht exakt zu erfassen sind, sondern nur annäherungsweise. Thomas Bayes definierte Wahrscheinlichkeiten nämlich als Grad vernünftiger Erwartung, also als Maß für die Glaubwürdigkeit einer Aussage, das von 0 (unglaubwürdig) bis 1 (glaubwürdig) reicht. Wenn wir nun von Prioren sprechen, handelt es sich dabei um subjektive Glaubensgrade, die viele Wissenschaftler früher vollständig ablehnten. Das widersprach lange dem Selbstverständnis der Wissenschaft, die ja immer um Objektivität bemüht war. Heute gilt diese vermeintliche Schwäche von Bayes’ Theorem als seine eigentliche Stärke. Weil es so möglich wird, durch das Wechselspiel von Erwartungen und neuen Beobachtungen jedes Problem einzukreisen und oftmals auch lösen zu können. In der Wissenschaft hat diese Erkenntnis dazu geführt, anzuerkennen, dass es kein absolutes Wissen geben kann. Jede Erkenntnis kann den Wissenschaftler der Lösung eines Problems näher bringen, hat aber nur so lange Gültigkeit, bis es das nächste relevante Update gibt.

Dieser Gedanke klingt logisch und eigentlich selbstverständlich, er ist es aber kultur- und wissenschaftshistorisch betrachtet keineswegs. Zum Beispiel herrschte in der Medizin lange Zeit dogmatisches Denken vor: Was einmal als gesicherte Erkenntnis galt, war kaum durch neue Fakten zu erschüttern. Heute wird dieses Denken von der sogenannten evidenzbasierten Medizin abgelöst, in der weniger die Meinungen von Koryphäen zählen als belastbare Daten (Genaueres in Kap. 23). Dogmen haben die Eigenschaft, den Gewinn von neuen Erkenntnissen zu erschweren oder gar zu verhindern. Auf den Punkt gebracht, könnte man sagen, dass dogmatisches Denken einen Sachverhalt zu einer absoluten Wahrheit erklärt und keine neuen Erkenntnisse zulässt. Eine Aussage mit dem Glaubensgrad 1 (100 Prozent) kann durch keine Erfahrung oder Beobachtung je erschüttert werden: Sie ist tatsächlich unrevidierbar. So betrachtet wird offensichtlich, dass sich dogmatisches Denken schwerlich mit wissenschaftlicher Forschung in Einklang bringen lässt. Und um sich aus dieser Falle zu befreien, hat sich die Gemeinschaft der Wissenschaftler im bayesianischen Sinne selbst ein Dogmatismusverbot auferlegt.12 Der französische Philosoph Gilles Deleuze hat dazu eine treffende Aussage geliefert: »Wir haben Unrecht, wenn wir an Fakten glauben, es gibt nur Zeichen. Wir haben Unrecht, wenn wir an Wahrheit glauben, es gibt nur Interpretationen.«13 Wissenschaft kann sich also nie hundertprozentig sicher sein und muss immer bereit sein, anerkanntes Wissen zu hinterfragen und gegebenenfalls auch zu verwerfen.

3. Das bayesianische Gehirn

Karl Friston und das bayesianische Gehirn • Was Spaghetti kochen mit Wahrnehmungsrückschluss und Handlungsrückschluss zu tun hat • Was nehmen wir wahr: die Realität oder unsere Vorstellung von der Realität? • Warum unser Gehirn nicht zwei verschiedene Objekte gleichzeitig sehen kann • Die Macht der Vorstellung und das Update des Verliebten • Konservatives versus progressives Denken

Was hat das Ganze aber mit Stress und Unsicherheit in unserer heutigen Welt zu tun? Viel. Sehr viel. Der britische Neurowissenschaftler und Physiker Karl Friston – 2017 für den Nobelpreis nominiert – hat sich nämlich die Frage gestellt, ob Thomas Bayes damals vor etwa 250 Jahren nicht viel mehr als nur eine mathematische Lösung zur Berechnung von Wahrscheinlichkeiten entdeckt hat.14 Sondern ein Grundprinzip, nach dem jedes menschliche Gehirn funktioniert und arbeitet, um mehr Sicherheit durch Informationen zu erlangen. Sehen wir uns einmal an, wie sich diese Idee des bayesianischen Gehirns – wie Friston das Erklärungsmodell nennt – anhand eines alltäglichen Beispiels veranschaulichen lässt.

Ein weitsichtiger Mann möchte Spaghetti kochen. Er setzt einen Topf mit gesalzenem Wasser auf. Während er darauf wartet, dass es siedet, versucht er, sich daran zu erinnern, wie lange Spaghetti eigentlich kochen müssen. Sind es sechs Minuten oder acht oder doch nur fünf? Er ist sich nicht sicher, schätzt aber, dass fünf Minuten richtig sein könnten. Seine Priorerwartung sagt, dass dies seine beste Annahme ist. Um sicher zu werden, bräuchte er aber nähere Informationen. Intuitiv greift er zur Packung. Doch die Schrift ist klein, die Lichtverhältnisse sind ungünstig, und er findet seine Lesebrille nicht. Was da steht, sieht aus wie drei Minuten. Kann das sein? Diese Zeitangabe kommt ihm sehr kurz vor, aber die Information ist als Update auch wenig tauglich. Er konnte die Schrift ja nicht klar entziffern. Der nächste Schritt wäre jetzt zum Beispiel, sich die Brille zu holen und eine helle Lampe anzuknipsen. Um dann zu lesen, dass die korrekte Kochdauer acht Minuten beträgt. Seine Posteriorerwartung sagt, dass das nun die beste Annahme ist. Er hatte wohl im Dämmerlicht die 8 für eine 3 gehalten.

Das Beispiel verdeutlicht, was Friston meint, wenn er vom bayesianischen Gehirn spricht. Wir nutzen es tagtäglich viele Male – besonders dann, wenn wir herausgefordert werden. Wir treffen eine Annahme, sind aber nicht hundertprozentig sicher. Und entweder riskieren wir es und vertrauen auf die Richtigkeit unserer Erwartung (und ärgern uns natürlich jedes Mal, wenn wir danebenliegen). Oder wir machen ein Update und lassen die neuen Informationen einfließen. Und zwar so lange, bis wir überzeugt sind, uns der richtigen Lösung bestmöglich angenähert zu haben. Keine Frage, dass dies der erfolgversprechendere Weg ist. Interessant dabei ist, inwieweit er in unserem Gehirn angelegt ist. Doch obwohl es so aussieht, dass uns bayesianisches Vorgehen zutiefst innewohnt, wir es oft anwenden und es sich in den meisten Fällen auch bewährt, sind wir offenbar nicht uneingeschränkt bereit, dies auch anzuerkennen. Warum?

Kehren wir noch einmal zu Deleuzes Aussage zur Wahrheit am Ende des vorigen Kapitels zurück. Nämlich dass es keine Wahrheit gibt, sondern nur Interpretationen. Und dass es keine Fakten gibt, sondern nur Zeichen. Wahrscheinlich hat sich bei einigen Leserinnen und Lesern an dieser Stelle spontan Widerspruch geregt. Wahrheit und Fakten sollen nicht existieren? Zugegeben, das klingt auf den ersten Blick ein wenig nach der Argumentation, die von politischen Populisten gern verwendet wird – nämlich Tatsachen nicht anzuerkennen und Wahrheiten bewusst zu verdrehen. Aber natürlich ist das hier keinesfalls gemeint. Im Gegenteil: Deleuze wollte uns davor warnen, etwas als absolut wahr zu bezeichnen, was sich bei näherem Hinsehen doch als etwas anderes erweisen könnte, als es scheint. Er geht aber noch weiter, indem er sagt: »Die Natur des Bewusstseins ist so, dass es Effekte registriert, aber nichts von Ursachen weiß.«15 Um aber diesen unbekannten Ursachen dennoch näher zu kommen, bedient sich unser Gehirn offenbar ausgefeilter statistischer Methoden. Und da geht es zunächst um zwei Begriffe, die mit bayesianischem Denken eng verknüpft sind:

• den Wahrnehmungsrückschluss (engl. perceptual inference) und • den Handlungsrückschluss (engl. active inference).16

Es ist im Grunde wie mit dem Notarzt und dem jungen Komapatienten: Wir geraten in eine Situation und versuchen, diese zunächst auf Grund unserer Erwartungen zu erfassen. Der gute Diagnostiker ist zunächst ein guter Beobachter. Er verwendet all seine Sinne, um der Diagnose näher zu kommen – das ist sein Wahrnehmungsrückschluss. Aber er ist auch Pragmatiker: Wenn unser Notarzt Glukose spritzt und der Patient sofort aufwacht, dann ist er danach ziemlich sicher, dass er richtiglag. Das ist sein Handlungsrückschluss. Das heißt, wir handeln, wir verändern dadurch unsere Position in der Umgebung oder sogar die Umgebung selbst. Durch die aktiv veränderte Perspektive ziehen wir neue Rückschlüsse – Handlungsrückschlüsse (active inference). Wahrnehmungsrückschluss und Handlungsrückschluss sind im täglichen Leben untrennbar miteinander verknüpft. Und die Naturwissenschaftler? Sie machen das genauso. Nur unterscheiden sie sich im Wesentlichen von anderen Menschen dadurch, dass sie ihre Handlungsrückschlüsse besonders aufwendig und systematisch planen: Und das nennen wir dann ein Experiment.

Doch zurück zu unserem ganz alltäglichen bayesianischen Verhalten. Schauen wir uns ein anderes Beispiel zum Handlungsrückschluss an: Wir betreten einen etwas altmodischen Salon. Im Halbdunkel erkennen wir eine Bücherwand, schwere Ledersessel, einen Couchtisch, einen großen antiken Globus. So weit unser Wahrnehmungsrückschluss. Wenn wir das Ganze aber näher überprüfen, zum Beispiel, indem wir an die Wand oder Tür klopfen, stellen wir vielleicht fest, dass die Bücherwand nur eine Attrappe ist, um darin eine Geheimtür zu verbergen (Handlungsrückschluss). Und der Globus lässt sich öffnen und entpuppt sich eigentlich als Versteck, das ein Bündel mit kompromittierenden Liebesbriefen beherbergt. Dieses – zugegebenermaßen – etwas Edgar-Allen-Poe-mäßige Szenario macht aber deutlich, dass selbst banale alltägliche Dinge nicht unbedingt das sind, was wir in ihnen aufgrund unseres Wahrnehmungsrückschlusses vermuten. Auch wenn das für uns (und unser Gehirn) sicher die bequemste Lösung wäre. Was übrigens auch einer der Gründe dafür ist, dass wir den Wahrnehmungsrückschluss oftmals ungeprüft zur Grundlage unserer Einschätzungen oder Entscheidungen machen – es ist zeitsparend – jedenfalls auf den ersten Blick. Bei dieser Betrachtung geht es aber um etwas viel Grundsätzlicheres als um Geheimtüren und versteckte Briefe.

Es geht um die Frage, wie real unser Bild von der Welt eigentlich ist. Dazu gibt es ein faszinierendes visuelles Experiment. Testpersonen bekommen eine VR-Brille aufgesetzt (also eine Brille, die statt Gläsern kleine Monitore hat; VR ist die Abkürzung für virtuelle Realität). Dem einen Auge wird das Bild eines Hauses gezeigt, dem anderen Auge zeitgleich das Bild einer Frau. Was also wird der Proband sehen? Wer jetzt annimmt, eine Überlagerung aus Haus und Frau, wäre sicher verblüfft, wenn er selbst die Brille aufhätte. Tatsächlich ist es so, dass die Testperson zunächst nur ein Bild wahrnimmt, etwa das Haus – und zwar ca. acht Sekunden lang; und dann sieht die Person nur das andere Bild (die Frau) – wiederum acht Sekunden lang; und dann wieder das Haus usw.17 Diesen verblüffenden Effekt nennen Psychologen binokulareRivalität. Er entsteht dadurch, dass es in der Vorstellungswelt unseres Gehirns nicht vorgesehen ist, mit beiden Augen gleichzeitig jeweils ein komplett anderes Bild zu sehen. Er geht fest von der Erwartung aus, dass sich zwei Gegenstände niemals gleichzeitig an ein und demselben Ort befinden können. Deshalb muss das Gehirn sich für eine von beiden Möglichkeiten entscheiden. Es wählt also zunächst die eine Annahme (Haus) aus, welche zumindest zu einem Teil der Sinneseindrücke passt, und stellt diese als das Wahrgenommene dar, während die andere Annahme (Frau) einfach ausgeblendet wird. Da die Sinneseindrücke des anderen Auges aber mit dem anderen Bild (Frau) ständig dazwischenfunken, entscheidet sich das Gehirn um: Es verwirft die erste Annahme (Haus) und wendet sich nun der zweiten zu. Dieser einfache Test untermauert, dass das, was wir wahrnehmen, zunächst nur die Erwartung unseres Gehirns von der Realität ist – ein sogenanntes Virtual-Reality-Modell – und nicht die Realität selbst. Und dass diese Erwartung ständig durch neue Informationen und Updates korrigiert wird, bis sich die Erwartung in unserem Kopf möglichst genau mit den (von den Dingen der Welt erzeugten) sensorischen Eindrücken (Sinneseindrücken) decken. Was wir also bewusst erleben, gleicht einem Theater, in dem fiktive Erzählungen und Fantasien geprobt und gegen sensorische Evidenz getestet werden. Meist passiert das natürlich unbewusst und in der Regel auch ohne größere Störungen oder Fehler. Weshalb wir der Einfachheit halber annehmen, dass das, was wir wahrnehmen, eben die Realität selbst sei und nicht nur unsere Erwartung davon.18

Der Wahrnehmungsrückschluss ist so ziemlich das Gegenteil von dem, wie sich die meisten Menschen den Wahrnehmungsvorgang vorstellen. Die gängige Sicht besagt, dass Sinneseindrücke aufgenommen werden und in die höheren Hirnebenen gelangen (bottom-up), in denen dann ein Bild entsteht, welches sich der sogenannte Bewussthaber ansieht. Das neue an der Idee vom Wahrnehmungsrückschluss – die übrigens ursprünglich von dem berühmten Physiologen und Physiker Hermann von Helmholtz stammt – ist allerdings, dass der Wahrnehmungsprozess genau in Gegenrichtung abläuft (top-down): Die Erwartungen von den Dingen in der Welt werden in den höchsten Wahrnehmungsebenen kodiert und dort bewusst erlebt; aus den Erwartungen ergeben sich Vorhersagen, die dann in die tiefer liegenden Ebenen gesendet und dort mit den eintreffenden Sinneseindrücken verglichen werden. Kommt es dort zu einer Abweichung zwischen Vorhersage und Sinneseindruck, so wird diese Abweichung nach oben zurückgemeldet, und die Erwartung wird korrigiert. Wir erleben dann in unserem Bewusstsein die korrigierte Erwartung. Formal betrachten wir hier das Bewusstsein als Wahrnehmungsrückschluss.19 Mit anderen Worten: Wir betrachten Bewusstsein als die wahrscheinlichste (in einem Bayes-optimalen Sinn) Erklärung für unsere Sinneseindrücke. Die Hirnforschung hat hier somit in den vergangenen Jahren die Sache auf den Kopf gestellt: Top-down statt Bottom-up. Man könnte auch sagen, dass wir die Realität permanent durch die Brille unserer Erwartungen erleben. Diese Erwartungen werden dann durch Sinneseindrücke lediglich korrigiert. Was wir bewusst erleben – also das, was Philosophen Qualia nennen –, spiegelt folglich nicht die Realität an sich, sondern ist bloß ein recht gutes Abbild von der Realität.

ENDE DER LESEPROBE