Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Wirksam kommunizieren – Beeinflussung erkennen Wer die Entscheidungen anderer beeinflussen oder verändern will, muss die kognitiven und emotionalen Muster kennen, nach denen Menschen Informationen aufnehmen und verarbeiten. "Starke Signale" stellt die entsprechenden Kommunikationstechniken bereit. Das Buch fußt auf den Erfahrungen, die sein Autor, Michel Reimon, als Politiker mit erfolgreichen Kampagnen in neuen und klassischen Medien gesammelt hat. Reimon erklärt, wie man selbst Einfluss nehmen kann – aber auch, wie wir alle ständig beeinflusst werden. Das Buch richtet sich sowohl an Menschen, die Medien passiv konsumieren als auch an jene, die aktiv kommunizieren. Mit seinem Kommunikationsmodell auf der Basis des Radikalen Konstruktivismus ist das Buch auch für systemische Berater:innen und Coachs besonders geeignet. Ein Anwendungskapitel zeigt, wie das Modell für die Kommunikation in Public Relations, Akquise, Verhandlungen, Coaching, Mediation, Organisationsentwicklung und anderen Fällen angewandt wird. Der Autor: Michel Reimon; Studium der Informatik und Organisationsentwicklung; Journalist und Autor; ehemaliger Europaabgeordneter, österreichischer Bundesrat sowie Landtagsabgeordneter der österreichischen Grünen im Burgenland; Kommunikationsberater.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 391
Veröffentlichungsjahr: 2025
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Michel Reimon
SYSTEMISCHE KOMMUNIKATION, DIE ZUM ZIEL FÜHRT
2025
Themenreihe: Fachbücher für jede:n
Umschlaggestaltung: B. Charlotte Ulrich
Umschlagmotiv: © Gonzalo – stock.adobe.com
Redaktion: Alexander Eckerlin
Reihengestaltung und Satz: Nicola Graf, Freinsheim, www.nicola-graf.com
Printed in Germany
Druck und Bindung: Elanders Waiblingen GmbH
Erste Auflage, 2025
ISBN 978-3-8497-0575-6 (Printausgabe)
ISBN 978-3-8497-8518-5 (ePUB)
© 2025 Carl-Auer-Systeme Verlag und Verlagsbuchhandlung GmbH, Heidelberg
Alle Rechte vorbehalten
Bibliografische Information der Deutschen Nationalbibliothek: Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Informationen zu unserem gesamten Programm, unseren Autoren und zum Verlag finden Sie unter: www.carl-auer.de.
Dort können Sie auch unseren Newsletter abonnieren.
Carl-Auer Verlag GmbH
Vangerowstraße 14 • 69115 Heidelberg
Tel. +49 6221 6438-0 • Fax +49 6221 6438-22
1 AM STARTPUNKT
Ein entscheidender Moment
Ein Experiment
Äußere Einflüsse: Signale aus der Umwelt
Innere Einflüsse: Signale der Vergangenheit
Der Engpass
Karten und Routen
Systemische Kommunikation
Signale setzen
2 KOGNITIVE NAVIGATION
Eine unendliche Schleife
Die kleinste Einheit: Chunks
Kortikale Karten
Wie wir Informationen bündeln
Die Nicht-Übertragung dieser Komplexität
Die Nutzung dieser Komplexität
Wie wir Handlungen verarbeiten
3 DIE LANDKARTEN IN UNSEREM KOPF
Das Langzeitgedächtnis
Leben ist Lernen
Wenn – dann: Die Konditionierung
Lernen vom Modell
Unterricht vom mehr wissenden Anderen
Neue Wege
Assoziation und Autopilot
Navigation und Erinnerung
Intelligenz: Das Abrufen und neu Verknüpfen von Wissen
Unsere Kartographie von Systemen
4 UNSERE ZIELE
Bin unterwegs!
Bedürfnisse und Ziele
Die körperlichen Bedürfnisse
Die psychologischen Bedürfnisse
Die relationalen Bedürfnisse
Zeit und Geld
Die Bewertung
Der Anspruch
5 ENTSCHEIDUNGEN: DIE WAHL DER ROUTE
Induktion und Deduktion
Pi mal Daumen
Disney und die fünf Emotionen
Moral und Werte
Mentale Buchhaltung: Kartenausschnitte
Das ist meines
Der große Maßstab
Verfügbarkeit und Wahrscheinlichkeit
Der ewige konservative Vorteil
Über Framing …
… und Nudging
6 DIE ERKUNDUNG DER UMWELT
Mehr Information
Die fünf Stufen der Erkundung
Stufe 1: Wahrnehmen
Stufe 2: Beobachten
Stufe 3: Nachsehen
Stufe 4: Suchen
Stufe 5: Erstellen
7 ZWEI SCHLEIFEN
Output ist Input
Geteilte Intentionalität
Bekannte Pfade
Gemeinsame Kultur
Rollen und Typisierung
Konflikte und Kooperation
Asymmetrische Information und Institutionen
8 HOW TO
Jetzt geht’s los
Öffentlichkeitsarbeit
Training
Konfliktbearbeitung: Verhandlungen und Mediation
Coaching und Sparring
Liste der Chunks
Vertiefende Literatur
Chunk #1: Ein starkes Signal beeinflusst eine Entscheidung des Empfängers.
Meine Zeit wurde knapp.
Es waren vermutlich schon 80 oder 90 Prozent des Live-Interviews vorbei, aber der Moderator hatte mir noch keine Frage gestellt, die ich nutzen konnte, um zu sagen, was ich wollte. Ich konnte den entscheidenden Punkt noch nicht landen. Zum Einstieg wäre es noch zu früh gewesen, das Publikum noch nicht bereit, aber jetzt hatte ich vielleicht nur noch ein oder zwei Gelegenheiten.
Ich stand im Garten eines irakischen Hotels, es war schon dunkel, daher sah ich nur den Scheinwerfer vor mir, Kameramann und Tontechniker verschwanden hinter dem grellen Licht, und ich wartete auf die nächste Frage aus dem kleinen Knopf in meinem Ohr.
Es war ein besonderes Interview, vielleicht das Wichtigste in meiner Zeit als Europaabgeordneter. Der sog. Islamische Staat (IS) hatte den Norden des Irak erobert und beging ein Massaker an der religiösen Minderheit der Jesiden. Die Region gehörte zu meiner politischen Zuständigkeit, ich war dort, um Hilfsmaßnahmen zu besprechen. Irakische Kontakte hatten mir ermöglicht, einen Rettungsflug zu den auf dem Berg Sinjar eingekesselten Jesiden zu begleiten. Ich filmte mit, es wurden spektakuläre Bilder. Dann schnitt ich eine ganze Nacht in meinem Hotelzimmer und stellte das Video auf YouTube online. Binnen weniger Stunden ging es weltweit viral, alle internationalen TV-Sender übernahmen es. Der Bericht an sich war schon ein globaler Erfolg.
Aber ich war kein Journalist mehr, ich war Politiker. Ich musste nicht nur berichten, sondern Hilfe organisieren. Als ich um 22:00Uhr am nächsten Tag im wichtigsten Nachrichtenformat Österreichs live auf Sendung ging, hatte ich nur eine Aufgabe: Als Oppositionspolitiker so viel Druck zu machen, dass die österreichische Regierung sofort Hilfsmittel freigab. Mein Gegenüber war Sebastian Kurz, damals Außenminister und Entscheider über den Auslandskatastrophenfonds. Ihn musste ich jetzt bewegen, und dieses Interview war vielleicht meine einzige, sicher aber meine beste Chance.
Damals, 2014, war die mediale und politische Situation noch anders als vor der Fluchtbewegung von 2015, die in ganz Europa einen Meinungsumschwung gegenüber Flüchtlingen aus dem Nahen Osten auslöste. In diesem Sommer war das Entsetzen über die Massaker des sog. Islamischen Staates noch frisch. Die öffentliche Meinung, die Mehrheit der Bevölkerung, war für Hilfsmaßnahmen.
Sebastian Kurz war ein Populist, immer an der Mehrheitsmeinung der Öffentlichkeit orientiert, immer bemüht, ihre Erwartungen zu erfüllen. Das war seine Priorität. Aber vor allem: Er war nicht mutig, er wollte in erster Linie Fehler vermeiden. Im Zweifel riskierte er lieber nichts. Um ihn zu bewegen, musste ich also in diesem Interview ein Signal setzen, dass die Erwartungen der Öffentlichkeit auf ihn und sein Verhalten lenkte.
Ich war bereit, ich hatte die wichtigen Sätze vor dem Interview im Kopf hundert Mal durchgespielt und automatisiert, doch nun ging mir die Zeit aus. Ein Live-Interview im Fernsehen kann sich unendlich lange anfühlen, wenn man am liebsten gar nichts sagen würde, ist aber immer zu kurz, wenn man etwas ganz Bestimmtes unterbringen möchte. Dann, endlich, kam eine geeignete Frage: Was soll die Staatengemeinschaft tun?
Ich weiß noch, dass ich in diesem Moment unterbewusst einen kleinen Schritt nach vorne machte, auf die Kamera zu, fast als würde ich in den Angriff gehen.
»Es ist keine Zeit mehr, um lange zu reden. Die Menschen, die im Beitrag zu sehen waren, brauchen sofort Hilfsgelder – es fehlt sogar an den Mitteln, die Rettungshubschrauber wieder aufzutanken und weitere Menschen zu retten. Außenminister Sebastian Kurz muss morgen früh in sein Büro gehen und sofort Gelder freigeben. Jede Stunde zählt.«
Es war meine letzte Antwort in diesem Interview, damit war es vorbei. Ich hatte den Satz noch angebracht. Wenn ich Sebastian Kurz und seine Einschätzung der Emotionen des Publikums richtig beurteilt hatte, würde er morgen die Hilfsgelder freigeben.
Ich schlief schlecht in dieser Nacht, ging das Interview immer wieder durch und fand es einfach nicht gut genug. Es schien mir nicht eindrücklich genug. Es war nur ein Satz am Ende gewesen. Vielleicht hätte ich noch deutlicher sagen sollen: Der Außenminister soll keine stundenlangen Sitzungen abhalten, bevor er zur Entscheidung kommt. Ich bekam viel Zuspruch in Mails und via Social Media, doch der Zweifel blieb.
Ich hoffte, dass das am nächsten Vormittag das Top-Thema in den österreichischen Innenpolitik-Redaktionen sein würde, dass alle im Außenministerium anrufen und diese eine, zentrale Frage stellen würden: Gibt der Außenminister die dringend notwendigen Hilfsgelder sofort frei?
So schätzte ich das ein. Aber hatte ich recht?
Nun, so sah es auch Sebastian Kurz. Er wollte auf jeden Fall einen Fehler vermeiden und auf keinen Fall die Emotionen der Zuschauer enttäuschen. Er traf seine Entscheidung schnell. Der Außenminister gab die Mittel um 7:00 Uhr morgens frei, noch bevor der erste Journalist nachfragen konnte: Eine Million Euro Soforthilfe.
Das Signal ist stark genug gewesen.
Eindringliche episodische Erlebnisse wie dieses politische Interview eignen sich gut für Erzählungen, aber erklären nicht die zugrunde liegenden Prinzipien. Das kann die Wissenschaft.
Warum habe ich meinen Schlusssatz genau so gesagt? Weil ich Sebastian Kurz zu einer ganz konkreten Entscheidung verleiten wollte und weil ich darauf gesetzt habe, dass er versucht, einen möglichen Verlust zu vermeiden.
Dabei habe ich eines der wichtigsten sozialwissenschaftlichen Experimente der letzten Jahrzehnte als Vorlage genutzt. Der Versuch stammt von zwei berühmten Psychologen und Pionieren der Verhaltensökonomie, Daniel Kahneman und Amos Tversky.
Sie haben hunderten Menschen folgende Fragestellung vorgelegt:
Stellen Sie sich vor, ihr Land bereitet sich auf den Ausbruch einer ungewöhnlichen asiatischen Krankheit vor, die erwartungsgemäß 600 Menschenleben fordern soll. Zwei alternative Pläne zur Bekämpfung der Krankheit wurden vorgeschlagen. Angenommen, die exakten wissenschaftlichen Schätzungen der Konsequenzen der Pläne lauten folgendermaßen:
Wird Plan A umgesetzt, werden 200 Menschenleben gerettet.
Wird Plan B umgesetzt, besteht eine Wahrscheinlichkeit von einem Drittel, dass 600 Menschenleben gerettet werden, und eine Wahrscheinlichkeit von zwei Dritteln, dass niemand gerettet wird.
Wählen Sie eine Option. Welchen der beiden Pläne würden Sie vorziehen?
Ich tippe, dass Sie sich für Plan A entschieden hätten. Natürlich kann ich Ihre persönliche Entscheidung nicht kennen, trotzdem rate ich nicht nur blind. Denn die Wahrscheinlichkeit lässt sich abschätzen. Das Experiment wurde 1981 das erste Mal durchgeführt und seitdem sehr oft wiederholt, die Verteilung der Antworten ist dabei recht konstant. Sie liegt meist bei rund drei Viertel der Stimmen für Plan A und nur einem Viertel für Plan B. Im Original-Experiment entschieden sich 72 Prozent für Plan A und 28 Prozent für Plan B.
200 sicher gerettete Menschenleben erschienen der großen Mehrheit also als die bessere Aussicht. Eine demokratische Abstimmung in der Sache wäre recht deutlich für diese Lösung ausgegangen. Sie sehen, ich hatte eine gute Chance, mit meinem Tipp, dass Sie A gewählt hätten, richtig zu liegen. Keine Gewissheit, aber eine recht hohe Wahrscheinlichkeit. Nur bei einem Viertel der Leser und Leserinnen werde ich falsch liegen.
Dabei wär’s eigentlich egal. Rein mathematisch gesehen sind die beiden Pläne gleichwertig. Bei Plan A überlebt ein Drittel der Menschen immer, bei Plan B sind es jedes dritte Mal alle. Das würde bei mehreren Wiederholungen zur selben Anzahl geretteter Menschen führen. Der Unterschied besteht bei der einmaligen Entscheidung eben darin, dass Plan A ein fixes Ergebnis garantiert und B im Vergleich dazu Chance und Risiko darstellt.
Aus dem Ergebnis des Experiments könnte man schließen, dass die große Mehrheit der Menschen bei einer demokratischen Entscheidung eher die sichere Variante bevorzugt. Für die Politik bedeutet das: Wenn Parteien die Meinung der Mehrheit der Bevölkerung vertreten wollen, müssten sie für Plan A sein. Logisch, oder?
Aber so einfach ist es nicht.
Kahneman und Tversky legten nämlich einer zweiten Gruppe die Pläne noch einmal vor. Mit exakt derselben Einleitung und exakt denselben Lösungen, nur die Formulierungen waren hier verändert:
Stellen Sie sich vor, ihr Land bereitet sich auf den Ausbruch einer ungewöhnlichen asiatischen Krankheit vor, die erwartungsgemäß 600 Menschenleben fordern soll. Zwei alternative Pläne zur Bekämpfung der Krankheit wurden vorgeschlagen. Angenommen, die exakten wissenschaftlichen Schätzungen der Konsequenzen der Pläne lauten folgendermaßen:
Wird Plan A umgesetzt, werden 400 Menschen sterben.
Wird Plan B umgesetzt, besteht eine Wahrscheinlichkeit von einem Drittel, dass niemand sterben wird und eine Wahrscheinlichkeit von zwei Dritteln, dass 600 Menschen sterben werden.
Die Fakten sind identisch mit den Plänen aus Teil 1 des Experimentes. Doch nun entschieden sich spärliche 22 Prozent für Variante A. Plan B dagegen erhielt eine Zustimmung von 78 Prozent. Zum Vergleich:
Grafik 1.1: Eine Entscheidung und zwei Ergebnisse
Das Ergebnis fiel fast exakt umgekehrt aus. Erstaunlich, wo doch beide Gruppen haargenau dieselbe Wahl zu treffen hatten.
Die Kluft dazwischen entsteht ausschließlich durch den Unterschied in der Formulierung der Fragestellung: Der erste Text nannte die Geretteten, der zweite die Sterbenden. Zwei Beschreibungen, die den Fakten nach beide objektiv identisch sind, die aber zu deutlich unterschiedlichen Mehrheiten führen.
Wenn sich nur durch die Formulierung der Frage vorhersagen lässt, welche der beiden Optionen eine Zustimmung von rund drei Viertel der Befragten bekommt, dann lässt sich das auch nutzen. Dann lässt sich das Ergebnis beeinflussen, indem man jene Formulierung wählt, die die gewünschte Mehrheit bringt. Wenn jemand weiß, weshalb das der Fall ist, kann er diesen Effekt nutzen.
Das ist spannend, und warum das passiert, werden wir uns gleich ansehen. Wichtig ist zunächst nur, dass der Effekt eintritt. Das ist ein starkes Signal. Wie und warum solche Kommunikation funktioniert, ist Thema dieses Buches über systemische Kommunikation.
Ich nenne jede derart gezielte Kommunikation, die bewusst eine bestimme Reaktion auslösen soll, ein Signal. Wenn das Signal erfolgreich war, war es ein starkes. Oder anders gesagt: Wenn das Verstehen des Empfängers zu einer Reaktion führt, die der Sender beabsichtigt hat, war die Mitteilung ein starkes Signal.
Natürlich, wir sind Menschen und keine Automaten. Es lässt sich mit diesem Signal nicht die Reaktion jeder einzelnen Person präzise steuern. Je ein Viertel der Menschen wählt A oder B, egal wie die Formulierung lautet. Seien wir demokratiepolitisch froh darüber. Aber etwa die Hälfte der Entscheider wird durch die jeweilige Formulierung beeinflusst, und das ändert die Mehrheit drastisch. Das zu verstehen, hat für jedes Verkaufsgespräch, für jede Presseaussendung, für jede Meeting-Unterlage eine enorme Wirksamkeit. So können wir Einfluss nehmen – und so werden wir alle den ganzen Tag über in vielen kleinen Entscheidungen immer wieder von Kommunikation beeinflusst.
Deshalb zielt dieses Buch nicht nur darauf ab, starke Signale nutzbar zu machen, sondern die Mechanismen dahinter aufzuzeigen, wenn man selbst Empfänger ist.
Chunk #2: Bei der Verarbeitung von Daten und Fakten wendet unser Gehirn verschiedene Regeln zur Vereinfachung an. Das kann ein Sender für starke Signale nutzen.
Aus dem Asian Disease Problem und seinen zunächst überraschenden Ergebnissen entwickelten Kahneman und Tversky ihre Neue Erwartungstheorie, die einer der Grundpfeiler einer noch jungen wissenschaftlichen Disziplin wurde: der Verhaltensökonomik. Kahneman bekam dafür 2002 den Nobelpreis. Tversky erlebte die Auszeichnung nicht mehr, er starb 1996. Mit seinem Buch Schnelles Denken, langsames Denken etablierte sich Kahneman 2011 dann auch noch als Bestseller-Autor.
Die grundlegende Erkenntnis, die das Wissenschaftler-Duo aus ihrem Experiment zog, ist essenziell für wirkungsvolle Kommunikation. Sie lautet: Menschen empfinden Gewinne und Verluste nicht gleich stark. Das Empfinden eines negativen Erlebnisses ist intensiver als das eines positiven Ereignisses. Salopp gesagt: Verlieren wir 100 Euro, ist der Schmerz größer als die Freude über einen Gewinn von 100 Euro.
Wir vermeiden deshalb Verluste, wo es nur geht. Um ein Risiko einzugehen, brauchen wir einen Anreiz, der jedenfalls höher ist als der mögliche Verlust. Das scheint eine in der Evolution sehr erfolgreiche Strategie gewesen zu sein, die das Überleben durchaus erfolgreich gesichert hat. Sie ist uns im wahrsten Sinne des Wortes in Fleisch und Blut übergegangen.
Gehen wir die beiden Formulierungen der Asian Disease-Fragestellungen noch einmal durch. Der Effekt funktioniert in drei Schritten. Erstens beurteilen wir die Ausgangssituation und legen sie als Referenz fest. Zweitens beurteilen wir die mögliche Alternative. Drittens vergleichen wir sie. Wenn die Alternative eindeutig mehr Vorteile bietet, also einen Gewinn darstellt, wählen wir sie. Wenn die Alternative eindeutig mehr Nachteile bietet, also einen Verlust bedeutet, vermeiden wir sie. Wenn das Resultat aber nicht eindeutig ist, gewichten wir mögliche Verluste tendenziell höher als mögliche Gewinne.
In den meisten Fällen haben wir eine Einschätzung unserer aktuellen Situation, weil wir uns in einem Handlungsablauf befinden. Wir haben also eine Referenz und müssen vor jeder Entscheidung nur die Alternative zum Ist-Zustand bewerten. Anders ist es, wenn wir plötzlich in eine völlig neue Situation geraten. Da müssen wir diese Situation erstmal als Referenz festlegen, um dann in Zukunft vergleichen zu können. Das passiert zum Beispiel, wenn jemand sagt: »Stellen Sie sich vor, ihr Land bereitet sich auf den Ausbruch einer ungewöhnlichen asiatischen Krankheit vor ...«
Der Referenzwert ist so wichtig, dass wir die erste Information, die wir erhalten, dazu heranziehen. Die zweite Information ist die Alternative, sie wird damit verglichen. Und, wie gesagt, dabei wird versucht, Verluste zu vermeiden.
Der Referenzwert ist im Experiment in beiden Fällen also unsere Bewertung von Plan A, weil er zuerst erwähnt wird. Für die erste Gruppe wird das positive Resultat des Ergebnisses beschrieben: Mit Plan A werden 200 Menschen gerettet. Unsere Positionierung bewertet die Anzahl der Überlebenden. Plan B nennt dann das Risiko, mit zwei Drittel Wahrscheinlichkeit alle in den Tod zu schicken. Es droht bei B der Totalverlust gegenüber unserer aktuellen Positionierung, er ist sogar sehr wahrscheinlich. B ist also ein schlechter Weg, wenn man auf die Überlebenden fokussiert.
Die zweite Gruppe erfuhr dagegen zuerst vom Verlust: Mit Plan A werden 400 Menschen sterben. Unsere Positionierung sind nun 400 sichere Tote. Das ist ein hoher Verlust. Von diesem Ausgangspunkt aus erscheint selbst die geringe Wahrscheinlichkeit, mit Plan B alle Menschen zu retten, als attraktiv. Daher entschieden sich die meisten Versuchspersonen nun gegen den sicheren Verlust und setzten auf die Chance, ihn zu vermeiden.
Stellen wir die beiden Varianten schematisch gegenüber:
Grafik 1.2: Wie die Mehrheit entscheidet
Der Sender S schickt ein Signal an den Empfänger E, der wählt Plan A oder B, jeweils dargestellt mit dem durchgehenden schwarzen Pfeil. Obwohl sie objektiv dieselbe Entscheidung zu treffen hatten, gelang es mit den unterschiedlichen Formulierungen, die beiden Gruppen in subjektiv unterschiedliche Situationen zu versetzen. Sie waren mit identischen Plänen, aber mit unterschiedlichen Positionierungen konfrontiert. Erst wird Plan A als sichere Rettung von Menschen beschrieben, dann als der sichere Tod. Die Alternative B ist die Risikovariante, ob sie vor allem als möglicher Gewinn oder möglicher Verlust empfunden wird, hängt von dieser Formulierung ab.
Zurück zu Sebastian Kurz, den Hilfsgeldern und meinem Fernseh-Interview. Was hat das mit diesem Experiment zu tun?
Ich wusste, dass der Bericht von meinem Flug viel Aufmerksamkeit in der wichtigsten österreichischen Nachrichtensendung bekommen würde. Ich wusste, dass mein Live-Interview per Satellitenschaltung nach meinen Videobildern vom Rettungsflug ausgestrahlt wird. Erst mein Bericht, dann das Interview. Der Bericht mit meinen Bildern war für die Zuseher die Referenz der Bewertung einer Situation, von der die zuvor wenig wussten: Es gibt Massaker, die Hubschrauber können helfen. Aber nun bleiben sie am Boden, weil es kein Geld gibt.
Das war Möglichkeit A. Eine Katastrophe, ein Verlust.
Was ist die Alternative, was bietet Verlustvermeidung, was ist Plan B?
Im Interview habe ich eine Möglichkeit genannt. Es gibt genau einen Menschen in Österreich, der den Verlust abwenden kann, und deshalb trägt er die Verantwortung dafür: Außenminister Sebastian Kurz. Er verfügt über den Auslandskatastrophenfonds der Republik. Er kann Geld freigeben, sofort morgen früh, wenn er ins Büro geht. Das vermeidet den Verlust von Menschenleben.
Sebastian Kurz war ein Populist durch und durch. Ich wusste, er würde seine Entscheidung so treffen, dass er die Zustimmung der Mehrheit bekommt. Die Mehrheit stimmt Verlustvermeidung zu.
Kurz wusste das auch, wenn auch vielleicht nur intuitiv.
Deshalb hat es geklappt.
Daraus kann man eine grundlegende Kommunikationsregel ableiten: Wenn zwei Möglichkeiten zur Auswahl stehen, deren Vor- und Nachteile nicht ganz klar sind, dann betone nicht nur die Vorteile der von dir bevorzugten Variante. Betone sehr stark die Nachteile der anderen und wie diese vermieden werden können.
An den Gedanken muss man sich erst einmal ein bisschen gewöhnen. Denn für die meisten von uns widerspricht das dem, wie wir üblicherweise vorgehen. Tatsächlich agieren wir in unserer Kommunikation oft genau andersherum. Wir preisen die Vorteile der Lösung, die wir bevorzugen, und heben das Gute hervor. Das ist vielleicht löblich, aber die falsche Strategie. Schlecht über die andere Lösung zu reden, ist viel wirkungsvoller. Unsympathisch, oder? Aber so funktionieren wir als Empfänger von Information.
In der politischen Kommunikation ist dieses Prinzip allgegenwärtig, nicht nur bei Spitzenpolitikern, sondern bei uns allen. Es ist stets leichter, zu Protesten gegen eine Verschlechterung zu mobilisieren als für positive Neuerungen. Gegen Atomkraftwerke und Wiederaufbereitungsanlagen wird vehementer demonstriert als für Windkraftanlagen und Solarpaneele. Es gibt mehr Bürgerinitiativen gegen Autobahnen als für den Bahnausbau, mehr Basisgruppen gegen Gentechnik als für Bio-Landwirtschaft, meine Informationsveranstaltungen gegen problematische Freihandelsabkommen waren stets voller als jene für lobenswerte Fair-Trade-Initiativen. Ein Dagegen erzeugt in den Menschen offenbar mehr Motivation als ein Dafür. Erfolgreiche Verkäufer, Verhandler und Werbefachleute haben das instinktiv oder aus Erfahrung drauf. Sie machen die Sache richtig, ohne vielleicht je von Kahneman, Tversky und dem Asian Disease Problem gehört zu haben.
Weniger erfahrene Kommunikatoren versuchen gerne, die Vor- und Nachteile beider Lösungen zu präsentieren und zu zeigen, dass bei ihrem Vorschlag die Vorteile überwiegen. Das kann auch funktionieren. Aber nicht so gut.
Wie gesagt: Man muss diese Strategie nicht mögen. Nur weil etwas funktioniert, muss es uns nicht gefallen. Vermutlich wäre jedem von uns lieber, wenn wir vor allem sachliche, lösungsorientierte und positive Diskussionen führen könnten. Und zum Glück gibt es auch dafür starke Signale, wir werden noch dazu kommen.
Aber für uns ist zunächst das Grundprinzip wichtig. Wenn wir Informationen aus der Umwelt erhalten, verarbeiten wir sie als Input für unsere Entscheidungen nicht völlig objektiv, rational und neutral – aber auch nicht unsystematisch und völlig unvorhersehbar. Man kann die menschliche Informationsverarbeitung mit Regeln beschreiben, mit denen die daraus folgenden Entscheidungen mit hoher Wahrscheinlichkeit vorhersagbar sind. Und wenn sie vorhersagbar sind, sind sie steuerbar. Wir können damit Einfluss nehmen. Und es wird damit Einfluss auf uns genommen.
Besser, wir kennen die wichtigsten dieser Regeln. Deshalb werden wir uns in späteren Kapiteln Verhaltensökonomik und Kognitionspsychologie etwas genauer ansehen.
Chunk #3: Alle aktuellen Signale müssen in einen Kontext eingeordnet werden, den wir schon davor erlernt haben.
Der Zusammenhang von Positionierung und Verlustvermeidung ist noch nicht alles, was am Asian Disease Problem interessant ist. Es gibt einen Aspekt bei dem Experiment, dem sonst sehr wenig Aufmerksamkeit geschenkt wird, sowohl in der wissenschaftlichen Literatur als auch in der praktischen Anwendung: Warum lässt sich jeweils ein Viertel der Menschen nicht beeinflussen?
Wenn das Signal entsprechend gegeben wird, bewegt es rund die Hälfte der Teilnehmer dazu, ihm auch zu folgen. Diese Gruppe, die je nach Formulierung anders entscheidet, ist das, was das Experiment berühmt gemacht hat. Was man darüber fast vergisst, sind die anderen beiden Viertel der Teilnehmer. Also die Menschen, die gegen das Signal offenbar so immun sind, dass es an ihnen vorübergeht. Immerhin bleiben etwa je ein Viertel aller Testpersonen für A und B, auch wenn diese Optionen als Verlust beschrieben werden.
Deshalb können wir die Wirkung der Formulierung auf jede einzelne Testperson nur mit hoher Wahrscheinlichkeit, aber nicht mit Sicherheit bestimmen. Keine Formulierung garantiert ein Ergebnis für eine konkrete Testperson.
Grundsätzlich ist es eher beruhigend, dass wir nicht so sicher manipulierbar sind. Trotzdem bleibt die Frage, warum bei den einen die Beeinflussung klappt und bei den anderen nicht.
Die Antwort beginnt damit, dass alle Signale, die wir für eine Entscheidung bewerten, in einen Kontext eingeordnet werden müssen. Den Teilnehmern am Experiment von Kahneman und Tversky wurde in dem kurzen Text nicht erklärt, was eine Krankheit ist oder wie Bruchrechnen funktioniert. Im TV-Interview habe ich nicht erklärt, dass der Irak ein Staat im Nahen Osten ist, dass der sog. Islamische Staat eine Terrororganisation ist oder dass es Rettungshubschrauber gibt und diese Treibstoff brauchen und Treibstoff Geld kostet. All das ist Kontext, der zur Einordnung wichtig ist. Dieser Kontext besteht aus Informationen, die so grundlegend in unserer Gesellschaft sind, dass man sowohl beim Experiment als auch beim Interview davon ausgehen konnte, dass der Großteil des Publikums diesen Kontext kennt.
Das ist interessant, weil dieser Kontext beziehungsweise das Wissen über ihn ja nicht angeboren ist. Die Menschen müssen jede einzelne Information für diesen Kontext davor gelernt haben, also aufgenommen und gespeichert haben. Jede dieser Informationen war in der Vergangenheit also ein Signal und sie wird mit den aktuellen Signalen kombiniert, um eine Entscheidung zu treffen.
Bei jeweils je rund einem Viertel der Menschen führt das dazu, dass sie immer Plan A oder immer Plan B wählen, egal wie deren Beschreibung formuliert ist. Sie ordnen die aktuelle Information so in den Kontext ein, dass sie immer die Variante mit dem sicheren Ergebnis oder immer die Variante mit Risiko und Chance wählen. Warum?
Natürlich könnte das auch angeboren sein. Aber diese Antwort ist nicht sehr befriedigend. Sie zieht nur eine Menge Folgefragen nach sich. Warum ist ihr Charakter so ausgerichtet, was hat ihn geprägt, und warum gibt es überhaupt charakterliche Unterschiede zwischen den Menschen?
In der Psychologie ist das eine der großen grundsätzlichen Auseinandersetzungen: nature or nurture. Was ist der angeborene und was der von der Umgebung geprägte Anteil unserer Persönlichkeit? In diesem Buch brauchen wir diese Grundsatzdebatte allerdings nicht. Es ist klar, dass es an der Informationsverarbeitung einen biologischen Anteil gibt. Er ergibt sich aus dem Aufbau des Gehirns, des Nervensystems, der Sinnesorgane und anderer Faktoren wie dem Hormonhaushalt.
Klar ist aber auch, dass es einen Anteil an unserem Verhalten gibt, der erworben, erlernt, anerzogen, geprägt ist. Dieser Anteil ist individuell, aber die Entwicklungspfade sind weder zufällig und noch gleichmäßig. Es existieren vorherrschende Muster in jeder Gesellschaft und sie schaffen die vorherrschenden Prägungen.
Vor allem der Anteil des nurture an unserem Verhalten, also Erziehung, Erfahrung und Erlerntes, sind daher spannend für unser Buch. Dass dieser Anteil relevant ist, bestreiten selbst die Verfechter eines vornehmlich angeborenen Charakters nicht.
Erziehung, Erfahrung und Erlerntes, das alles ist abgespeichertes Wissen. Es beruht auf Signalen, die wir in der Vergangenheit erhalten und bewusst oder unbewusst abgelegt haben. Ich gehe deshalb davon aus, dass ich mich als kleines Kind mal vor Fisch geekelt und das tief gespeichert habe.
Was heißt das nun in Hinblick auf das Asian Disease-Experiment und die beiden Viertel der Testpersonen, die jeweils gegen die Mehrheit stimmen? Plan A hat ein fixes Resultat, Plan B ist Risiko und Chance. Es könnte Leute geben, bei denen angeboren ist, das eine oder das andere immer zu bevorzugen. Mag sein.
Spannender sind aber die, bei denen diese Wahl durch Erziehung, Erfahrung und Erlerntes geprägt wurde. Vielleicht entscheidet sich jemand für das fixe Ergebnis in Plan A, weil ihm seine Eltern vermittelt haben, dass eine solche Sicherheit gut und richtig ist. Vielleicht greift ein anderer Testteilnehmer immer zu Plan B, weil er einmal das prägende Erlebnis hatte, dass Risiko sich auszahlen kann. Beides wären Signale aus der Vergangenheit, die wichtiger genommen werden, als die aktuellen Signale durch die Formulierung des Experiments. Vielleicht hat ein Dritter vom Asian Disease Problem gelesen, erkennt die Fragestellung und hat seine stille Freude daran, mit der Minderheit zu stimmen. Was er daran so erfreulich findet, rührt vielleicht aus seiner Jugend her, in der er Widerstand als Heldentat empfand. Es wären also nichts anderes als weitere Signale aus der Vergangenheit, die in ihm wirken.
Wir können unserem Modell des Entscheidungsprozesses jedenfalls ein neues Steinchen hinzufügen. Der Entscheider verarbeitet nicht nur die akuten Signale des Senders, sondern auch sein bereits davor erworbenes und gespeichertes Wissen und seine früheren Erfahrungen. Aus diesen beiden Quellen speist sich sein für die Entscheidung notwendiges Wissen. Führt er sie zusammen, stellen sich dadurch die Weichen, ob er Plan A oder Plan B wählt.
Grafik 1.3: Die Einfiüsse auf den Entscheider
Wir haben das Konzept des zuvor erworbenen und gespeicherten Wissens jetzt einfach so ins Geschehen geworfen. Ganz so simpel ist es mit dieser geistigen Ablage in uns allerdings nicht. Das Speichern von Wissen und seine Nutzung passiert nämlich in zwei getrennten Teilen des Gehirns: im Langzeit- und im Arbeitsgedächtnis. Im Arbeitsgedächtnis entscheiden wir und dazu holen wir Informationen aus unserem Langzeitgedächtnis. Wir assoziieren, wir erinnern uns bewusst oder unbewusst. Hier treffen akut wahrgenommene Signale auf vergangene, gespeicherte Signale.
Das Langzeitgedächtnis ist theoretisch unendlich groß, noch nie ist ein gesunder Mensch an seine Grenzen gestoßen. Noch nie hatte jemand einfach keine weitere Gehirnzelle mehr frei, um zu speichern. Um nun eine Information nutzen zu können, muss sie vom Langzeitgedächtnis abgerufen und ins Arbeitsgedächtnis übertragen werden.
Dieses Hin und Her ist permanent im Gang. Wir sind praktisch rund um die Uhr damit beschäftigt, ohne dass es uns überhaupt auffällt. Es wird uns nur dann bewusst, wenn es nicht klappt. Wenn Ihnen der Name einer Person auf der Zunge liegt. Oder wenn Sie bei einem Quiz ganz genau wissen, dass sie die Antworten kennen, sie Ihnen aber nicht einfallen wollen. Wir haben die Lösungen irgendwo in unserem Gehirn gespeichert, aber sie lassen sich nicht aus dem Langzeitgedächtnis abrufen und daher auch in diesem Moment nicht im Arbeitsgedächtnis nutzen. Das sind die Fälle, in denen uns markant auffällt, dass wir gespeichertes Wissen in einem Teil des Gedächtnisses finden müssen, um es im anderen zu nutzen.
Noch viel häufiger kommt es vor, dass wir bei Entscheidungen gewisse Aspekte völlig links liegen lassen. Wir denken nicht einmal an sie. Anders gesagt: Wir merken gar nicht, was wir nicht abrufen. Wir buchen zum Beispiel einen Urlaub und denken nicht an den Geburtstag von Oma, der genau in diesen Zeitraum fällt. Warum eigentlich nicht? Warum hat die Evolution nicht dafür gesorgt, dass wir alles Wissen gleichzeitig nutzen können?
Es ist eine Frage des Energieaufwands. Wir denken nicht immer mit allen 16 Milliarden Neuronen unserer Großhirnrinde, die unser Wissen speichern. Das große menschliche Gehirn ist ein Organ, das sehr viel Energie verbraucht, und Energie in Form von Nahrung war in unserer Evolutionsgeschichte ein knappes Gut. Also geht unser Gehirn damit effizient um und nutzt nur wenige Informationen gleichzeitig aktiv.
Der Energieaufwand und die geringe Kapazität des Arbeitsgedächtnisses sind der Grund, warum wir die verarbeiteten Informationen filtern müssen und warum wir überhaupt ein Langzeitgedächtnis brauchen.
Wenn wir vor einer Entscheidung eine neue Information ins Arbeitsgedächtnis aufnehmen, fällt eine andere aufgrund des begrenzten Platzes heraus. Wir entscheiden nie aufgrund aller Sinneseindrücke und allen Wissens, das uns theoretisch zur Verfügung steht.
Das ist eine Tatsache, die wir nicht wichtig genug nehmen können. Denn das heißt nichts anderes, als dass wir im Moment einer Entscheidung niemals – niemals, niemals, niemals – auf alle Informationen zugreifen, die wir in der Vergangenheit gesammelt haben. In der Praxis zählt die Auswahl. Wie wir diese Auswahl treffen, werden wir uns ansehen.
Erlerntes Wissen möglichst schnell abrufen zu können und akkurat das herbeizuschaffen, was wir gerade brauchen, ist genauso wichtig, wie es zu speichern. Sich etwas zu merken, besteht aus beiden Prozessen.
Wie funktionieren nun diese Mechanismen? Wie schaut das Wechselspiel zwischen Langzeit- und Arbeitsgedächtnis in der Praxis aus? Und welche Abläufe sind nötig? Hier kommen wieder die Signale aus der Umgebung ins Spiel.
Erstens war alles, was wir je gelernt haben, einmal ein Signal von außen. Wir haben es über unsere Sinne wahrgenommen, interpretiert, in einen Zusammenhang gestellt und abgelegt. Ein starkes Signal kann also auch über lange Zeit verzögert wirken und im Langzeitgedächtnis auf seinen Einsatz warten. Zum Glück, denn das ist der Grund, warum wir lernen und das Gelernte nachhaltig verwenden können. Dann aktivieren wir die Information dieses starken Signals erst, wenn der richtige Zeitpunkt gekommen ist.
Und wann ist der Zeitpunkt gekommen? Das können uns wiederum nur aktuelle Signale sagen. Erst sie geben die Hinweise darauf, welches gespeicherte Wissen wir gerade brauchen. Wenn man ein Tier sieht, ist es hilfreich, schnell die Information abrufen zu können, ob es gefährlich ist oder nicht. Wenn ein Politiker im Fernsehen eine Position vertritt, ist es hilfreich, ihn einer Partei oder Interessensgruppe zuzuordnen. Dieser Prozess, die Sinnesreize zu verwenden, um Informationen aus dem Langzeitgedächtnis abzurufen, läuft ständig und unterbewusst. Wir nennen ihn Assoziation.
Um starke Signale zu verstehen, werden wir also auch das Lernen und Abrufen von Wissen verstehen müssen. Deshalb werden wir uns Lerntheorien und insbesondere der Lernpsychologie zuwenden.
Chunk #4: Jeder Prozess ist ein Entscheidungsbaum, durch den die Akteure ihren Weg suchen.
Chunk #5: Für diese Navigation kombinieren wir aktuelle Signale mit Landkarten, die wir in der Vergangenheit schon kartografiert haben.
Jeder Mensch trifft seine Entscheidungen aufgrund gewisser Informationen, egal, ob er kühl und rational abwägend oder instinktiv, emotional und aus dem Bauch heraus handelt. Diese Informationen bekommt jeder von uns aus der Umwelt vermittelt. Kommunikation besteht aus Signalen, die die Information übertragen. Manche beobachtet man, viele werden uns von anderen Menschen kommuniziert. Und diese Signale wirken auf uns ein. Sie beeinflussen die darauffolgenden Entscheidungen und die damit zusammenhängenden Reaktionen. Starke Signale nehmen gezielt und erfolgreich Einfluss auf den Empfänger und den Verlauf der Handlung. Entweder sofort, oder über Lernen zwischengespeichert und Erinnern abgerufen in der Zukunft. Das ist faszinierend, aber auch beunruhigend.
Nehmen wir an, das Asian Disease Problem wäre eine reale Pandemie, eine reale politische Abstimmung. Würde eine Regierung wollen, dass die Mehrheit sich demokratisch für Plan A entscheidet, sollte sie bei einer Abstimmung die erste Formulierung vorlegen. Wenn diese Regierung lieber Plan B hätte, sollte sie die zweite Formulierung zur Abstimmung stellen. Hätte die Regierung dann mit Sicherheit die Abstimmung gewonnen? Vermutlich nicht, denn die demokratische Realität ist nicht so abgeschirmt wie das experimentelle Setting. Sobald es eine Diskussion des Themas gibt, kommen ja neue Signale ins Spiel. Umgekehrt gilt dasselbe. Kennen die Befragten den Effekt, können sie die Beeinflussung erkennen. Sie können sich den Einfluss bewusst machen und reflektieren. Ausschalten kann man ihn nicht. (Und zum Glück gab es bei der realen Corona-Pandemie keine solchen Abstimmungen. Erstens wäre das auf allen Ebenen ein Tiefpunkt der öffentlichen Debatte gewesen, und zweitens würde jetzt sicher jemand diesen Text als codiertes Geständnis einer Manipulation der Eliten lesen.)
In den vergangenen Jahrzehnten haben Psychologen und Ökonominnen viele ähnliche Experimente durchgeführt und eine ganze Reihe von Effekten gefunden, die unsere Entscheidungen systematisch beeinflussen. Man nennt diese Effekte oft »Bias«, also eine Verzerrung, eine systematische Abweichung von einer definierten Norm. Und die Norm in den Wirtschaftswissenschaften ist die rationale Entscheidung auf Grundlage objektiver Daten. Gleiche Daten sollten zu gleichen Entscheidungen führen, wenn das nicht so ist, wird der ganze Vorgang als fehlerhaft betrachtet.
Aus der Sicht der Informationsverarbeitung ist das ganz anders: Es ist eine Stärke der Menschheit, Daten vereinfachen zu können und dabei systematisch vorzugehen. Nur das erlaubt uns, auch durch komplizierte Situationen zu navigieren. Nur das erlaubt uns, eine vielfach komplexere Gesellschaft zu errichten als jedes andere Säugetier.
Ein Labor-Experiment wie das Asian Disease Problem hat immer ein gezielt einfach gehaltenes Setting, zum Beispiel eine Entscheidung zwischen zwei vorgegebenen Plänen in einem eng abgesteckten wissenschaftlichen Experiment. Im realen Leben haben wir meistens mehr Möglichkeiten. Sie sind auch nicht auf einem Fragebogen fix vorgegeben. Manche Optionen sind offensichtlich, andere werden uns mit Signalen präsentiert, auf manche kommen wir selbst, oft genug übersehen wir auch Möglichkeiten. Umgekehrt: Nicht immer nennen uns Kommunikationspartner alle Wege, die wir haben. Ich habe in meinem Interview dem Außenminister nur einen vorgegeben, den mit einem Vorteil für ihn. Mehr Zeit war nicht. Die Alternativen und die Bewertung musste er selbst finden, darauf musste ich hoffen. Wir handeln in vertrauten Situationen oft automatisch, aber in ungewöhnlichen Momenten suchen wir alle immer auch Alternativen.
Beim Erstellen unserer Pläne denken wir ein paar Schritte voraus. Nach jeder Weggabelung wartet schon die nächste, der Weg fächert sich immer mehr auf. Wenn ich jetzt noch einen Kaffee trinke, werde ich wieder zu spät zur Arbeit kommen; wenn die Chefin das merkt, wird sie sauer sein; wenn ich mit ihr über meinen Urlaub reden möchte, ist das nicht günstig; wenn ich das alles vermeiden will, sollte ich mir den Kaffee jetzt wohl eher sparen. Mit solchen und ähnlichen Gedanken entstehen in unserem Kopf ganze Karten von möglichen Handlungsverläufen, die schematisch ungefähr wie in Grafik 1.4 aussehen – wenn wir nur drei Schritte mit je zwei Optionen vorausdenken. Die Realität wird sehr schnell sehr viel komplizierter.
Grafik 1.4: Ein Entscheidungsbaum als Karte möglicher Handlungsverläufe
In der Mathematik nennt man das einen Entscheidungsbaum. Die Kreise stellen die Situationen dar, an denen Entscheidungen getroffen werden. Wir nennen sie Knoten oder Kreuzungen. Die Pfeile stellen Handlungen dar, mit denen wir von einer Situation zur nächsten gelangen, wir nennen sie Kanten oder Wege.
Dieses einfache Beispiel zeigt, wie schnell so ein Entscheidungsbaum wächst. Im realen Leben bekommen wir die Möglichkeiten und ihre Konsequenzen nicht wie im Experiment vorgegeben. Wir müssen sie selbst finden und einschätzen, welche Handlung uns in welche Situation führt.
Denken wir in solchen Fällen alle irgendwie vorstellbaren Varianten durch? Natürlich nicht. Das würde unendlich lange dauern. Wir kennen uns in den meisten Situationen, in denen wir uns befinden, halbwegs gut aus und haben eine Einschätzung über die halbwegs realistischen nächsten Schritte. Die denken wir durch. Wir haben in unserem Kopf mentale Karten angelegt, gelernt in der Vergangenheit. Wir positionieren uns in diesen Karten und navigieren von dort weiter.
Wenn man fünf oder sechs Schritte vorausdenkt, und das mit Kreuzungen, von denen oft nicht nur zwei Wege wegführen, kommt man schnell zu komplexen Karten mit Dutzenden, ja Hunderten Möglichkeiten. Die Zeit, das im Detail durchzudenken, nehmen wir uns nur in besonders wichtigen Situationen – wenn wir dann überhaupt genug Zeit haben. Im Alltag gehen wir anders vor und konzentrieren uns auf wesentliche Varianten.
Deshalb ist es zum Beispiel so wichtig, dass wir uns zuerst positionieren, wenn wir in einen neuen Entscheidungsbaum eintreten. Wenn wir das Asian Disease Problem als Text auf einem Blatt Papier vorgelegt bekommen oder in einer Nachrichtensendung einen Bericht über die Vorfälle in einem fernen Land sehen, müssen wir uns ein erstes, grundsätzliches Bild des Entscheidungsbaumes machen. Wir bestimmen zunächst unsere aktuelle Position und die Alternative.
Wie das funktioniert, und warum es eine großartige kognitive Leistung der Menschheit ist, zeigt uns ausgerechnet die Forschung zu künstlicher Intelligenz und eine ihrer praktischen Anwendungen: Navigationssoftware.
Nehmen wir an, Sie wollen mit dem Auto von einer bestimmten Adresse in Duisburg zu einer bestimmten Adresse in Dortmund. Dazwischen liegen in dem dicht besiedelten Ruhrgebiet wohl Millionen Kreuzungen. Eine Navigationssoftware, die am Ausgangspunkt in Düsseldorf beginnen würde, einen vollständigen Entscheidungsbaum zu analysieren, rechnet eine halbe Ewigkeit, bis sie überhaupt alle Möglichkeiten bis zur Stadtgrenze eingezeichnet hat. Das funktioniert nicht, egal wie leistungsfähig die dahinter steckenden Rechenzentren sind – und schon gar nicht in einem kleinen portablen Gerät.
Tatsächlich verwenden die Algorithmen moderner Navigationssoftware eine andere Technik, nämlich Heuristiken. Das sind einfache Strategien, Faustregeln und Pi-mal-Daumen-Einschätzungen, was ein vielversprechender Weg sein könnte.
Eine einfache Heuristik wäre, die Himmelsrichtung zu beachten. An einer Kreuzung in die falsche Himmelsrichtung abzubiegen, wird wohl meist nicht richtig sein. Der beste Weg von Duisburg nach Dortmund im Osten führt nicht über Düsseldorf im Süden. Mit dieser Heuristik findet man einen sehr direkten Weg, aber es ist sicher nicht der schnellste. Eine Hauptstraße oder Autobahnauffahrt muss an nur einer einzigen Kreuzung nicht in der »richtigen« Himmelsrichtung liegen, und schon fährt man daran vorbei.
Eine andere Heuristik könnte sein, jeweils den nächsten Autobahn-Knoten zum Start- und zum Endpunkt zu suchen und diese dann zu verbinden. Das Autobahnnetz ist schon mal viel weniger komplex zu analysieren, als alle Nebenstraßen im Ruhrgebiet zu berücksichtigen. Allerdings: Wenn man innerhalb einer Stadt von einem Punkt zu einem anderen, 500 Meter entfernten Ort kommen möchte, wäre es sehr umständlich, erst an den Stadtrand zur Autobahn und von dort wieder zurückzufahren. Da wäre diese Heuristik ganz schlecht. Besser wäre wohl, beide Heuristiken zu verknüpfen.
Moderne Navigationsgeräte machen meist etwas Ähnliches. Sie haben wichtige Punkte auf der Karte und die Entfernung zwischen ihnen gespeichert. Damit suchen sie zunächst nur grob nach dem kürzesten Weg. Das könnte in unserem Fall also die Strecke Duisburg-Essen-Bochum-Dortmund ergeben. Es hat natürlich keinen Sinn, in jeder dieser Städte ins Zentrum zu fahren, also geht der Algorithmus entlang der Strecke nie ins Detail und leitet uns entlang des Weges vorbei an den Städten, bis er zuletzt im Stadtzentrum von Dortmund vielleicht tatsächlich immer den Weg in die richtige Himmelsrichtung zuerst untersucht.
Liefert so eine Navigationsstrategie garantiert immer das beste Ergebnis? Nein, aber ein sehr gutes mit einem umsetzbaren Aufwand. Programme und Datenbanken sind inzwischen so leistungsfähig, dass sie fast immer das beste Ergebnis finden und im Stadtverkehr sogar in Echtzeit Routen umplanen können.
Ist so ein Algorithmus manipulierbar? Natürlich. Wenn man ihm falsche Daten als starke Signale liefert, berechnet er falsche Wege. Es reicht schon, ihm die richtigen Daten unvollständig zu liefern. Wenn Essen und Bochum fehlen, lenkt er uns vielleicht wirklich über Dortmund oder Wuppertal. Wenn man dem Navigationsalgorithmus die »richtigen« falschen Daten gibt, bringt man ihn auch dazu, den Weg über Berlin oder Paris vorzuschlagen. Der Computer stutzt weder, noch merkt er, dass das nicht stimmen kann.
Und damit sind wir bei der menschlichen Navigation. Auch wir nutzen solche Techniken, um uns durch die unendlich verworrenen Wege des Lebens zu schlagen und einen halbwegs richtigen Weg zu finden. Die Verlustvermeidung des Menschen, die Kahneman und Tversky im Asian Disease-Experiment entdeckt haben, ist eine Navigationsheuristik: Nimm im Zweifelsfall lieber den Weg, der einen Verlust vermeidet. Wir navigieren damit nicht durch ein Straßennetz, sondern durch die Entscheidungsbäume des Lebens.
Je erfahrener wir sind, desto besser gelingt uns das, aber das Leben ist zum Glück viel komplexer als der Straßenverkehr. Es ist so vielfältig, dass wir darin nie Perfektion erlangen. Manche von uns finden nicht einmal Routine. Das liegt zu einem wesentlichen Teil daran, dass wir mit anderen Menschen interagieren, die selbst durch ihr Leben navigieren. Deshalb verwende ich als Metapher auch Navigation für ein Auto und nicht für eine Bahnverbindung.
Nicht nur wir navigieren und handeln ständig, die Menschen um uns herum machen das auch. Sie handeln und setzen damit Signale. In unserem Leben stecken wir oft mitten im Verkehrschaos. Wir treffen unsere Entscheidungen nicht an ruhigen Weggabelungen, sondern an belebten Kreuzungen, wo aus vielen Richtungen andere Menschen und Fahrzeuge auf uns zukommen, Ampeln rot oder grün leuchten, Autos blinken und hupen, Fußgänger in letzter Sekunde vielleicht noch über den Zebrastreifen laufen. Kleinkinder und Fahrschüler sind in so einem Umfeld überfordert, sie müssen erst lernen, die relevanten Signale herauszufiltern. Wir lenken und reagieren; die grundsätzliche Route zu berechnen, ist dabei noch der einfachste Teil. Wie schwer das schon im Straßenverkehr ist, zeigt uns die Forschung zum autonomen Fahren. Standardsituationen sind schnell zu meistern, aber die Ausnahmen sind die Crux. Und dabei ist der Straßenverkehr ein eng abgestecktes Navigationssystem mit begrenzten Möglichkeiten, das richtige Leben ist komplexer.
Das liegt wesentlich daran, dass wir in sozialen Handlungen nicht alleine entscheiden, wo wir abbiegen und welchen Weg die Handlung nimmt. Wenn wir kommunizieren, trifft auch unser Gegenüber Entscheidungen. Es wählt an manchen Stellen, welche Richtung die Reise nimmt. Es ist fast, als würde uns immer wieder jemand ins Lenkrad greifen. In ausgewogenen Gesprächen wechselt man an jeder Kreuzung den Platz am Steuer. Einmal entscheiden wir, dann unser Partner, dann wieder wir, dann unser Partner. Streit entsteht, wenn wir nicht in dieselbe Richtung lenken, deshalb kommt man dann auch meistens an Orten heraus, die wir beide nicht erreichen wollten.
Den Entscheidungsbaum gemeinsam zu bezwingen, ist eine Interaktion von längerer Dynamik. Nicht nur, dass wir abwechselnd entscheiden, und das Gegenüber irgendwohin abbiegt, wo wir es ganz und gar nicht haben wollen. Es kann auch passieren, dass wir in harmloser Kooperation beginnen und ein unbedachtes Wort, das punktuell vielleicht einen Vorteil bringt, aber auf lange Sicht so messerscharf ins Vertrauen schneidet, bringt uns mitten in einen astreinen Konflikt. Dann gelingt es wieder, mit einer kleinen Verhaltensänderung zu beschwichtigen und den fast schon verfahrenen Karren in die Koordination zu lenken. Achtet man hier zu wenig auf die Intentionalität des anderen, indem man zu sehr in die eigene Richtung steuert, kann das Gegenüber sich manipuliert und nicht fair behandelt fühlen, woraufhin von ihm keine Überdosis Fairness zu erwarten sein wird. Die Dynamik ist quasi das Drehbuch einer Interaktion, das aber vorab keiner zu lesen bekommt.
Teilen wir mit unserem Kommunikationspartner eine gemeinsame Vorstellung der Dynamik, können wir uns gut durchschlängeln. Wir überraschen uns gegenseitig, wenn sich Annahmen als völlig falsch herausstellen und wir am Entscheidungsbaum gleich zwei Äste auf einmal nehmen. Dynamiken verbinden punktuelle Entscheidungen zu Prozessen. Sie sind der rote Faden, der uns durch die gesamte Interaktion zieht.
Also handelt man die Route durch die Karte miteinander aus. Wer dabei die stärkeren Signale setzt, kommt näher an sein Ziel.
Chunk #6: Wir können niemals ein wahres, objektives Bild von sozialen Prozessen haben. Die Landkarten, die wir im Kopf anlegen, sind immer individuell und subjektiv – und daher auch jede Interpretation eines Signals.
Chunk #7: Ein Signal hat keinerlei Bedeutung an sich, nur der Kontext bestimmt sie. Systemische Kommunikation sucht immer den möglichst relevanten Kontext und daher den Sinn des sozialen Systems, in dem kommuniziert wird.
Dass wir alle Handlungen und alle Interaktionen in unserem Kopf individuell kartografieren, hat eine grundlegende Konsequenz: Diese Karten sind ein Produkt unserer Sinne und unseres Gehirns. Und damit sind wir beim Radikalen Konstruktivismus.
Der Radikale Konstruktivismus ist eine Erkenntnistheorie, die in den 1970er-Jahren hauptsächlich durch die Arbeiten des Philosophen Ernst von Glasersfeld und der chilenischen Biologen Humberto Maturana und Francisco Varela geprägt wurde. Diese Theorie vertritt die Auffassung, dass Wissen nicht die objektive Realität abbildet, sondern durch die kognitiven Prozesse der Individuen konstruiert wird. Jeder Mensch erschafft demnach seine eigene Wirklichkeit auf Grundlage seiner Wahrnehmungen und Erfahrungen, die durch biologische, psychologische und soziale Faktoren beeinflusst sind.
Der Radikale Konstruktivismus betont die Bedeutung des Beobachtens und Verarbeitens von Informationen bei der Wissensgenerierung und stellt die Möglichkeit einer objektiven Erkenntnis infrage. Nach dieser Theorie gibt es keine unabhängige, von unserem Verstehen losgelöste Wirklichkeit, die wir erkennen können. Stattdessen ist alles Wissen subjektiv und durch das erkennende Subjekt geformt.
Aber wenn jede Erkenntnis subjektiv ist, hat niemand von uns eine objektiv wahre Beschreibung von Handlungen und Interaktionen. Nach von Glasersfelds Auffassung ist das auch nicht die Aufgabe von Kognition. Unser Gehirn ist nicht entstanden, um die objektive Wahrheit zu finden, sondern es soll all die im Überfluss auf uns einprasselnden Sinneswahrnehmungen viabel verarbeiten. Viabilität bedeutet hierbei Nützlichkeit zur Bewältigung unserer Lebenssituationen, nicht Übereinstimmung mit einer objektiven Realität.
»Der Radikale Konstruktivismus ist unverhohlen instrumentalistisch. Er ersetzt den Begriff der Wahrheit (im Sinne einer wahren Abbildung einer von uns unabhängigen Realität) durch den Begriff der Viabilität innerhalb der Erfahrungswelt der Subjekte.« (v. Glasersfeld 1996, S. 56)
Menschen und andere Tiere müssen aus ihren Sinneswahrnehmungen Wissen generieren, das ihnen ermöglicht, so lange zu überleben, bis sie sich oft genug fortgepflanzt haben, um ihre Art zu erhalten. Arten, die das schaffen, existieren, die anderen sterben aus. Eine Qualle und ein Mosquito haben Sinnesorgane und verarbeiten die darüber aufgenommenen Informationen, aber sie haben kein Gehirn, das ihnen eine komplexe Darstellung der Welt ermöglichen würde. Die Wahrheit kennen sie sicher nicht, aber solange sie überleben und sich fortpflanzen, organisieren sie ihr Wissen viabel. Delfine und Raben haben größere Gehirne und sind zu beachtlichen Intelligenzleistungen imstande, müssen aber wohl in Meer und Luft jeweils andere Aspekte ihrer Sinneswahrnehmungen bevorzugt kartografieren, um das viabel zu gestalten.
Und der Mensch? Der hat Staaten und internationale Konzerne geschaffen und damit Organisationen und Arbeitsabläufe, deren Komplexität alles im restlichen Tierreich übertrifft. Wir können niemals ein objektiv wahres Bild dieser sozialen Strukturen und Abläufe in ihnen haben und wenn wir es hätten, könnten wir das wiederum nicht mit Gewissheit wissen. Aber diese Unsicherheit ist nebensächlich. Die wichtige Frage ist: Ist unser Bild von diesen Strukturen und Abläufen so gut, dass wir damit ans Ziel kommen? Wir haben in unseren komplexeren Lebenswelten inzwischen immerhin andere Ziele als Überleben und Fortpflanzen entwickelt, aber auch für einen schönen Urlaub, eine Beförderung und ein gelungenes Gespräch brauchen wir ein viables Bild der Welt.
Der Radikale Konstruktivismus ist also eine Erkenntnistheorie, die sich damit beschäftigt, wie der Empfänger von Nachrichten und Sinneseindrücken die Welt wahrnimmt und daraus viable Abbildungen der Welt schafft. Von Glasersfeld betonte die Bedeutung der Sprache bei dieser Konstruktion von Wirklichkeiten. Er sah in der Sprache ein Werkzeug, das sowohl individuell als auch sozial Wirklichkeiten formt und vermittelt. Und wenn wir bei der Sprache sind, sind wir natürlich bei der Kommunikation.
Nun ist der Radikale Konstruktivismus keine Entscheidungstheorie, er beschreibt nicht, wie viables Wissen zu viablen Entscheidungen wird. Und er ist keine Kommunikationstheorie, er beschreibt nicht, wie diese Entscheidungen von einem Sender beeinflusst und auch manipuliert werden können. Beides soll dagegen das in diesem Buch dargestellte Navigationsmodell leisten, auf das wir später noch zu sprechen kommen. Es ist ein Entscheidungs- und Kommunikationsmodell, das Hand in Hand geht mit dem Radikalen Konstruktivismus.
Zentral ist nun erstmal, dass nicht nur die aktuelle Kommunikation beachtet wird, also nicht nur die Signale aus der Umwelt im Moment der Kommunikation. Diese Signale werden immer in einen Kontext eingeordnet und dieser Kontext wurde in der Vergangenheit radikal konstruiert und erlernt. Selbst wenn wir ein ganz simples Signal wie ein Preisschild im Supermarkt sehen, müssen wir einordnen, dass diese Zahlen überhaupt den Preis für das Produkt bedeuten, dass er in Landeswährung angegeben ist, ob das teuer oder billig ist, ob wir das Produkt benötigen oder wollen, und und und …