Allgemeine Psychologie - Stefan Pollmann - E-Book

Allgemeine Psychologie E-Book

Stefan Pollmann

0,0
29,99 €

Beschreibung

Das Buch bietet eine kompakte Einführung in die Allgemeine Psychologie unter besonderer Berücksichtigung der neuronalen Grundlagen des Verhaltens und Erlebens. Anschaulich vermittelt es Prüfungswissen in den Bereichen Wahrnehmung, Handlung, Kognition, Sprache, Lernen, Gedächtnis, Emotion und Motivation. Alltagsnahe Beispiele führen an psychologische Fragen heran und erleichtern das Verständnis komplexer Theorien und Experimente. Aktuelle neurowissenschaftliche Forschungsergebnisse werden in den traditionellen Kanon integriert. Didaktisch aufbereitet mit Marginalien, zahlreichen Abbildungen und Übungsfragen.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 535

Bewertungen
0,0
0
0
0
0
0



utb 8391

Eine Arbeitsgemeinschaft der Verlage

Böhlau Verlag · Wien · Köln · Weimar Verlag Barbara Budrich · Opladen · Toronto facultas · Wien Wilhelm Fink · Paderborn Narr Francke Attempto Verlag / expert Verlag · Tübingen Haupt Verlag · Bern Verlag Julius Klinkhardt · Bad Heilbrunn Mohr Siebeck · Tübingen Ernst Reinhardt Verlag · München Ferdinand Schöningh · Paderborn transcript Verlag · Bielefeld Eugen Ulmer Verlag · Stuttgart UVK Verlag · München Vandenhoeck & Ruprecht · Göttingen Waxmann · Münster · New York wbv Publikation · Bielefeld

Prof. Dr. Stefan Pollmann lehrt Allgemeine Psychologie an der Universität Magdeburg

Abbildungen im Innenteil falls nicht anders vermerkt: Florianne Wohlfahrt

Bibliografische Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über <http://dnb.d-nb.de> abrufbar. UTB-Band-Nr. 8391 UTB-ISBN 978-3-8385-8773-8 (Online lesen) UTB-ISBN 978-3-8463-8773-3 (EPUB)

© 2020 by Ernst Reinhardt, GmbH & Co KG, Verlag, München

Dieses Werk einschließlich seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne schriftliche Zustimmung der Ernst Reinhardt, GmbH & Co KG, München, unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen in andere Sprachen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.

Einbandgestaltung: Atelier Reichert, Stuttgart Satz: Arnold & Domnick, Leipzig

Ernst Reinhardt Verlag, Kemnatenstr. 46, D-80639 München Net: www.reinhardt-verlag.de E-Mail: [email protected]

Inhalt

Hinweise zur Benutzung dieses Lehrbuchs

Vorwort

1 Wahrnehmung

1.1 Sehen: Wahrnehmung als Konstruktionsprozess

1.1.1 Physiologische Einschränkungen des Sehens

Aufbau des Auges

1.1.2 Visuelle Suche

1.1.3 Merkmalsverarbeitung im primären visuellen Cortex

1.1.4 Selektive Wahrnehmung

1.2 Sehen: Objektwahrnehmung

1.2.1 Objektwahrnehmungsstörungen

1.2.2 Gesichtererkennung

1.2.3 Erkennen belebter und unbelebter Objekte

1.2.4 Objekte und Merkmale

1.2.5 Frühe und späte visuelle Areale?

1.3 Raum- und Bewegungswahrnehmung

1.3.1 Raumwahrnehmung

Sehbahn

Retinotopie

Ventraler und dorsaler Pfad

1.3.2 Bewegungswahrnehmung

1.3.3 Wahrnehmung räumlicher Tiefe

1.4 Farbwahrnehmung

1.4.1 Mechanismen der Farbwahrnehmung

1.4.2 Cerebrale Repräsentation von Farbe

1.5 Hören

1.5.1 Schallumwandlung im Ohr

1.5.2 Lautheit

1.5.3 Räumliches Hören

1.5.4 Komplexe auditive Wahrnehmung

1.6 Riechen und Schmecken

1.6.1 Der Geruchssinn

1.6.2 Der Geschmackssinn

1.7 Sensomotorik

1.7.1 Somatosensorik

Hautrezeptoren

Reizweiterleitung

1.7.2 Motorik

Visuomotorische Kopplung

2 Kognition

2.1 Selektive Aufmerksamkeit

2.1.1 Aufmerksamkeit als Selektionsprozess

2.1.2 Modelle der visuellen Suche

2.1.3 Frontoparietales Aufmerksamkeitsnetzwerk

2.1.4 Aufmerksamkeitssteuerung

2.1.5 Auswirkungen von Aufmerksamkeit

2.2 Exekutivfunktionen I

2.2.1 Handlungskontrolle

2.2.2 Koordination mehrerer Handlungen

Doppelaufgaben

Aufgabenwechsel

2.3 Exekutivfunktionen II

2.3.1 Fehlerkontrolle

2.3.2 Exekutive Funktionen des lateralen Präfrontalcortex

2.4 Problemlösen

2.4.1 Problemdeterminanten

2.4.2 Problemrepräsentation

2.4.3 Präfrontale Funktionen

2.4.4 Analogiebildung und Expertise

2.5 Sprache I

2.5.1 Wortverständnis und -produktion

2.5.2 Lesen

Periphere Dyslexien

Zentrale Dyslexien

2.6 Sprache II

2.6.1 Satzverständnis

2.6.2 Neuronale Korrelate der Sprache

2.7 Mentale Arithmetik

2.7.1 Numerosität

2.7.2 Neuronale Korrelate der Numerosität

3 Lernen und Gedächtnis

3.1 Arbeitsgedächtnis

3.1.1 Das Konzept des Kurzzeitgedächtnisses

3.1.2 Konzepte des Arbeitsgedächtnisses

3.2 Langzeitgedächtnis: Akquisition und Abruf

3.2.1 Elaboration

3.2.2 Gedächtnissuche

3.2.3 Bildgebende Untersuchungen

3.2.4 Die Rolle des Frontalcortex

3.3 Langzeitgedächtnis: Konsolidierung

3.3.1 Konsolidierung im Schlaf

3.3.2 Interferenz

3.3.3 Vertrautheit und Wiedererkennung

3.4 Sensorisches Gedächtnis

3.4.1 Sensorische Speicher

3.4.2 Perzeptuelles Lernen

3.4.3 Visuelles Kategorielernen

3.4.4 Visuelles Langzeitgedächtnis

3.5 Lernparadigmen

3.5.1 Klassische Konditionierung

3.5.2 Instrumentelle Konditionierung

3.5.3 Gemeinsamkeiten von klassischem Konditionieren und instrumentellem Konditionieren

3.5.4 Nichtassoziatives Lernen

3.6 Mechanismen der Konditionierung

3.6.1 S-R- oder S-S-Assoziation?

3.6.2 Kontingenz

3.6.3 Aversive Verhaltenskontrolle

3.6.4 Vermeidungslernen

3.7 Lernen – Assoziation oder Kognition

3.7.1 Zielgerichtetes Lernen

3.7.2 Kontingenzen und Kausalzuschreibung

4 Emotion und Motivation

4.1 Emotionswahrnehmung

4.1.1 Emotionaler Gesichtsausdruck

4.1.2 Aspekte der Gesichtererkennung

4.1.3 Emotionaler Ausdruck in Körperhaltungen

4.2 Emotion und Aufmerksamkeit

4.2.1 Salienz emotionaler Reize

4.2.2 Emotion und Aufmerksamkeit - Konkurrenz um limitierte Ressourcen?

4.3 Emotion – Lernen und Gedächtnis

4.3.1 Furchtkonditionierung

4.3.2 Emotionales Gedächtnis

4.4 Motivation: Belohnungslernen

4.4.1 Motivationale Funktionen dopaminerger Neurone

4.4.2 Humane neuronale Korrelate des Belohnungslernens

4.5 Emotion und Entscheidung – Somatische Emotionskorrelate

4.5.1 Emotion und Erregung

4.5.2 Das Konzept der Somatischen Marker

4.6 Empathie

4.6.1 Theory of Mind

4.6.2 Kognitive Empathie bei Tieren?

4.7 Soziale Motivation

4.7.1 Kooperation in ökonomischen Austauschsituationen

4.7.2 Soziales Verhalten von Tieren

Literatur

Sachregister

Hinweise zur Benutzung dieses Lehrbuches

Zur schnelleren Orientierung werden in den Randspalten Piktogramme benutzt, die folgende Bedeutung haben:

Literaturempfehlung

Begriffserklärung, Definition

Pro und Contra, Kritik

Fallbeispiel

Forschungen, Studien

Fragen zur Wiederholung am Ende der Kapitel

Übungsaufgaben am Ende der Kapitel

Vorwort

Die Allgemeine Psychologie untersucht, welche allgemeinen Gesetzmäßigkeiten unserem Verhalten und Erleben zugrunde liegen. Um zu belastbaren Ergebnissen zu kommen, steht die experimentelle Methodik im Vordergrund, bei der möglichst isolierte Faktoren variiert werden, um deren Wirkungen auf das Verhalten von Versuchspersonen zu prüfen.

Im vorliegenden Lehrbuch wird der Versuch unternommen, zu zeigen, wie mit solchen grundlagenwissenschaftlichen Arbeiten ganz praktische Probleme angegangen werden können. Dies können Alltagsprobleme sein (Warum eigentlich können wir nicht gut gleichzeitig Telefonieren und Auto fahren?; Kap. 2.2), aber auch neuropsychologische Fallstudien, die ja auch zum Arbeitsalltag ausgebildeter Psychologen gehören (was können wir durch Patienten über Objektwahrnehmung oder das Lesen lernen; Kap. 1.2; 2.5) oder ausgefallenere Untersuchungen wie die Untersuchungen mentaler Rechenprozesse bei Amazonasindianern, deren Sprache nur Zahlwörter bis ‚vier‘ enthält (Kap. 2.7).

Traditionell beruht die Allgemeine Psychologie auf Untersuchungen des Verhaltens menschlicher Probanden. In letzter Zeit haben jedoch kognitiv-neurowissenschaftliche Untersuchungsmethoden an Einfluss gewonnen, die es ermöglichen, neben dem Endprodukt kognitiver oder emotionaler Prozesse – dem Verhalten – auch neuronale Prozesse zu beobachten, die dieses Verhalten ermöglichen. Ein besonderes Anliegen dieses Buches ist es, die Untersuchung des Verhaltens und seiner neuronalen Basis aufeinander zu beziehen, in der Überzeugung, dass eine sorgfältig aufeinander bezogene Analyse beider Aspekte für den Erkenntnisfortschritt entscheidend ist. Die Frage, inwieweit unser Gehirn unser Verhalten bedingt, hat in jüngster Zeit auch zu einer Vielzahl trickreicher Untersuchungen tierischen Verhaltens geführt, so etwa zu der Frage, inwieweit Affen sich in die Wahrnehmungsfähigkeit von Artgenossen hineinversetzen oder menschliche Partner bewusst täuschen können (Kap. 4.6). Diese Thematik vergleichender Forschung wird an vielen Stellen des Buches angerissen.

Da der Lehrumfang des Faches „Allgemeine Psychologie“ im Bachelorstudium der Psychologie, für das dieses Buch primär geschrieben ist, begrenzt ist, musste auf einige wünschenswerte Aspekte verzichtet werden. Dies gilt etwa für die Darstellung tiefer gehender methodischer Aspekte experimentalpsychologischer Forschung, die ja auch in der psychologischen Methodenlehre behandelt werden oder in einem anschließenden Masterstudium vertieft werden können.

Die Integration kognitiv-neurowissenschaftlicher und klassisch allgemeinpsychologischer Forschung und die recht umfangreichen Verweise auf weiterführende Literatur mögen den Einsatz des Buches (neben spezialisierteren Lehrwerken) auch über das Bachelorstudium der Psychologie hinaus, besonders in kognitiv-neurowissenschaftlichen Bachelor- oder auch Masterstudiengängen ermöglichen.

Last not least bittet der Autor um Hinweise auf vielleicht im Buch noch enthaltene Fehler oder fehlende Aspekte, die in einer künftigen Auflage Aufnahme finden sollten.

Magdeburg, im Mai 2008

Stefan Pollmann

1 Wahrnehmung

1.1Sehen: Wahrnehmung als Konstruktionsprozess

Vielleicht haben Sie in den letzten Tagen einen Hörsaal betreten und nach einer Freundin gesucht, die die gleiche Vorlesung besucht. Warum ist es eigentlich so schwierig, einen Bekannten zu finden, der sich in einer Menge von Personen befindet? Schließlich sehen Sie doch, wenn Sie den Hörsaal betreten, alle Studierenden, die sich schon eingefunden haben, vor sich. Dennoch werden Sie in einer solchen Situation schon festgestellt haben, dass es manchmal einer langwierigen Suche bedarf, um eine Person (oder ein Objekt) in einer solchen Menge zu finden.

1.1.1Physiologische Einschränkungen des Sehens

Bereich des scharfen Sehens

Ein Grund, warum wir zwar subjektiv den Eindruck haben, den gesamten Raum zu überblicken, aber ihn dennoch nach der gesuchten Person absuchen müssen, ist eine Beschränkung der Sehschärfe. Sie geht auf den Aufbau der Netzhaut des Auges zurück.

Sie können sich diese Beschränkung leicht vor Augen führen, indem Sie bei normaler Leseentfernung das erste Wort in dieser Zeile anschauen und dann, ohne den Blick vom Anfang der Zeile abzuwenden, versuchen, die Wörter am Ende der Zeile zu lesen. Sie werden sehen, dass Ihnen dies nicht gelingt.

Der Grund dafür ist, dass wir nur in einem kleinen Bereich von der Netzhaut über genügend dicht gepackte Sinneszellen verfügen, um eine genügend hohe räumliche Auflösung zu erreichen, die es uns ermöglicht, die Buchstaben in diesem Text zu erkennen.

Aufbau des Auges

Lichtstrahlen fallen durch die Hornhaut (Cornea) in das Auge. Sie passieren dann die vordere Augenkammer, die Linse und den Glaskörper, bevor sie auf die Netzhaut (Retina) fallen. Die Linse ist an den Zonulafasern aufgehängt. Die Spannung dieser Fasern kann durch Kontraktion der Ziliarmuskeln reduziert werden, worauf die Linse eine rundere Form annimmt und damit das einfallende Licht stärker bricht. Mit zunehmendem Alter verliert die Linse an Elastizität und erreicht nicht mehr die gleiche runde Form bei entspannten Zonulafasern wie im jugendlichen Auge. Die geringere Krümmung führt dazu, dass nahe Objekte nicht mehr scharf abgebildet werden. Dies macht sich etwa dadurch bemerkbar, dass bei normaler Leseentfernung eine Lesebrille nötig wird.

In der Retina befinden sich die Rezeptorzellen des visuellen Systems, die Zapfen und Stäbchen, eingebettet in Pigmentzellen. Zwischen diesen Photorezeptoren und dem Glaskörper liegen mehrere Schichten von Nervenzellen, die Horizontal-, Bipolar- und Amakrinzellen und schließlich die Ganglienzellen, deren Axone den Sehnerv bilden. Die vom Licht abgewandte Lage der Photorezeptoren hat zur Folge, dass das Licht zunächst die gesamte Retina durchdringen muss, um die Photorezeptoren zu erregen. Die Lichtleitung durch die Retina wird durch Müller-Gliazellen erleichtert, die sich von der dem Glaskörper zugewandten Seite der Retina bis zu den Photorezeptoren erstrecken und wie biologische Lichtleiter wirken (Franze et al. 2007).

Abb. 1.1.1: Aufbau des Auges

Abb. 1.1.2: Die Retina. Oben links: Abbildung des Gesichtsfelds auf der Netzhaut. Oben rechts: Fehlen von Photorezeptoren am Austrittsort des Sehnervs. Unten: Verteilung der Zapfen und Stäbchen auf der Retina

Es gibt etwa 6 Millionen Zapfen und 120 Millionen Stäbchen in der Netzhaut. Die Dichte dieser Rezeptortypen ist sehr ungleich verteilt. In der Fovea centralis (Zentralgrube) gibt es nur Zapfen, ihre Dichte nimmt zur Peripherie der Netzhaut hin ab. Umgekehrt verhält es sich mit den Stäbchen, deren Dichte in der Peripherie zunimmt. Die Rezeptordichte bestimmt die räumliche Auflösung des Sehens, die im fovealen Bereich am höchsten ist und zur Peripherie hin sehr schnell abnimmt.

Makuladegeneration

Eine verbreitete Augenerkrankung führt zu einer Schädigung der Netzhaut, die im Bereich der Makula, also der Netzhaut im Bereich der Fovea, beginnt und sich von dort ausbreitet. Die Krankheit tritt mit zunehmendem Alter gehäuft auf und betrifft damit mit zunehmender Lebenserwartung immer mehr Patienten. Da die Makuladegeneration gerade die Stelle des schärfsten Sehens betrifft, sind die Folgen gravierend. Die Patienten benutzen meist eine parafoveale Stelle der Netzhaut als „Pseudofovea“. Aufgrund der geringeren Rezeptordichte kann diese Pseudofovea die Funktionen der Fovea jedoch nur unvollständig erfüllen.

blinder Fleck

Die Müllerzellen (aufgrund ihrer Lage auch Radialgliazellen genannt) lösen zwar ein Problem der lichtabgewandten Lage der Photorezeptoren in der Retina, nämlich den Transport des Lichts vorbei an den mehreren Schichten zellulärer Strukturen zwischen Photorezeptor und Lichteinfall. Jedoch können sie ein anderes Problem nicht lösen. Die Fasern des Sehnervs, die von den Ganglienzellen ihren Ausgang nehmen, verlassen das Auge an einem Ort, der Papille. Da die Fasern von der dem Glaskörper zugewandten Seite kommen, müssen sie die Retina durchbrechen, um nach außen zu gelangen. An der Austrittsstelle gibt es dementsprechend auch keine Photorezeptoren, d. h. wir können an dieser Stelle nichts sehen. Da dieser „blinde Fleck“ in beiden Augen etwa 15 Grad lateral (seitlich) vom Fixationspunkt liegt, nehmen wir ihn beim beidäugigen Sehen nicht wahr. Die Bereiche decken sich nämlich nicht. Decken wir jedoch ein Auge ab, können wir uns den blinden Fleck leicht vergegenwärtigen.

Versuchen Sie es doch einmal, indem Sie das rechte Auge zuhalten und mit dem linken das Fixationskreuz in Abbildung 1.1.3 fixieren. Variieren Sie dann die Entfernung des Buches vom Auge, bis der schwarze Fleck unsichtbar wird.

Abb. 1.1.3: Demonstration des blinden Flecks

Die Änderung des Abstandes zwischen Buch und Auge führt dazu, dass sich der Einfallswinkel der Lichtstrahlen verändert, die von dem schwarzen Fleck und seiner unmittelbaren Umgebung reflektiert werden. Bei geeignetem Winkel (etwa 15°) fällt der Reiz in den blinden Fleck und wird nicht mehr gesehen.

filling-in

Warum sehen wir aber an der Stelle des blinden Flecks kein Loch in unserem Gesichtsfeld, wenn wir ein Auge zuhalten?

Wiederholen Sie das Experiment mit Abbildung 1.1.4. Hier sehen Sie, dass der blinde Fleck nicht nur dazu führt, dass wir Reize nicht sehen. Er führt auch dazu, dass unser Gehirn Reize, die sich bis an die Grenzen des blinden Flecks erstrecken, so ergänzt, wie sie in unserer Umgebung mit großer Wahrscheinlichkeit verlaufen. Die Linien in der Abbildung werden demgemäß durch den blinden Fleck hindurch ergänzt. Diese Ergänzungsprozesse (filling-in) führen dazu, dass wir auch bei einäugigem Sehen keine Unterbrechung des Gesichtsfeldes wahrnehmen.

Abb. 1.1.4: Demonstration der Ergänzung von Konturen durch den blinden Fleck

1.1.2Visuelle Suche

basale visuelle Merkmale

Die Beschränkung der Sehschärfe ist jedoch nicht der einzige limitierende Faktor, wenn es um die visuelle Wahrnehmung unserer Umwelt geht. Es gibt auffällige Reize, die uns regelrecht „ins Auge fallen“, und andere, die wir leicht übersehen. Dies hat Forscher dazu veranlasst, nach basalen Bausteinen der Wahrnehmung zu suchen, die wir mühelos wahrnehmen können. Was sind nun diese Bausteine, aus denen der Wahrnehmungseindruck sich zusammensetzt? Dieser Frage kann man sich auf unterschiedliche Weise nähern: Wahrnehmungspsychologen untersuchen, welche Reize oder Reizkonstellationen mühelos und schnell, ohne größeren Aufmerksamkeitsbedarf, erkannt werden. Neurophysiologen erforschen dagegen, auf welche Reizmerkmale Nervenzellen reagieren, die die Signale empfangen, die über den optischen Nerv vom Auge zum Gehirn geleitet werden. Einige der wahrnehmungspsychologischen Befunde sollen zunächst dargestellt werden, um dann zu untersuchen, inwieweit diese mit neuronalen Prozessen zusammenhängen.

Merkmalsverknüpfung

Im linken Display (Abb. 1.1.5) unterscheidet sich das L von den O in einem einfachen Merkmal: Es besteht aus geraden Linien, während das O eine kreisförmige Kontur hat. Im rechten Display dagegen bestehen sowohl der Zielreiz, das L, als auch die Ablenkerreize oder Distraktoren, die T, aus den gleichen Linien. Das L kann daher von den T nicht über die Linien, sondern nur über die Verknüpfung der Linien, den Ort, wo die Linien zusammentreffen, unterschieden werden. Dies gelingt uns nicht so leicht wie die Unterscheidung einfacher visueller Merkmale, wie gerade oder gekrümmte Linien. Es erscheint einleuchtend, dass es basale visuelle Merkmale gibt, die leicht zu erkennen sind, ohne dass wir langwierig nach ihnen suchen müssen. Was aber macht genau ein solches basales Merkmal aus? Das ist zunächst eine empirische Frage, die mit visuellen Suchexperimenten wie dem obigen untersucht wurde (Treisman / Gelade 1980; Treisman / Gormican 1988).

Abb. 1.1.5: Beispieldisplays für effiziente und ineffiziente Suche

In der Psychologie spricht man von einem experimentellen Paradigma (Betonung auf der drittletzten Silbe), wenn man eine Klasse von Experimenten meint, die sich in grundlegenden Aspekten ähneln, auch wenn die Details unterschiedlich sind. Das Paradigma der visuellen Suche ist dadurch gekennzeichnet, dass ein Zielreiz (target) in einer Menge von Ablenkerreizen (auch Distraktoren genannt) gesucht werden muss. Die Suche nach dem Zielreiz kann dabei unterschiedlich effizient sein. Diese Effizienz wird meist über die Reaktionszeit gemessen. Das ist die Zeit, die ab dem Beginn der Präsentation verstreicht, bis die Versuchsperson, i. d. R. durch eine manuelle Wahlreaktion, anzeigt, ob das Display den Zielreiz enthält oder nicht (z. B. durch Drücken der linken Taste bei Anwesenheit oder der rechten Taste bei Abwesenheit des Zielreizes). Alternativ kann auch die Entdeckungshäufigkeit des Zielreizes gemessen werden, wenn das Display nur sehr kurz gezeigt wird. Die Effizienz der Suche spiegelt sich in der Reaktionszeit nicht nur dadurch wider, dass die Reaktionszeit einfach kürzer oder länger ist, sondern auch darin, wie sie von der Anzahl der Ablenkerreize im Display abhängt. Bei Displays wie dem linken in Abbildung 1.1.5 etwa verändert sich die Reaktionszeit kaum, wenn die Anzahl der Ablenkerreize im Display steigt.

Suchen Sie bitte einmal nach einem „L“ in den beiden Suchdisplays in Abbildung 1.1.5. Sie werden vermutlich das L im linken Display schneller gefunden haben als im rechten Display. An der begrenzten räumlichen Auflösung in der Gesichtsfeldperipherie kann das nicht liegen, da beide L gleich peripher (wenn Sie die Mitte des jeweiligen Displays fixieren) und gleich groß sind. Auch der Abstand zu den Ablenkerreizen ist gleich.

Suchkurve

visuelle Suche

Dies ist in Abbildung 1.1.6 links schematisch durch die Linie dargestellt, die parallel zur x-Achse verläuft. Bei Displays wie dem in Abbildung 1.1.5 rechts dargestellten hingegen steigt die Reaktionszeit mit zunehmender Anzahl der Ablenker. Man kann diese Zunahme an der Steigung der Suchkurve ablesen und in Millisekunde (ms) pro Displayelement angeben. Eine solche lineare Zunahme der Suchzeit mit zunehmender Displaygröße (d. h. Anzahl der Displayelemente) ist jedoch eher eine idealtypische Vorstellung. In der Realität kommt es auch zu sprunghaften Zunahmen der Suchzeiten (Müller-Plath / Pollmann 2003). Dennoch kann die Steigung der Suchkurve als annäherndes Maß für die Sucheffizienz verwendet werden. Die Suchkurven schneiden die y-Achse nicht bei null, sondern bei einem positiven Wert. Dieser Wert zeigt an, dass die Suchzeit auch einen konstanten Betrag enthält, der unabhängig von der Displaygröße ist und u. a. die Zeit zur Durchführung der motorischen Reaktion beinhaltet.

Abb. 1.1.6: Schematische Darstellung typischer visueller Suchkurven. Links: Die Effizienz der Suche kann an der Steigung der Suchkurve abgelesen werden. Rechts: Doppelt so hohe Steigung der Suchkurve für negative wie für positive Reaktionen als Indiz für selbstterminierende Suche

parallele und serielle Suche

Längere Suchzeiten bei größeren Displays können dadurch entstehen, dass die Displays seriell nach dem Zielreiz abgesucht werden. Dagegen sprechen flache Suchkurven dafür, dass das gesamte Display parallel, „auf einen Blick“, nach dem Display abgesucht werden kann. Man spricht dann davon, dass die Reize ins Auge springen (pop-out). Eine positive Steigung der Suchkurve ist jedoch kein Beweis für eine serielle Suche. Sie kann auch dadurch entstehen, dass eine parallele Suche erfolgt, die jedoch in ihrer Kapazität limitiert ist und zunehmend länger dauert, wenn diese Kapazität parallel auf immer mehr Elemente verteilt wird.

selbstterminierende Suche

Von Interesse ist weiterhin das Verhältnis der Suchkurven für positive (Zielreiz anwesend) und negative (Zielreiz abwesend) Urteile (Abb. 1.1.6 rechts). Häufig ist dieses Verhältnis 1:2, d. h. die Steigung der Suchkurve ist bei negativen doppelt so lange wie bei positiven Urteilen. Dies ist dann ein Hinweis auf eine selbstterminierende Suche. Damit ist gemeint, dass die Suche abgebrochen wird, sobald der Zielreiz entdeckt wird. Der Zielreiz wird über viele Suchdurchgänge hinweg gleich häufig mal das erste, mal das letzte betrachtete Element sein, mal das zweite oder zweitletzte usw. Daher wird der Zielreiz im Mittel nach Absuchen der Hälfte der Displayelemente gefunden. Damit dauert die Suche nach einem anwesenden Zielreiz auch nur halb so lang wie bei der Abwesenheit des Zielreizes, da die Abwesenheit nur sicher nach vollständigem Absuchen des Displays festgestellt werden kann.

Neurophysiologie

Für einige basale visuelle Merkmale, die in den Suchexperimenten zu einem Pop-out-Effekt führen, ist auch ein neuronales Korrelat bekannt – so etwa in dem hier beispielhaft angeführten Fall von Reizen, die sich durch Linien oder Kanten bestimmter Ausrichtung voneinander unterscheiden (s. u.).

1.1.3Merkmalsverarbeitung im primären visuellen Cortex

Der Sehnerv erreicht die Großhirnrinde im primären visuellen Cortex (V1). Dieses Hirnareal befindet sich an den Ufern der Fissura calcarina im medialen Occipitallappen (Abb. 1.1.9 oben, FC). Das Großhirn besteht aus einer vielfach gefalteten Rindenschicht (Cortex) grauer Substanz, die sich um einen Kern von weißer Substanz legt. Was dem anatomischen Präparat die graue Farbe gibt, sind die Nervenzellen, die sich in der Rinde befinden. Die Farbe der weißen Substanz hingegen stammt von den Umhüllungen der Nervenfasern, die oft aus Myelin, einer lipidreichen Substanz, bestehen. Die Großhirnrinde (Neocortex) besteht durchgängig aus sechs Schichten, die sich von der weißen Substanz nach außen zur Oberfläche der Hirnrinde erstrecken. Die Schichten enthalten verschiedene Typen von Nervenzellen und unterschiedliche Verschaltungsmuster dieser Zellen, die einem gemeinsamen Bauplan folgen, aber in verschiedenen Großhirnarealen unterschiedlich ausgeprägt vorkommen.

Im anatomischen Präparat ist der primäre visuelle Cortex durch einen breiten Streifen weißer Substanz, also von Nervenfasern, gekennzeichnet. Dieser „Gennarische Streifen“ ist bereits mit bloßem Auge sichtbar und hat zu der Bezeichnung „Area striata“ für die primäre Sehrinde geführt. Die primäre Sehrinde ist weiterhin identisch mit dem Brodmann-Areal 17 (zur Bestimmung der Brodmann-Areale s. Kasten: Neuroanatomie der Großhirnrinde). Die überwiegende Zahl der optischen Nervenfasern vom Corpus geniculatum laterale erreicht den primären visuellen Cortex in Schicht 4 (der Verlauf der Sehbahn wird in Kap. 1.3 dargestellt).

Die Zielneurone in Schicht 4 des primären visuellen Cortex haben spezielle rezeptive Feldeigenschaften. Als rezeptives Feld bezeichnet man den Bereich des Gesichtsfeldes, in dem die Präsentation eines geeigneten Reizes zu einer Reaktion des Neurons führt. Die überwiegende Zahl dieser Neurone (simple cells / einfache Zellen) reagieren auf strichförmige Lichtreize, z. B. Kanten von Objekten, die eine bestimmte Ausrichtung haben. Die simple cells reagieren nur auf Reize, die in einem umschriebenen Bereich des Gesichtsfeldes von einer Ausdehnung von wenigen Graden Sehwinkel präsentiert werden.

Hyperkolumne

Wenn man an einer umschriebenen Stelle des visuellen Cortex Neurone untersucht, die die gleichen rezeptiven Feldgrenzen haben, also den gleichen Bereich des Gesichtsfeldes abdecken, so findet man, dass benachbarte Neurone in systematischer Weise auf Reize unterschiedlicher Ausrichtung reagieren. Misst man die neuronale Erregung von Neuronen innerhalb einer corticalen Kolumne, so reagieren diese Neurone optimal auf Reize einer bestimmten Ausrichtung. Misst man nun Neurone benachbarter Kolumnen, so findet man eine systematische Verschiebung der optimalen Reizausrichtung in Schritten von ca. 20 Grad. Man spricht deshalb von Richtungs- oder Orientierungskolumnen. Weiterhin reagieren die einfachen Zellen dominant auf Reize eines Auges. Zwar repräsentiert die Sehrinde einer jeden Hemisphäre sowohl die Reize des ipsi- wie des contralateralen Auges (ipsilateral: gleichseitig; contralateral: gegenseitig), jedoch reagieren die Neurone innerhalb einer bestimmten Kolumne dominant auf Reize jeweils des einen oder anderen Auges – man spricht von Augendominanzkolumnen. Je ein kompletter Satz (der alle Orientierungen von 0–180° abdeckt) von links- und rechtsäugig dominanten Orientierungssäulen bildet als Einheit eine Hyperkolumne. Abbildung 1.1.7 zeigt eine schematische Darstellung einer Hyperkolumne und die Anordnung der Augendominanzkolumnen in einem menschlichen Gehirn.

Abb. 1.1.7: Kolumnäre Struktur des primären visuellen Cortex. Links: Schema der Hyperkolumne. Rechts: Anordnung der Augendominanzkolumnen in einem menschlichen Gehirn (adaptiert nach Cheng et al. 2001)

Merkmalsintegration

Die Eingangsstation des Großhirns besteht also zu einem großen Teil aus Neuronen, die in einem kleinen Bereich des Gesichtsfeldes auf Kanten und Linien einer bestimmten Vorzugsrichtung reagieren. Einige dieser Neurone reagieren auch auf bewegte Kanten, andere auf Reize einer bestimmten Wellenlänge. Auf diese Funktionen werden wir bei der Besprechung der Bewegungs- und der Farbwahrnehmung noch genauer eingehen. Bleiben wir zunächst einmal bei der Kantendetektion. Zunächst ist es offensichtlich, dass die Neurone in V1 in sehr eingeschränkter Weise auf die Vielfalt der Formen in unserer Umwelt reagieren. An der Reaktion eines Neurons in V1, das spezifisch auf senkrechte Kanten reagiert, werden wir nicht ablesen können, ob der Organismus gerade einen Baum oder einen Stuhl betrachtet. Wir lesen nur ab, dass sich in dem rezeptiven Feld der Zelle eine senkrechte Linie befindet (die sowohl zum Baumstamm wie zu einem Stuhlbein gehören kann). Die Information, die in den Reaktionen vieler V1-Neurone enthalten ist, muss also in weiteren Verarbeitungsschritten integriert werden. Diese Integration beginnt bereits in V1, vermittelt über Verbindungen zwischen den Neuronen.

rezeptives Feld

Wir haben bereits den Begriff des rezeptiven Feldes kennengelernt, definiert als der Ausschnitt des Gesichtsfeldes, in dem Reizpräsentation zu einer veränderten (erhöhten oder verminderten) Reaktion führt. Bei dieser Bestimmung des rezeptiven Feldes wird immer nur ein Reiz präsentiert. Was passiert aber nun in der, ziemlich alltäglichen, Situation mehrerer gleichzeitig präsenter Reize? Es ist offensichtlich, dass in dem Fall mehrere Neurone, in deren rezeptive Felder jeweils ein Reiz fällt, auch gleichzeitig reagieren. Wenn diese Neurone nun untereinander über Nervenfasern verknüpft sind und sich gegenseitig fördern oder hemmen können, so ist leicht ersichtlich, dass auch Reize, die sich außerhalb des „klassischen“ rezeptiven Feldes eines Neurons befinden, indirekt dessen Aktivität beeinflussen können.

Die Reaktion eines kantenselektiven V1-Neurons auf eine Linie wird vermindert, wenn sich außerhalb des klassischen rezeptiven Feldes, aber immer noch in der Nähe der Linie, weitere parallele Linien befinden (Abb. 1.1.8a). Dieser hemmende Einfluss vermindert sich, wenn die Ausrichtung der zusätzlichen Linien stark von der Ausrichtung der Linie im rezeptiven Feld abweicht (Abb. 1.1.8b). Wenn sich parallele Linien zu einer (unterbrochenen) Kontur ergänzen (Abb. 1.1.8c), so kann es sogar zu einer stärkeren Aktivität des Neurons kommen. Durch horizontale Verbindungen (d. h. Verbindungen innerhalb des gleichen Areals) können also bereits rudimentäre Sehfunktionen geleistet werden, die über die Analyse eines einzelnen rezeptiven Feldes hinausgehen. Die vollständige Analyse bedarf allerdings noch weiterer Verarbeitungsebenen, wie wir noch an vielen Stellen sehen werden.

Abb. 1.1.8: Neuronale Aktivität wird durch Reize außerhalb des rezeptiven Feldes beeinflusst. a) Parallele Streifen inhibieren die Reaktion des Neurons auf den Streifen innerhalb des rezeptiven Feldes (Kreis). b) Die Inhibition ist geringer, wenn die Streifen eine andere Orientierung haben. c) Streifen gleicher oder ähnlicher Ausrichtung, die sich zu einer Linie ergänzen, können zu stärkerer Aktivierung des Neurons führen.

1.1.4. Selektive Wahrnehmung

Wir haben an einigen Beispielen gesehen, dass unsere visuelle Wahrnehmung offenbar eingeschränkter ist, als es uns im Alltag erscheint. Normalerweise haben wir doch den Eindruck, dass unsere Umwelt wie ein großes Bild mit allen Einzelheiten vor unseren Augen steht und jederzeit vollständig von den Augen erfasst werden kann. Das ist aber nicht der Fall. Schon aufgrund der in der Peripherie eingeschränkten Sehschärfe müssen wir unsere Umgebung oft mit Augenbewegungen abtasten, um aus den so gewonnenen Informationen das Gesamtbild zu gewinnen. Wir haben weiterhin gesehen, dass manche Merkmale leichter als andere erkannt werden, insbesondere, wenn sich ähnliche Reize in der Nachbarschaft befinden. Daneben hängt unsere Wahrnehmung aber auch stark davon ab, welche Aspekte unserer Umgebung wir beachten – und welche nicht:

Wie eingeschränkt die Wahrnehmung in einem „Augenblick“ sein kann, wurde eindrucksvoll durch Experimente gezeigt: Die Darstellung eines Bildes wird nach kurzen Intervallen jeweils kurz dadurch unterbrochen, dass der gesamte Bildschirm weiß wird. Dies erzeugt ein sichtbares Flackern. Nach einer solchen Unterbrechung wird dasselbe Bild wieder gezeigt, allerdings mit einer Änderung. Diese Änderung ist bei dieser Darstellungsweise oft erstaunlich schwer zu entdecken.

Wenn Sie einen Eindruck davon gewinnen wollen, so können Sie Beispiele aus dem Internet herunterladen (www.usd.edu/psyc301/ChangeBlindness.htm; sollte die Website zwischenzeitlich nicht mehr existieren, suchen Sie die Seite von Prof. Ronald Rensinck, University of British Columbia).

change blindness

Wenn Sie diese Beispiele ausprobiert haben, dann ist es Ihnen vermutlich so ergangen, wie den Versuchspersonen in den einschlägigen Experimenten (Rensink 2002). Sie brauchten oft sehr lange, um recht auffällige Unterschiede zu entdecken. Dies ist intuitiv umso verblüffender, weil man beim Betrachten nicht den Eindruck hat, dass man nur einen Teil des Bildes überschauen kann. Das gesamte Bild scheint in jedem Augenblick vollständig verfügbar zu sein. Die recht eindrucksvolle Unfähigkeit, auch größere Veränderungen zu bemerken, zeigt aber, dass dies zumindest in der recht künstlichen Situation, in der die Betrachtung des Bildes in kurzen Abständen durch einen auffälligen Reiz wie das Flackern unterbrochen wird, nicht der Fall ist. Dieser Effekt wurde mit der recht dramatischen Bezeichnung change blindness belegt. Wir werden in Kapitel 3.4, bei der Besprechung visueller Gedächtnisleistungen, noch sehen, dass unter normalen Betrachtungsbedingungen unsere Fähigkeit, Veränderungen in unserer Umwelt zu erkennen, recht gut ausgeprägt ist. Die Information, die wir mit einem Blick aufnehmen können, ist allerdings wirklich recht begrenzt.

Noch etwas ist bei diesen Beispielen bemerkenswert: Auch wenn wir, zumindest im Nachhinein, deutlich gemerkt haben, dass wir wesentliche Anteile des Bildes nicht wahrgenommen haben, so haben wir doch andererseits nie den Eindruck, als ob unsere Wahrnehmung Lücken aufwiese. Trotz all der Beschränkungen, die wir inzwischen kennengelernt haben, erscheint uns unser Wahrnehmungseindruck nicht löchrig. Wir haben stets den Eindruck einer zusammenhängenden, scharfen Wahrnehmung unserer Umgebung. Das zeigt, dass visuelle Wahrnehmung nicht wie eine Kamera funktioniert, die passiv die Lichtreize auf einer Filmebene abbildet. Unser Wahrnehmungseindruck wird aus den vom Auge aufgenommenen Lichtreizen aktiv konstruiert.

Exkurs: Neuroanatomie der Großhirnrinde

Das Großhirn (Neocortex) ist in vier Lappen gegliedert: den Frontal-(Vorderhaupts-), Parietal-(Scheitel-), Temporal-(Schläfen-) und Occipital-(Hinterhaupts-)lappen. Die Lappen oder Lobi sind wiederum in Hirnwindungen (Gyri) untergliedert, die von Furchen (Sulci) begrenzt werden. So enthält der laterale (seitliche) Temporallappen je einen Gyrus temporalis superior, medius und inferior (s. Abb. 1.1.9 oben). Diese lateinischen anatomischen Bezeichnungen geben zunächst die Art der Struktur an (Gyrus), dann die übergeordnete Struktur (temporalis: zum Temporallappen gehörig), dann die weitere Lagebezeichnung (superior: obere; medius: mittlere; inferior: untere). Entsprechend ergeben sich die Bezeichnungen für die Furchen: Der Sulcus temporalis superior trennt die Gyri temporales superior und medius, der Sulcus temporalis inferior die Gyri temporales medius und inferior. Im Englischen werden diese lateinischen Bezeichnungen in umgekehrter Reihenfolge verwendet, so wird aus dem Sulcus temporalis superior etwa der superior temporal sulcus.

Neben diesen Lagebezeichnungen werden auch noch die Lagebezeichnungen „rostral“ – „caudal“ (schnabelwärts – schwanzwärts) und „dorsal“ – „ventral“ (rückenwärts – bauchwärts) verwendet. Letztere Bezeichnungen orientieren sich an vierbeinigen Tieren, daher die Bezeichnung „dorsal“ für die superioren Hirnregionen etc. Weiterhin wird zwischen den lateralen (seitlichen) und medialen (mittigen) Anteilen des Gehirns unterschieden. Für einige Furchen wird auch die Bezeichnung „Fissur“ verwendet, so für die Fissura lateralis, die den Frontal- vom Temporallappen trennt, und die Fissura calcarina, an deren Ufern sich der primäre visuelle Cortex befindet.

Neben dieser makroskopisch-anatomischen Beschreibung des Gehirns, die den mit dem bloßen Auge sichtbaren Strukturen folgt, gibt es auch noch eine Unterteilung nach der zellulären Architektur. Die Grundlage dieser histologischen (gewebekundlichen) Anatomie ist die Kartierung nach Korbinian Brodmann (1909), die im unteren Teil von Abbildung 1.1.9 dargestellt ist. Die Brodmann-Areale beschreiben Hirnareale, die sich aufgrund ihres zellulären Aufbaus voneinander abgrenzen lassen. Diese Areale, abgekürzt BA-(Nummer), z. B. BA17 für den primären visuellen Cortex, werden in der modernen bildgebenden Forschung häufig verwendet, um die Lage von Aktivierungen anzugeben. Dabei muss man sich aber bewusst machen, dass diese histologischen Areale von Mensch zu Mensch unterschiedlich groß sein können und der exakte Verlauf der Arealgrenzen makroskopisch-anatomisch (also auch in magnetresonanztomographischen Bildern, s.  Kap. 1.2) nicht zu erkennen ist. Die Angabe der Brodmann-Areale ist in diesen Fällen nur mit einer bestimmten Wahrscheinlichkeit möglich. Die Bedeutung der Brodmann-Areale besteht darin, dass eine Veränderung der zellulären Architektur vermutlich auch mit einer anderen Funktion einhergeht.

Abb. 1.1.9: Überblick der Anatomie des Großhirns. Oben befinden sich Ansichten der makroskopischen Anatomie des Großhirns (oben: lateral, unten: medial). Unten finden sich die Brodmann-Areale (nach Brodmann 1909).

ACC / PCC: anteriorer / posteriorer cingulärer Cortex

FC: Fissura calcarina

FL: Fissura lateralis (auch Fissura Sylvii)

FMC: frontomedianer Cortex

GFS / M / I: Gyrus frontalis superior / medius / inferior

GOS / I: Gyrus occipitalis superior / inferior

GPrC / GPC: Gyrus praecentralis / postcentralis

GTS / M / I: Gyrus temporalis superior / medius / inferior

LPC: Lobulus paracentralis

LPS / I: Lobulus parietalis superior / inferior

SC: Sulcus centralis (auch Fissura Rolandii)

SFS / I: Sulcus frontalis superior / inferior

SIP: Sulcus intraparietalis

SPO: Sulcus parietooccipitalis

SPrC / SPC: Sulcus praecentralis / postcentralis

STS / I: Sulcus temporalis superior / inferior

Fragen zu Kapitel 1.1

Überprüfen Sie Ihr Wissen!

1. In welchem Bereich des Gesichtsfeldes können wir feine Details unterscheiden und warum?

2. Warum brauchen ältere Menschen häufig eine Lesebrille?

3. Welche Schwierigkeiten haben Menschen mit einer Makuladegeneration?

4. Wodurch entsteht der blinde Fleck? Warum sehen wir ihn normalerweise nicht?

5. Wodurch zeichnen sich basale visuelle Merkmale aus?

6. Warum fällt es uns oft schwerer, die Abwesenheit als die Anwesenheit eines Reizes zu entdecken? Wie wirkt sich das auf die Suchzeit aus?

7. Was sagen uns die Steigung einer Suchkurve und ihr Schnittpunkt mit der y-Achse über die visuelle Suche?

8. Wie ist der primäre visuelle Cortex funktionell aufgebaut?

9. Was ist ein rezeptives Feld?

10. Können sich Reize außerhalb des rezeptiven Feldes auf die Aktivität eines Neurons auswirken?

1.2Sehen: Objektwahrnehmung

Im letzten Kapitel haben wir gelernt, dass Neurone auf frühen Stufen der visuellen Verarbeitung recht einfache Details, wie gerichtete Linien, kodieren. Subjektiv besteht unsere Wahrnehmung aber eher aus komplexen Objekten.

Kanizsa-Figuren

Wenn wir das Bild eines Hundes betrachten, sehen wir zunächst den Hund, dann erst betrachten wir die Farbe oder das Muster seines Felles. Betrachten Sie Abbildung 1.2.1. Was sehen Sie zunächst – ein Dreieck oder drei Kreise mit Ausschnitten?

Abb. 1.2.1: Ein Kanizsa-Dreieck

Abbildung 1.2.1 ist ein besonders deutliches Beispiel für unsere Tendenz, zusammenhängende Objekte wahrzunehmen. Das Dreieck, das physikalisch gar nicht existiert, wird nämlich dominanter wahrgenommen als die physikalisch präsenten induzierenden Elemente. Figuren wie das Dreieck in der Abbildung werden Kanizsa-Figuren genannt, nach dem italienischen Gestaltpsychologen Gaetano Kanizsa. Die Kanizsa-Figuren zeigen, dass Wahrnehmung mehr ist als die Summe der Aktivierung kantenspezifischer Neurone. Um eine Scheinkante wahrzunehmen, wo keine reale Kante ist, muss es Interpolationsprozesse zwischen den Neuronen geben, in deren rezeptive Felder die realen physikalischen Kanten der induzierenden Elemente an den Ecken des Dreiecks fallen. Tatsächlich reagieren Neurone in frühen visuellen Arealen auf Scheinkanten in ähnlicher Weise, als ob eine reale Kante in ihr rezeptives Feld gefallen wäre (Abb. 1.2.2).

Abb. 1.2.2: Ein Neuron im visuellen Areal V2 feuert, wenn auch schwächer als bei einer realen Kante, wenn sich eine Scheinkante durch ihr rezeptives Feld erstreckt (schematische Darstellung nach Peterhans / von der Heydt 1989).

Verdeckung

Während die Kanizsa-Figuren recht künstlich sind, so haben wir es im Alltag sehr häufig mit ähnlichen Situationen zu tun, nämlich wenn ein Objekt ein anderes teilweise verdeckt. Wir wissen, dass die Stängel der Lotosblumen in Abbildung 1.2.3 nicht abrupt aufhören, wenn sie von einem Blatt verdeckt werden, und wir können auch mühelos die sich überkreuzenden Stängel am linken Bildrand voneinander trennen. Dies wäre nicht so eindeutig möglich, wenn wir nicht implizit davon ausgingen, dass Blumenstängel gerade oder leicht gekrümmt wachsen und nicht plötzlich im scharfen Winkel abknicken. Die Fortsetzung von Objektkonturen gelingt uns aber nicht nur im Falle einfacher Linien. Wir erkennen, dass Lehne und Bein zu dem gleichen Stuhl gehören, auch wenn der Rest des Stuhles von der Tischkante verdeckt wird. Unsere Wahrnehmung wird also einerseits von geometrischen Aspekten unserer Umwelt, andererseits auch von unserer Erfahrung mit Dingen unserer Umwelt bestimmt.

Abb. 1.2.3: Ein Beispiel für optische Verdeckung

1.2.1Objektwahrnehmungsstörungen

Agnosie

Einen deutlichen Eindruck davon, wie wichtig die Fähigkeit ist, einzelne Merkmale zu einem Ganzen zu integrieren, erhält man aus Fallstudien von Patienten, bei denen diese Integrationsfähigkeit durch eine Hirnschädigung verlorengegangen ist.

Abbildung 1.2.4 zeigt eine Zeichnung der St.-Paul’s-Kathedrale in London, die von dem Patienten H. J. A. angefertigt wurde. Die Zeichnung, die von einer Vorlage angefertigt wurde, ist recht detailliert und für einen nicht ausgebildeten Zeichner sicher recht gut gelungen. Die Hirnschädigung hat Patient H. J. A. also offensichtlich nicht die Fähigkeit genommen, visuelle Details wahrzunehmen. Was man der Zeichnung aber nicht ansehen kann, ist, dass H. J. A. für die Anfertigung sechs Stunden benötigt hat. Diese ungewöhnlich lange Bearbeitungszeit kam dadurch zustande, dass der Patient die Vorlage Detail für Detail durchgemustert und in die Zeichnung übertragen hat. Was ihm fehlt, ist die Wahrnehmung zusammenhängender Objekte. Ein Zeichner würde normalerweise damit beginnen, die Hauptumrisslinien auf das Papier zu bringen, um dann nach und nach immer mehr Details hinzuzufügen. H. J. A. war dies hingegen nicht möglich, da er, trotz intakten Sehvermögens, keine Objekte erkennen konnte. H. J. A. ist ein Patient mit einer visuellen Agnosie, einer visuellen Objekterkennungsstörung. Agnosie-Patienten haben Defizite in der Erkennung von Objekten bei intakten basalen Sehleistungen.

Abb. 1.2.4: Zeichnung der St.-Paul’s-Kathedrale von Patient H. J. A. (adaptiert nach Humphreys 1999, 45)

Wie am Beispiel von H. J. A. zu erkennen, liegt die Ursache der Objekterkennungsstörung nicht darin, dass die Objekte aufgrund eingeschränkten Sehvermögens nicht erkannt werden können. Die Patienten verfügen auch über semantische Konzepte der Objekte, die sie nicht erkennen können. So können sie etwa einen Apfel als solchen benennen, wenn sie ihn in die Hand nehmen, auch wenn sie ihn zuvor visuell nicht erkannt haben. Patienten mit einer visuellen Agnosie (zumindest einige von ihnen; eine genaue Darstellung der verschiedenen Formen der Agnosie würde hier zu weit führen) haben also ein Defizit in der Integration von Merkmalen in eine Objektrepräsentation (Humphreys 1999).

H. J. A. erlitt einen Infarkt der Arteria cerebri posterior, der zu einer bilateralen Läsion großer Teile des lateralen und ventralen occipitotemporalen Cortex führte (Abb. 1.2.6). Nach dem Infarkt konnte H. J. A. Objekte, Gesichter und Wörter nicht oder nur mit großen Schwierigkeiten erkennen. Weiterhin war seine Farbwahrnehmung gestört. Dementsprechend war sein Lesen sehr eingeschränkt, und er hatte Probleme, sich in seiner Umgebung zurechtzufinden. Die Identifikation von Objekten gelingt H. J. A. nur durch die schrittweise Analyse der Objektform oder durch das Erkennen besonders charakteristischer Details. So wird folgende Beschreibung der Abbildung eines Schweins berichtet:

„Da ist ein runder Kopf an einem offenbar kräftigen Körper; da sind vier kurze Beine; es sagt mir gar nichts; ah, da ist ein kleiner geringelter Schwanz, ich denke, es ist ein Schwein.“ (Humphreys 1999, 43)

Die Objekterkennungsstörung war modalitätsspezifisch. Die taktile Objekterkennung von H. J. A. war gut, und seine Fähigkeit, Objekte nach ihrer Definition zu benennen oder umgekehrt Definitionen für Objekte zu geben, war unbeeinträchtigt. Während die Langsamkeit und die ungewöhnliche Abfolge der Striche beim Kopieren einer Vorlage Hinweise auf eine Störung der visuellen Wahrnehmung gaben, so war H. J. A. doch in vielen basalen Funktionen unauffällig. So gelang es ihm, geringfügig unterschiedliche Rechtecke voneinander zu differenzieren oder die Ausrichtung von Strichen korrekt zu identifizieren.

H. J. A. gelang aber nicht die Gruppierung ähnlicher Merkmale. In Suchaufgaben wie in Abbildung 1.2.5 zeigte er ein erstaunliches Muster. In der schwierigen Aufgabe (Abb. 1.2.5 rechts) waren seine Leistungen mit denen gesunder Probanden vergleichbar. In Displays, wie dem in Abbildung 1.2.5 links, in denen wir das kopfstehende T vor dem Hintergrund gleichausgerichteter T sofort finden, war H. J. A. stark verlangsamt. Es gelang ihm nicht, homogene Ablenker zu gruppieren und damit vom Zielreiz abzugrenzen. Waren die Ablenker dagegen inhomogen und erlaubten keine Gruppierung, so war die Suche von H. J. A. so effizient wie die der Kontrollprobanden.

Abb. 1.2.5: Gruppierung von Distraktoren in der visuellen Suche. Links können die homogenen Distraktoren leicht gruppiert werden, was die Entdeckung des Zielreizes erleichtert, rechts gelingt dies nicht.

1.2.2Gesichtererkennung

Prosopagnosie

Während H. J. A. Schwierigkeiten hatte, die verschiedensten Objekte, bis hin zu Gesichtern und Wörtern, zu erkennen, so wurden auch spezifischere Ausfallmuster berichtet. Manche Patienten mit einer Hirnschädigung haben besondere Schwierigkeiten, Gesichter zu erkennen. Im Jahre 1947 hat der Neurologe Bodamer einige dieser Fälle beschrieben und dieser Beeinträchtigung den Namen Prosopagnosie gegeben. Dieser Terminus setzt sich aus den griechischen Worten προσοψισ (Anblick, Gesicht) und αγνωσια (Unkenntnis) zusammen. Prosopagnosie-Patienten können Gesichter als solche erkennen oder Gesichtsbestandteile wie Augen, Nase und Mund identifizieren. Auch die Fähigkeit zur Unterscheidung emotionaler Gesichtsausdrücke ist meist erhalten. Sie haben jedoch die Fähigkeit verloren, anhand des Gesichts die Person zu erkennen.

Es ist schwierig, die Selektivität dieser Störung einzuschätzen. Das liegt daran, dass die Unterscheidung von Gesichtern besonders hohe Anforderungen an die Mustererkennung stellt. Normalerweise fällt dies nicht auf, wir unterscheiden die Gesichter der uns bekannten Personen „automatisch“. Wenn jedoch etwa ein Europäer nach Asien reist, so scheint ihm oft die Unterscheidung asiatischer Gesichter viel schwieriger. Dies ist ein Beispiel dafür, dass Gesichterunterscheidung inhärent recht schwierig ist und erlernt werden muss.

Wenn ein Patient nun eine Prosopagnosie bei gleichzeitig erhaltener Erkennung anderer Objekte zeigt, so wurde immer wieder argumentiert, dass dies nicht durch eine spezifische Störung der Gesichtererkennung bedingt ist. Es liege eine allgemeine Erkennungsstörung vor, die sich bei Gesichtern aufgrund ihrer Komplexität und der zur Diskrimination nötigen feinen Differenzierung besonders auswirke. In der Mehrzahl von Patienten mit Prosopagnosie liegt eine bilaterale Schädigung des Occipitalcortex vor. Die häufigste Krankheitsursache ist ein Infarkt im Versorgungsgebiet der Arteria cerebri posterior. Diese Arterie versorgt die medialen Anteile des Occipital- und Temporallappens.

fusiform face area (FFA)

Untersuchungen an gesunden Probanden, die mit Hilfe bildgebender Verfahren durchgeführt wurden, haben gezeigt, dass ein Areal im inferioren Occipitallappen, an der Grenze zum Temporallappen, besonders konsistent auf die Präsentation von Gesichtern reagiert. Dieses „Gesichtsareal“, nach seiner Lage im Gyrus fusiformis im Englischen fusiform face area (FFA) genannt (Abb. 1.2.6), zeigt besonders starke Aktivierungszunahmen, wenn den Probanden Bilder von Gesichtern gezeigt werden (Kanwisher et al. 1997). Die Aktivierung ist weitgehend unabhängig von der konkreten Aufgabe, die die Probanden mit den Gesichtsreizen auszuführen haben. Dieses Reaktionsmuster hat dazu geführt, dass man der FFA eine besondere Rolle bei der Gesichtswahrnehmung zugeschrieben hat.

FFA: Expertise

Eine konkurrierende Sichtweise ist die, dass die FFA gebraucht wird, um feine Unterscheidungen bei komplexen Objekten vorzunehmen, unabhängig davon, ob es sich um Gesichter oder andere Objekte handelt. Im konkreten Fall wurden zwei Gruppen von Experten für bestimmte Objekte, nämlich Vogelkundler und Autoexperten, untersucht (Gauthier et al. 1999). Es wurde gefunden, dass die Unterscheidung von Vogelbildern bei den Vogelkundlern sowie von Automodellen bei den Autoexperten zu einer erhöhten Aktivierung der FFA führte. Dies spricht dafür, dass die FFA eine Rolle bei der Unterscheidung feiner Unterschiede bei verschiedensten Objekten spielen kann. Allerdings waren die Aktivierungszunahmen bei der Unterscheidung von Vögeln und Autos recht klein, verglichen mit der Aktivierungszunahme für Gesichter, so dass die Spezifität der FFA für Gesichter nicht widerlegt ist.

Kategoriespezifität

Verschiedene Kategorien von Objekten führen in bildgebenden Untersuchungen zu ähnlichen Aktivierungen im ventralen und lateralen Occipital- und Temporalcortex. Diese Untersuchungen haben gemeinsam, dass es sich um breitflächige Aktivierung etwa der gleichen Region handelt. Sie unterscheiden sich jedoch in der Topographie der Areale, die für die jeweilige Objektkategorie die höchsten Aktivierungsänderungen zeigen.

parahippocampal place area (PPA)

Ein Areal, das in einer Vielzahl von Experimenten kategoriespezifische Aktivierung gezeigt hat, ist die parahippocampal place area (PPA). Wie der Name schon verrät, liegt sie, bilateral, im Gyrus parahippocampalis, medial und anterior von der FFA (Abb. 1.2.6). Dieses Areal wird insbesondere von Landschaftsaufnahmen, aber auch von Bildern von Häusern aktiviert. Von einer klar umrissenen Kategorie kann hier also sehr viel weniger die Rede sein als bei der FFA.

extrastriate body area (EBA)

Ein weiteres kategoriespezifisches Areal ist die extrastriate body area (EBA) im lateralen Occipitotemporalcortex, die bei der Betrachtung von Körperteilen aktiviert wird (Downing et al. 2001).

Alle diese in die Objektwahrnehmung involvierten Areale befinden sich entweder im ventralen lateralen Occipitotemporalcortex oder weiter medial entlang der Gyri fusiformes und linguales (Abb. 1.2.6). Für diesen Komplex wird auch die Bezeichnung „lateraler occipitaler Komplex“ (LOC) gebraucht, wobei die Bezeichnung etwas irreführend ist, da auch die medialen Anteile gemeint sind.

Abb. 1.2.6: Objektverarbeitende Areale im ventralen und lateralen Occipitotemporalcortex

EBA: extrastriate body area

FFA: fusiform face area

PPA: parahippocampal place area

Es ist offensichtlich, dass eine Aneinanderreihung kategoriespezifischer Hirnareale kein durchgängiges Ordnungsprinzip sein kann, da der zur Verfügung stehende Platz für die Vielzahl denkbarer Kategorien einfach zu klein ist. Weiterhin wurde auch in allen Studien durchgängig gefunden, dass ein bestimmtes Hirnareal, wie etwa die FFA, maximal durch eine bestimmte Kategorie visueller Objekte (etwa Gesichter) aktiviert werden kann. Aber auch Bilder anderer Objekte führten zu, wenn auch geringeren, Aktivierungen.

verteilte Repräsentation

Eine Studie konnte denn auch zeigen, dass die Objektverarbeitung im Gehirn eher verteilt über verschiedene Areale des ventralen Occipitalcortex verläuft, als dass sie für eine bestimmte Kategorie nur an einem bestimmten Ort unterstützt wird (Haxby et al. 2001). Wie in den vorausgegangenen Studien fanden Haxby und Kollegen für die einzelnen Kategorien Aktivierungsmaxima an verschiedenen Orten innerhalb des ventralen Occipitotemporalcortex. In einem zweiten Schritt wurde jedoch untersucht, inwieweit die geringen Aktivierungsänderungen an Orten, die nicht die für die gegebene Kategorie maximale Aktivierung zeigten, zur Charakterisierung der wahrgenommenen Kategorie beitrugen. Dabei zeigte sich, dass die Kategorie der präsentierten Objekte auch aus den Aktivierungsänderungen der „unspezifischen“, submaximal aktivierten Areale mit hoher Sicherheit bestimmt werden konnte.

Die Schlussfolgerung aus dieser Studie war also, dass die Wahrnehmung eines Objekts einer bestimmten Kategorie, z. B. eines Gesichts, nicht nur von einem bestimmten Hirnort, der für die Verarbeitung dieser Kategorie spezialisiert ist, vorgenommen wird. Auch Areale, die primär auf andere Objektkategorien spezialisiert sind, leisten einen Beitrag zur Objektwahrnehmung. Dies passt zu den Patientendaten, die wir im Zusammenhang mit der Prosopagnosie besprochen haben. Eine mögliche Erklärung für die Variabilität der Prosopagnosie, die manchmal nach rein rechtshemisphärischen, oft aber nur nach bilateralen occipitotemporalen Läsionen auftritt, wäre, dass die verteilte Repräsentation von Gesichtern auch nach einer Läsion der FFA eine zufriedenstellende Gesichtererkennung ermöglicht, wenn die Läsion nicht bereits einen zu großen Anteil des Repräsentationsgebietes erfasst hat. Es soll jedoch auch nicht verschwiegen werden, dass die Debatte über die Spezifität der FFA für die Gesichtererkennung und die verteilte Natur der Gesichtsrepräsentation derzeit noch heftig geführt wird.

Aspekte der Gesichtswahrnehmung

Gesichter vermitteln uns eine Fülle von Informationen. Zunächst können wir Gesichter anhand individueller Merkmale identifizieren. Davon unabhängig vermittelt uns der Gesichtsausdruck Informationen über die Stimmung des Gegenübers und kann komplementäre emotionale Veränderungen im Betrachter hervorrufen und damit die soziale Interaktion unterstützen (Kap. 4.1). Eine wichtige soziale Funktion hat auch die Blickrichtung des Gegenübers. Sie vermittelt uns Informationen darüber, was sich zurzeit im Aufmerksamkeitsfokus des Gegenübers befindet. Es konnte gezeigt werden, dass dies zu einer gleichgerichteten Verlagerung der Aufmerksamkeit des Betrachters führt (s. Kap. 2.1). Die Blickrichtung des anderen hat eine ähnliche Funktion wie ein räumlicher Hinweisreiz. Schaut uns das Gegenüber direkt an, so wissen wir, dass wir selbst im Zentrum seiner / ihrer Aufmerksamkeit stehen.

Während bei der Prosopagnosie die Fähigkeit beeinträchtigt ist, Gesichter bekannter Personen zu identifizieren, so bleibt die Erkennung von Gesichtsausdrücken oft intakt. Dies war ein erster Hinweis darauf, dass die verschiedenen Aspekte der Gesichtererkennung nicht in einem neuronalen Kerngebiet verarbeitet werden, sondern auf ein Netzwerk von Hirnarealen verteilt sind.

Netzwerk für Gesichtererkennung

Funktionelle Bildgebungsstudien haben mehrere Hirnareale identifiziert, die mit der Wahrnehmung von Gesichtern assoziiert sind (Abb. 1.2.7). Die FFA im lateralen Gyrus fusiformis haben wir bereits kennengelernt. Ein weiteres Areal, das die Gesichtswahrnehmung unterstützt, befindet sich in den Cortexarealen entlang des posterioren Sulcus temporalis superior. Dort wurden in elektrophysiologischen Untersuchungen am Affen Neurone gefunden, die selektiv auf bestimmte Blickrichtungen und Profilansichten von Gesichtern reagieren (Perrett et al. 1985). Im menschlichen Gehirn wurde eine doppelte Dissoziation gefunden, in dem Sinne, dass ein Areal entlang des posterioren Sulcus temporalis superior stärker auf Wechsel der Blickrichtung als auf Wechsel der Identität von Gesichtern reagierte. Dagegen war dies im lateralen Gyrus fusiformis umgekehrt (Hoffman / Haxby 2000).

Abb. 1.2.7: Funktionelle Neuroanatomie emotionaler Gesichtswahrnehmung (nach Haxby et al. 2002)

1.2.3Erkennen belebter und unbelebter Objekte

Aus dem Jahre 1946 stammt die Beschreibung eines Patienten, der keine unbelebten Gegenstände wie seine Möbel oder Autos auf der Straße erkennen konnte (Nielsen 1946). Sein Essen erkannte er nur am Geschmack. Dennoch hatte er keine Schwierigkeiten, Personen zu erkennen. Auch Blumen konnte er ohne Schwierigkeit benennen. Im gleichen Bericht wird eine weitere Patientin beschrieben, die das umgekehrte Bild zeigte. Sie konnte unbelebte Gegenstände (Stift, Uhr etc.) problemlos erkennen, jedoch keine Gesichter.

Etwa 40 Jahre später berichteten Warrington und Shallice (1984) den Fall eines Patienten mit bilateralen temporalen Läsionen nach einer Herpes-simplex-Encephalitis. Der Patient J. B. R. zeigte eine deutlich bessere Erkennungsleistung für Bilder von unbelebten, verglichen mit belebten Objekten. Die Häufigkeit der Namen war in beiden Kategorien gleich. Nicht nur war seine Benennung unbelebter Objekte besser, auch wenn er aufgefordert wurde, die Bedeutung der gesehenen Objekte zu erklären oder ihre Funktion pantomimisch darzustellen, zeigte sich ein Vorteil für unbelebte Objekte. Somit wurde deutlich, dass es sich nicht um eine Benennungs-, sondern um eine Erkennungsstörung handelte.

Warrington und Shallice argumentierten, dass belebte und unbelebte Objekte in anderer Weise repräsentiert seien. Die Unterscheidung zwischen belebten Objekten, wie etwa einer Erdbeere und einer Himbeere, erfordere in erster Linie eine feine perzeptuelle Unterscheidung, während die Unterscheidung zwischen unbelebten Dingen eher funktioneller Natur sei. So liege der Unterschied zwischen einem Bleistift und einem Stück Kreide eher darin, dass man damit auf Papier oder auf einer Tafel schreibe.

Spätere Studien wiesen darauf hin, dass die gefundenen Unterschiede in der Erkennung belebter und unbelebter Objekte auch durch unkontrollierte konfundierte Variablen entstanden sein könnten, insbesondere die Geläufigkeit (familiarity) der Konzepte. Das Argument besagt im Kern, dass etwa Tiere (die prototypischen belebten Objekte) häufig vorkommen und allen bekannt sind, wir aber weit mehr konkrete Erfahrung mit unbelebten Dingen wie Tisch, Stuhl etc. haben und dieser Unterschied zu den Benennungsunterschieden beigetragen habe. Eine Reanalyse des Patienten J. B. R., bei der diese Faktoren berücksichtigt wurden, ergab jedoch, dass die Erkennungsleistung zwar für belebte und unbelebte Objekte bei sehr geläufigen Objekten gleich war. Sein Defizit in der Erkennung belebter Objekte hatte aber bei weniger geläufigen Objekten Bestand.

semantische oder perzeptuelle Unterschiede?

Was ist aber nun die Grundlage für die unterschiedliche Erkennungsleistung für belebte und unbelebte Objekte? Ist es die Belebtheit an sich, die, vielleicht aus evolutionären Gründen, zu einer Repräsentation an unterschiedlichen Orten des Gehirns führt, oder sind es Unterschiede in der Art der Repräsentation belebter und unbelebter Objekte, wie bereits von Warrington und Shallice vorgeschlagen?

Eine interessante Studie wurde von Gaffan und Heywood (1993) durchgeführt. Sie ließen Affen die Diskrimination zwischen Linienzeichnungen belebter oder unbelebter Objekte lernen. Dabei beobachteten sie, dass es den Affen schwerer fiel, die Diskrimination zwischen belebten Objekten zu lernen, und dass die Schwierigkeit mit der Anzahl der zu diskriminierenden Objekte für belebte Objekte steiler anstieg als für unbelebte Objekte. Eine linguistische Verarbeitung kann bei den Affen ausgeschlossen werden. Daher schlossen sie, dass belebte Objekte schwerer visuell zu diskriminieren sind, weil die Objekte innerhalb dieser Kategorie sich ähnlicher sehen als unbelebte Objekte.

Untersuchungen an einem weiteren Patienten (S. R. B.) bestätigten die Bedeutung der visuellen Ähnlichkeit für die schlechtere Erkennung belebter Objekte. Wenn die Bilder belebter und unbelebter Objekte so ausgewählt wurden, dass die Benennung in beiden Kategorien (Autos und Hunde) gleichermaßen anhand feiner visueller Details getroffen werden musste, so war S. R. B. in beiden Kategorien in ähnlicher Weise beeinträchtigt.

funktionelle Repräsentation

Die Repräsentation von Objektkategorien ist allerdings mehr als eine Sammlung visueller Merkmale. Das Betrachten von Werkzeugbildern im Gegensatz zu anderen Kategorien (Bildern von Tieren) führte im hirngesunden Betrachter zu einer Aktivierung des prämotorischen Cortex (Martin et al. 1996). Dieser Cortex ist von zentraler Bedeutung für die Programmierung komplexer Bewegungen (s. Kap. 1.7). Die prämotorische Aktivierung, die durch die Werkzeuge hervorgerufen wurde, deckte sich weitgehend mit einer Aktivierung, die durch Nennung handlungsorientierter Verben hervorgerufen wurde. Die Annahme liegt daher nahe, dass dies ein Beispiel dafür ist, dass Kategorien nicht nur über ihre visuellen Charakteristika, sondern auch über funktionelle, handlungsbezogene Aspekte repräsentiert sind und diese Aspekte auch dann aktiviert werden, wenn die Handlung keine aktive Rolle spielt, wie bei der Benennung bewegungsloser Werkzeugbilder.

1.2.4Objekte und Merkmale

Neuropsychologische Patientenstudien wie bildgebende Untersuchungen am intakten Gehirn zeigen, wie wir gesehen haben, dass der ventrale Occipitotemporalcortex eine wichtige Rolle für die Objektwahrnehmung spielt. Wir haben weiterhin gesehen, dass verschiedene Kategorien von Objekten besonders starke Aktivierungen an verschiedenen Orten innerhalb des ventralen Occipitotemporalcortex hervorrufen, aber andererseits Kategorien auch verteilt repräsentiert sind. Daraus ergibt sich die Frage, ob es bestimmte Merkmale – komplexer als die Kanten, die V1-Neurone aktivieren, aber unterhalb der Komplexitätsebene realer Objekte – gibt, die die adäquaten Reize für die Neurone im ventralen Occipitotemporalcortex darstellen.

IT-Kolumnen

Diese Frage wurde insbesonders von dem japanischen Neurophysiologen Keiji Tanaka in einer langen Reihe von Experimenten untersucht. Er fand heraus, dass Neurone im inferotemporalen Cortex (IT) des Affen (einem Gebiet, das funktionell dem ventralen occipitotemporalen Cortex des Menschen entspricht) eine kolumnäre Struktur ähnlich wie in V1 aufwiesen. Dabei reagierten die Neurone innerhalb einer Kolumne jedoch auf weit komplexere Merkmale als in V1 (Abb. 1.2.8). Auch waren die Grenzen dieser Kolumnen nicht scharf begrenzt, benachbarte Neurone reagierten häufig auf leicht unterschiedliche Ansichten derselben Objekte (Tanaka 1996). Inwieweit die verteilten Aktivierungsmuster, die beim Betrachten von Objekten entstehen, auf die Aktivierung bestimmter komplexer Merkmalskolumnen zurückgehen, ist bis heute eine ungelöste Frage.

Abb. 1.2.8: Kolumnäre Organisation im inferotemporalen Cortex des Affen (nach Tanaka 1996, bearbeitet)

1.2.5Frühe und späte visuelle Areale?

Wir haben inzwischen gesehen, dass Neurone auf ganz unterschiedliche visuelle Reize reagieren können. V1-Neurone reagieren auf Kanten, die in einem eng umgrenzten Bereich des Gesichtsfeldes präsentiert wurden. Dagegen werden Neurone im Gyrus fusiformis oder entlang des Sulcus temporalis superior durch Gesichter aktiviert, die in einem weit größeren rezeptiven Feld präsentiert werden können. Generell gibt es eine Entwicklung von Neuronen in frühen visuellen Arealen (wie V1), die auf einfache Reize in einem eng umgrenzten rezeptiven Feld reagieren, hin zu selektiven Reaktionen auf immer komplexere Reize und in größeren rezeptiven Feldern in den nachgeschalteten Arealen.

Es ist daher naheliegend, an eine Verarbeitungskette von frühen zu späten visuellen Arealen zu denken, an deren Anfang die Analyse einfacher Merkmale steht, aus denen sich dann in den nachfolgenden Arealen immer komplexere Repräsentationen entwickeln. Dies ist jedoch nur die halbe Wahrheit. Es gibt nicht nur eine Verarbeitung von frühen zu späten visuellen Arealen, sondern auch in umgekehrter Richtung, von den „späten“ zu den „frühen“ Arealen. Hier wird offensichtlich, dass die Bezeichnung „frühe“ und „späte“ Areale nur begrenzt sinnvoll ist. Während sie in anatomischer Sicht, in der Reihenfolge der Verschaltung vom Auge zu „höheren“ Gehirnarealen sinnvoll sein mag, so kann es durchaus vorkommen, dass anatomisch „späte“ Areale früher aktiv sind als „frühe“ Areale.

rekurrente Signale

Rekurrente (rückläufige) Prozesse scheinen sogar eine größere Bedeutung zu haben, als man lange Zeit gedacht hatte. Zwar müssen Signale, die, vom Auge kommend, über die Sehbahn das Gehirn erreichen, zunächst V1 passieren, um die nachgeschalteten Areale zu erreichen. Dann jedoch kann es zu rekurrenten Signalen an die „früheren“ Areale kommen. Nach der Theorie der umgekehrten Hierarchie (reverse hierarchy theory; Ahissar / Hochstein 2004) kommen wir oft ohne diese rekurrenten Verarbeitungsschritte aus, wenn es nur darum geht, globale Objekt- oder Musterunterscheidungen zu treffen. Die Präsenz eines Gesichts etwa kann schon nach dem ersten Verarbeitungsdurchlauf von Neuronen der FFA signalisiert werden. Wenn es jedoch darum geht, feine Unterschiede zwischen zwei Gesichtern zu erkennen, dann sind u. U. rekurrente Schritte zurück zu früheren visuellen Arealen nötig. Nur diese haben Neurone mit kleinen rezeptiven Feldern und einer Selektivität für spezifische Merkmale (z. B. Kantendetektoren, die auf veränderte Gesichtszüge reagieren).

Über solche rekurrenten Prozesse kann u. U. auch die Wahrnehmung von Scheinkanten erklärt werden, wie in dem Beispiel vom Anfang des Kapitels. In einem Experiment, in dem es darum ging, feine Unterschiede in der Krümmung solcher Scheinkanten unterscheiden zu lernen, fanden wir im Laufe des Lernens eine Zunahme der Aktivierung in V1 (Maertens / Pollmann 2005). Gleichzeitig kam es im Laufe des Lernens zu einer Abnahme der Aktivierung im Gyrus fusiformis. Die Annahme liegt nahe, dass zu Beginn des Experiments Neurone im Gyrus fusiformis aktiv waren, um rekurrente Signale an V1 zu senden, um den dortigen Neuronen die Präsenz einer globalen Form zu signalisieren. Die so rekurrent aktivierten V1-Neurone mögen dadurch in die Lage versetzt werden, besser auf feine Unterschiede der wahrgenommenen oder realen Konturen zu reagieren, wozu die Neurone im Gyrus fusiformis nicht oder weniger gut in der Lage sind.

Exkurs: Funktionelle Magnetresonanztomographie

Die funktionelle Magnetresonanztomographie (fMRT) erlaubt über den Umweg der Hirndurchblutung Einblicke in die lokale Aktivität der Nervenzellen des Gehirns. Neuronale Aktivität führt zum Verbrauch von Sauerstoff. Der Sauerstoff wird über das Hämoglobin durch das Gefäßsystem an die Stellen des Gehirns gebracht, an denen es benötigt wird. Wenn die neuronale Aktivität steigt, so wird zunächst von den Hämoglobinmolekülen in den Kapillaren in der Umgebung der aktiven Neurone Sauerstoff abgegeben. Das Absinken der Konzentration sauerstoffbeladenen (oxygenierten) Hämoglobins führt, auf noch nicht vollständig bekanntem Wege, zu einer nachfolgenden Zufuhr oxygenierten Hämoglobins, die den ursprünglichen Verlust übersteigt. Diese Zunahme des oxygenierten Hämoglobins wird mit der fMRT sichtbar gemacht und heißt BOLD-Reaktion.

BOLD steht für blood oxygenation level dependent. Dabei nutzt man aus, dass oxygeniertes und deoxygeniertes (sauerstofffreies) Hämoglobin unterschiedliche magnetische Eigenschaften haben. Oxyhämoglobin ist gut magnetisierbar, Deoxyhämoglobin dagegen schlecht magnetisierbar. Bei der fMRT befindet sich der Proband in einem starken Magnetfeld, in dem sich die Protonen im Kern der Wasserstoffatome entlang der Feldlinien des Magnetfelds ausrichten. Die Protonen werden dann mit Hilfe eines elektromagnetischen Anregungspulses aus ihrer Ausrichtung ausgelenkt. Während sie in die energieärmere Ausrichtung entlang des Magnetfeldes zurückkehren, geben sie Energie ab. Dies ist die Basis der BOLD-Reaktion.

Das Verhältnis von Oxy- zu Deoxyhämoglobin bestimmt die Stärke der BOLD-Reaktion. Deoxyhämoglobin stört lokal das Magnetfeld und führt zu einer geringeren BOLD-Reaktion, Oxyhämoglobin hingegen zu einer stärkeren BOLD-Reaktion. Auf diese Weise kann indirekt die neuronale Aktivität mit einer hohen räumlichen Auflösung gemessen werden, typischerweise in einer Größenordnung von wenigen Millimetern, bei hohen magnetischen Feldstärken auch unterhalb eines Millimeters. Die zeitliche Auflösung ist hingegen begrenzt. Eine kurzzeitige neuronale Aktivierung führt mit einer Verzögerung von 4–6 s zu einer maximalen BOLD-Reaktion (Abb. 1.2.9a). Diese recht träge Reaktion ist jedoch, zumindest innerhalb einer Experimentalsitzung, recht konstant, so dass ereigniskorrelierte Unterschiede im Zeitverlauf der BOLD-Reaktion zwischen verschiedenen Experimentalbedingungen zumindest in einem Bereich von wenigen 100 ms gemessen werden können (Abb. 1.2.9b).

Abb. 1.2.9: Die BOLD-Reaktion. a) Typischer Verlauf einer BOLD-Reaktion. Ein Anstieg des Signals mit einem Maximum 6 s nach Reizpräsentation wird gefolgt von einer Signalabnahme, die in einen undershoot nach etwa 12 s mündet, wonach die Signalstärke sich langsam wieder dem Ausgangsniveau nähert (eigene Daten). b) Eine Verzögerung der neuronalen Aktivität in 600-ms-Schritten spiegelt sich in einer entsprechenden Verzögerung der BOLD-Response wider. Die dunkelgrauen Balken geben den Zeitraum der neuronalen Aktivität im Zuge einer visuellen Suchaufgabe an. Die schwarzen Linien zeigen Minima und Maxima der BOLD-Reaktion an (eigene Daten, s. Dymond et al. 1999).

Fragen zu Kapitel 1.2

Überprüfen Sie Ihr Wissen!

11. Was ist eine Kanizsa-Figur? Welche neuronalen Prozesse ermöglichen das Sehen der Figur?

12. Welche Faktoren tragen zur Wahrnehmung teilweise verdeckter Objekte bei?

13. Welche Prozesse sind bei einer integrativen Agnosie gestört? Was trägt das Bild der integrativen Agnosie zu unserem Verständnis der Objektwahrnehmung bei?

14. Was bedeutet Prosopagnosie? Welche Symptome gehen damit einher? Welche Prozesse sind nicht gestört?

15. Was weiß man über die neuronale Basis der Gesichtswahrnehmung? Gibt es ein Hirnareal der Gesichtswahrnehmung? Diskutieren Sie Argumente dafür und dagegen.

16. Wo liegt die PPA? Welche Reize aktivieren sie?

17. Welche Gründe werden für Unterschiede in der Wahrnehmung belebter und unbelebter Objekte diskutiert?

18. Welche funktionelle Organisation hat man im inferotemporalen Cortex des Affen gefunden? Diskutieren Sie Gemeinsamkeiten und Unterschiede im Vergleich mit dem primären visuellen Cortex.

19. Was sind frühe und späte visuelle Areale? Was muss man bei diesen Bezeichnungen beachten?

20. Was ist rekurrente Verarbeitung? Wann ist sie sinnvoll?

1.3Raum- und Bewegungswahrnehmung

Intuitiv ist die Wahrnehmung von Objekten untrennbar mit der Wahrnehmung verbunden, wo sich diese Objekte gerade befinden. So war es zunächst überraschend, als die Neurophysiologin Leslie Ungerleider und ihre Kollegen zeigen konnten, dass Objektwahrnehmung und Ortswahrnehmung unabhängig voneinander durch Hirnläsionen gestört werden konnten. Die daraus entstehende Theorie der „Was“- und „Wo“-Pfade hatte allerdings Vorläufer. So war aus der klinisch-neuropsychologischen Forschung schon lange bekannt (Kap. 1.2), dass Objekterkennungsstörungen auftreten konnten, ohne dass diese Patienten Störungen des räumlichen Sehens aufwiesen. Umgekehrt war auch bekannt (wie in diesem Kapitel noch ausgeführt wird), dass die Beachtung des Raums bei Patienten eingeschränkt sein kann, die nicht an Störungen der Objektwahrnehmung litten.

Räumliches Sehen ist häufig eng mit Bewegung verbunden. Die erfolgreiche Annahme eines Passes durch einen Fußballspieler hängt ganz entscheidend von der exakten Lokalisation des Balles ab, aber auch von der Berechnung seiner Flugbahn. In diesem Kapitel wird daher die räumliche Wahrnehmung, inclusive der Wahrnehmung räumlicher Tiefe, mit der Bewegungswahrnehmung zusammen behandelt. Als Grundlage soll zunächst dargestellt werden, wie der Raum im visuellen Cortex repräsentiert ist.

1.3.1Raumwahrnehmung

Sehbahn

Die Fasern des Sehnervs verlaufen von den retinalen Ganglienzellen zum Corpus geniculatum laterale (CGL) des Thalamus. Die Fasern, die von den Zellen der nasalen Retinahälften ihren Ausgang nehmen, kreuzen in der Sehnervenkreuzung in die contralaterale (gegenseitige) Hemisphäre. Dagegen ziehen die Fasern von den temporalen (schläfenseitigen) Retinahälften zum CGL der ipsilateralen (gleichseitigen) Hemisphäre. Diese Verschaltung hat zur Folge, dass Reize, die sich in der linken Gesichtsfeldhälfte befinden, zum CGL der rechten Hemisphäre weitergeleitet werden und umgekehrt für Reize aus der rechten Gesichtsfeldhälfte. So reizen z. B. Lichtreize aus der linken Gesichtsfeldhälfte Rezeptoren in der nasalen Retinahälfte des linken Auges und der temporalen Retinahälfte des rechten Auges und werden zum rechten CGL weitergeleitet. Das CGL hat einen sechsschichtigen Aufbau. Schicht 1, 4 und 6 erhalten Fasern vom contralateralen Auge, Schicht 2, 3 und 5 vom ipsilateralen Auge. Die Nervenzellen in den Schichten 1 und 2 sind größer als die Zellen in den Schichten 3–6. Schicht 1 und 2 heißen daher magnozellulär, Schicht 3–6 parvozellulär (parvus, lat. für arm).

Vom CGL aus fächert sich der optische Trakt in die Gratiolet’sche Sehstrahlung auf, um schließlich den primären visuellen Cortex an den Ufern der Fissura calcarina im medialen Occipitalcortex zu erreichen.

Weiterhin ziehen Sehnervfasern zu den Colliculi superiores. Diese Kerngebiete im Mittelhirn sind besonders in die Steuerung von Augenbewegungen involviert.

Retinotopie

Nicht nur das CGL, sondern auch der primäre visuelle Cortex ist durch eine exakte retinotope Organisation gekennzeichnet. In anderen Worten, Lichtreize, die auf benachbarte Stellen der Netzhaut des Auges fallen, aktivieren benachbarte Neurone im visuellen Cortex. Dabei ist der foveale Bereich, also der Bereich des schärfsten Sehens um den Fixationsort herum, am Occipitalpol repräsentiert. Weiter anterior gelegene Anteile der primären Sehrinde repräsentieren entsprechend weiter periphere Anteile des Gesichtsfeldes. Der Fundus der Fissura calcarina repräsentiert die Grenze zwischen oberer und unterer Gesichtsfeldhälfte. Lichtreize aus der oberen Gesichtsfeldhälfte sind im ventralen Anteil der Sehrinde repräsentiert, während die untere Gesichtsfeldhälfte entsprechend im dorsalen Anteil von V1 repräsentiert ist. Die Retinotopie der primären Sehrinde ist also entlang dreier Achsen repräsentiert:

1. Anterior – posterior entspricht peripher – foveal.

2. Dorsal – ventral entspricht unterem – oberem Gesichtsfeld.

3. Contralaterale Organisation: Der primäre Sehcortex der linken (rechten) Hemisphäre repräsentiert die rechte (linke) Gesichtsfeldhälfte.

Die Repräsentation der Fovea und parafovealer Bereiche nimmt etwa ein Drittel der gesamten Fläche von V1 ein, obwohl hier nur ein Bereich von ca. 5 Grad Sehwinkel repräsentiert ist. Dieser überproportionale Platzbedarf spiegelt die höhere foveale Sehschärfe wider. Während in der Peripherie der Netzhaut viele Rezeptoren auf eine Ganglienzelle verschaltet werden (Konvergenz) und somit die räumliche Auflösung gering ist, so entspricht die hohe foveale Sehschärfe einer entsprechend geringeren Konvergenz.