Methoden der Bildgebung in der Psychologie und den kognitiven Neurowissenschaften - Lutz Jäncke - E-Book

Methoden der Bildgebung in der Psychologie und den kognitiven Neurowissenschaften E-Book

Lutz Jäncke

0,0

Beschreibung

Seit Anfang der 1990er-Jahre haben sich die technischen Möglichkeiten enorm verbessert, das menschliche Gehirn zu untersuchen und dessen Strukturen und Aktivitäten zu messen. Heute gehören die verschiedenen Formen der Bildgebung u.a. Positronen-Emmissions-Tomographie, Magnetresonanztomographie, Magnetenzephalographie, Transkranielle Magnetstimulation zu den grundlegenden Methoden der Neurowissenschaften, insbesondere der Neuropsychologie, der Klinischen Psychologie, der Neurologie, der Neurobiologie und der Psychiatrie. Die mit den neuen Methoden verbundenen faszinierenden technischen Entwicklungen haben nicht nur zu einer neuen Wissenschaft, nämlich der kognitiven Neurowissenschaft, geführt, sondern auch neuen theoretischen Konzepten des menschlichen Verhaltens und Denkens zum Durchbruch verholfen. Dieses Lehrbuch führt Studierende und Lehrende behutsam in die komplexen Verfahren ein und gibt Psychologen, Neurologen und Psychiatern in Praxis sowie in Aus, Fort- und Weiterbildung darüber hinaus anwendungsorientierte Hilfestellungen und Anregungen.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern

Seitenzahl: 401

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS



Seit Anfang der 1990er-Jahre haben sich die technischen Möglichkeiten enorm verbessert, das menschliche Gehirn zu untersuchen und dessen Strukturen und Aktivitäten zu messen. Heute gehören die verschiedenen Formen der Bildgebung u.a. Positronen-Emmissions-Tomographie, Magnetresonanztomographie, Magnetenzephalographie, Transkranielle Magnetstimulation zu den grundlegenden Methoden der Neurowissenschaften, insbesondere der Neuropsychologie, der Klinischen Psychologie, der Neurologie, der Neurobiologie und der Psychiatrie. Die mit den neuen Methoden verbundenen faszinierenden technischen Entwicklungen haben nicht nur zu einer neuen Wissenschaft, nämlich der kognitiven Neurowissenschaft, geführt, sondern auch neuen theoretischen Konzepten des menschlichen Verhaltens und Denkens zum Durchbruch verholfen. Dieses Lehrbuch führt Studierende und Lehrende behutsam in die komplexen Verfahren ein und gibt Psychologen, Neurologen und Psychiatern in Praxis sowie in Aus, Fort- und Weiterbildung darüber hinaus anwendungsorientierte Hilfestellungen und Anregungen.

Professor Dr. Lutz Jäncke hat den Lehrstuhl für Neuropsychologie am Psychologischen Institut der Universität Zürich.

Kohlhammer Standards Psychologie

Begründet von Theo W. Herrmann Werner H. Tack Franz E. Weinert (†)

Herausgegeben von Herbert Heuer Frank Rösler Werner H. Tack

Lutz Jäncke

Methoden der Bildgebung in der Psychologie und den kognitiven Neurowissenschaften

Verlag W. Kohlhammer

Es konnten nicht sämtliche Rechtsinhaber von Abbildungen ermittelt werden. Sollte dem Verlag gegenüber der Nachweis der Rechtsinhaberschaft geführt werden, wird das branchenübliche Honorar nachträglich gezahlt.

Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwendung außerhalb der engen Grenzen des Urheberrechts ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Einspeicherung in elektronischen Systemen.

1. Auflage 2005 Alle Rechte vorbehalten © 2005 W. Kohlhammer GmbH Stuttgart Umschlag: Gestaltungskonzept Peter Horlacher Gesamtherstellung: W. Kohlhammer Druckerei GmbH + Co. KG Stuttgart Printed in Germany

Print: 978-3-17-018469-5

E-Book-Formate

pdf:

epub:

978-3-17-028002-1

mobi:

978-3-17-028003-8

Inhaltsverzeichnis

1 Vorwort

2 Einleitung

2.1 Was ist Bildgebung?

2.2 Kurze Geschichte der Bildgebung

2.3 Verständnisfragen zu Kapitel 2

3 Die Magnetresonanztomographie

3.1 Kernspin und Magnetisierung

3.2 Die T1-Relaxation

3.3 Die T2-Relaxation

3.4 Bildkontrast

3.5 Die Echozeit TE

3.6 Sättigung

3.7 Die Berechnung räumlicher Informationen

3.8 Spektroskopie

3.9 Bildeigenschaften

3.10 Der Aufbau eines MR-Tomographen

3.11 Pulssequenzen

3.12 Diffusionsgewichtete Sequenzen (DWI)

3.13 Risiken

3.14 Verständnisfragen zu Kapitel 3

4 Die strukturelle Magnetresonanztomographie

4.1 Technische Grundlagen

4.2 Morphometrische Verarbeitung

4.2.1 Klassische In-vivo-Morphometrie

4.2.2 Gehirngrößenmessung

4.2.3 Stereotaktische Normalisierung

4.2.4 Voxel- und deformationsbasierte Morphometrie

4.2.5 Probability-Atlanten

4.3 Verständnisfragen zu Kapitel 4

5 Die funktionelle Kernspintomographie

5.1 fMRI-Signalentstehung

5.1.1 Blutvolumen-Änderung

5.1.2 Blutfluss-Änderung

5.1.3 Änderung des Blood-Oxygenation-Level-Dependent-(BOLD-)-Kontrastes

5.2 fMRI-Messmethoden

5.3 Sequenzparameter

5.4 Untersuchungsdesigns für die funktionelle Kernspintomographie

5.4.1 Block-Design

5.4.2 Event-Related-Designs

5.4.2.1 Schnelle efMRI-Designs

5.4.2.2 Jittering

5.4.3 Spezielle fMRI-Designs für akustische Stimulation

5.5 Die Vorverarbeitung von fMRI-Daten

5.5.1 Die Bewegungskorrektur

5.5.2 Zeitliche Korrektur der Schichtakquisition

5.5.3 Räumliche Normalisierung

5.5.4 Räumliche Glättung

5.5.5 Zeitliche Filterung

5.6 Die statistische Auswertung

5.6.1 Modellbasierte Auswertung

5.6.1.1 Zeitliche Abhängigkeit in den Daten

5.6.1.2 Räumliche Abhängigkeit in den Daten

5.6.2 Konnektivitätsanalysen

5.6.3 Modellfreie Analysen

5.6.4 Analysen auf der Basis von „Regions of Interest“

Abschließende Bewertung des VOI-Ansatzes

5.6.5 Fixed-Effects-, Random-Effects- und Second-Level-Analyse

5.7 Technische Voraussetzungen zur Analyse von kernspintomographischen Daten

5.8 Software zur Auswertung von kernspintomographischen Daten

5.9 Konvention zur Darstellung der fMRI-Befunde – Beispiele

5.10 Verständnisfragen zu Kapitel 5

6 Positronen-Emmissions-Tomographie (PET)

6.1 Das Prinzip

6.2 Hirnstoffwechsel und Hirndurchblutung

6.3 Die Natur des PET-Signals

6.4 Das PET-Signal

6.5 Die räumliche Auflösung von PET

6.6 Das PET-Design

6.7 Die Analyse von PET-Daten

6.8 Die Bedeutung der PET-Messung

6.9 SPECT (Single-Photon-Emissions-Computertomographie)

6.10 Verständnisfragen zu Kapitel 6

7 Computertomographie

7.1 Die CT-Technik

7.2 Die Angiographie

7.3 Die Bedeutung der CT-Verfahren für die Neurowissenschaften

7.4 Verständnisfragen zu Kapitel 7

8 Die kortikale Kartierung von elektrophysiologischen und magnetenzephalographischen Prozessen

8.1 Die EEG-Registrierung

8.1.1 Filter

8.1.2 Artefakte

8.1.3 EEG-Rhythmen

8.1.4 Die EEG-Analyse

8.1.4.1 Frequenzbezogene Analysen

8.1.4.2 Ereigniskorrelierte Potentiale

8.1.4.2.1 Prä-Stimulus-Potentiale

8.1.4.2.2 Endogene und exogene Komponenten

8.1.4.2.3 Die Mismatch Negativity (MMN)

8.2 Neurophysiologische Grundlagen – die Dipolstruktur

8.3 Synchronisation und Spontan-EEG

8.4 Lokalisierung der Aktivität neuronaler Quellen

8.5 Die klassische Dipolanalyse

8.6 Funktionelle Bildgebung mit LORETA

8.7 Topographische Analyse der EEG-Aktivität

8.8 MEG

8.8.1 Die Form der Flussverteilung

8.8.2 Funktionelle Bildgebung mit MEG

8.9 Verständnisfragen zu Kapitel 8

9 Die transkranielle Magnetstimulation (TMS)

9.1 Die technischen Grundlagen

9.2 Sicherheit und Risiken

9.3 Bildgebungsrelevante Aspekte

9.3.1 Platzierung der Spulen

9.3.2 Funktionsblockierung

9.3.3 Kartierung

9.4 Verständnisfragen zu Kapitel 9

10 Optische Bildgebung

10.1 Verständnisfragen zu Kapitel 10

11 Ausblick

Literaturverzeichnis

Sachwort- und Personenverzeichnis

1 Vorwort

Die neuen bildgebenden Verfahren sind ein gutes Beispiel für das ständige Wechselspiel zwischen technischer Grundlagenforschung, inhaltsbezogener Grundlagenforschung und der medizinischen Wissenschaft. Wie so häufig in der Wissenschaftsgeschichte haben Methoden die inhaltliche Weiterentwicklung von Disziplinen gefördert und sogar zum Durchbruch verholfen. Gelegentlich haben sie auch ganzen Disziplinen ein neues Antlitz verliehen. Eine ähnliche Bedeutung ist mit den modernen bildgebenden Verfahren verbunden. Der Erfolg dieser Methoden ist sicherlich durch die vielfältigen medizinischen Diagnosemöglichkeiten zu erklären, die mit der Anwendung dieser Verfahren verbunden sind. Anders als bei anderen medizinischen Geräteentwicklungen haben die bildgebenden Verfahren auch zur breiten inhaltlichen Weiterentwicklung der Psychologie und Medizin beigetragen. Durch diese neuen Methoden ist das menschliche Gehirn eigentlich erstmalig in der Geschichte der Psychologie deutlich in den Vordergrund getreten. Das neue Forschungsfeld der kognitiven Neurowissenschaften ist zwar interdisziplinär, aber insbesondere wegen der verwendeten Paradigmen sehr stark von der kognitiven Psychologie beeinflusst. Ohne ausgeklügelte experimentelle kognitive Paradigmen ist kein aussagekräftiges Experiment mit den bildgebenden Verfahren durchführbar. Neben dieser inhaltlichen Verschmelzung der kognitiven Psychologie mit den kognitiven Neurowissenschaften ist die Psychologie durch die neuen Befunde besonders herausgefordert. Viele psychologische Phänomene, die eigentlich gemäß der Skinner’schen Doktrin nicht untersuchbar sind, wie das Phänomen der mentalen Vorstellung, sind jetzt zentrale Gegenstände der kognitiven Neurowissenschaften. Nicht nur die kognitive Neurowissenschaft hat enorm von der Bildgebung profitiert, sondern auch die neue Forschungsrichtung der affektiven Neurowissenschaften. Gerade Befunde mittels bildgebender Verfahren haben die enge Beziehung zwischen Kognition und Affekt belegt.

Dieses Buch ist aufgrund des Bedürfnisses entstanden, Studenten der Psychologie, Medizin, Biologie und Informatik einen Überblick über die Methoden der bildgebenden Verfahren zu vermitteln. Es wurde deshalb bewusst darauf verzichtet, die physikalischen Hintergründe zu stark zu gewichten. Schwerpunkt war vielmehr, das Verständnis für die einzelnen Verfahren zu fördern, das Interesse an den einzelnen Methoden zu wecken und das Lesen der einschlägigen Literatur zu stimulieren. In dieses Buch fließen natürlich viele Erfahrungen ein, die ich in Zusammenarbeit mit Freunden, Kollegen und Mitarbeitern sammeln konnte. Viele müsste ich erwähnen, aber nur einige wenige kann ich aus Platzgründen namentlich nennen. Allen voran ist mein Freund und Kollege Prof. Helmuth Steinmetz zu erwähnen, der mir vor ca. 15 Jahren den Weg in die bildgebenden Verfahren ebnete. Mit ihm habe ich viele sehr spannende Momente beim Diskutieren und Schreiben von wissenschaftlichen Arbeiten erleben dürfen. Prof. Zilles hat in diesen Jahren mein Verständnis für die systemisch orientierte Neuroanatomie geprägt. Aus meiner Zeit am Kernforschungszentrum in Jülich möchte ich Herrn Prof. Müller-Gärtner, der mir damals die Arbeit an diesem interessanten Zentrum ermöglichte, erwähnen. Bis heute zehre ich noch von der Kooperation mit dem Kernspinphysiker PD. Dr. N. Jon Shah, der mir half, auditorische Experimente auf die Kernspinumgebung zu übertragen. Aus meiner Zeit in Magdeburg möchte ich insbesondere meine Mitarbeiter Torsten Wüstenberg, Dr. Kirsten Jordan und Dr. Toemme Noesselt erwähnen, die viel zur Weiterentwicklung meiner Kenntnisse hinsichtlich der bildgebenden Verfahren beigetragen haben. Einige Abbildungen aus Kapitel 3 entstammen einer Lehrveranstaltung, die ich mit meinen Magdeburger Mitarbeitern bestritten habe. Insbesondere Torsten Wüstenberg erwies sich dabei als kreativer und ästhetisch begabter „Konstrukteur“ von wissenschaftlichen Abbildungen. Insofern habe ich ihm einige Abbildungen zu verdanken. Dr. Kai Lutz betreut seit meinen Jülicher Zeiten meine Kernspinarbeiten und hat auch wesentlich an dem Kapitel zur Funktionellen Kernspintomographie mitgearbeitet. Aus meiner Züricher Arbeitsgruppe möchte ich insbesondere Frau Dr. Esslen und Dr. Pasqual-Marqui erwähnen, deren Diskussionsbeiträge mein Verständnis für die Elektroenzephalographie wesentlich erweitert haben. Nicht zu vergessen ist auch Prof. Dietrich Lehmann, der mich ebenfalls mit wertvollen Tipps bzgl. des EEGs versorgte. Besonders danken möchte ich auch Herrn PD Dr. Dominik Weishaupt, der insbesondere das Kapitel Magnetresonanztomographie aufmerksam und kritisch gelesen hat.

Abschließend bleibt nur zu hoffen, dass die Leser dieses Buch als Einführungsbuch in die bildgebenden Verfahren annehmen. Auch bitte ich eventuelle Fehler und selektive Betrachtungen zu entschuldigen. Natürlich ist dieses Buch sehr stark aus meiner persönlichen Erfahrung im Umgang mit den unterschiedlichen Methoden entstanden. Jeder mag eine eigene Sicht haben. Ich hoffe aber, dass ich zumindest den Blick der Mehrheit gestreift habe.

Zürich, im Oktober 2004

Prof. Dr. rer. nat. Lutz Jäncke

2 Einleitung

2.1 Was ist Bildgebung?

Der Begriff „Bildgebung“ bzw. „bildgebende Verfahren“ ist im Zusammenhang mit der medizinischen Diagnostik geprägt worden. Hierunter werden Verfahren zusammengefasst, die es erlauben, anatomische Strukturen des menschlichen Körpers möglichst präzise zu visualisieren. Hierbei werden je nach Methode jedem Punkt des Körpers Koordinaten (x, y, z) in einem dreidimensionalen System zugeordnet. Man bestimmt z. B. die Dichte eines bestimmten Gewebematerials an diesem Punkt durch ein Messverfahren und rekonstruiert aus der Beobachtung und Speicherung praktisch aller Punkte ein Bild des Körpers in verschiedenen Ansichten, perspektivisch oder in ausgewählten Schnitten, um damit die Diagnose zu erleichtern und zu präzisieren. Außerdem strebt man an, auch den zeitlichen Ablauf eines Vorganges im Körper (z. B. Herzschlag oder Hirndurchblutung) direkt sichtbar zu machen. Über die Dichte kann man viele Materialien im Körper wie Knochen bereits unterscheiden, aber zur Hervorhebung bestimmter Arten oder Aktivitätszentren wird man noch Markierungen wie Tracer im physikalischen Messprozess einsetzen. Typische bildgebende Verfahren sind die Sonographie (Messung von Schallreflexionen), die Computertomographie (CT, Messung der Röntgen-Absorption), die Szintigraphie (Aktivität eines Tracers), Positronen-Emmissions-Tomographie (PET, Messung der Tracerkonzentration) und neuerdings auch die Magnetresonanztomographie (MRI1, magnetische Resonanz von H-Kernen).

Methoden, die es einem erlauben, bestimmte physiologische Vorgänge zu visualisieren, ohne dass ein direkter bzw. präziser Bezug zu anatomischen Strukturen hergestellt werden kann, werden in der Regel nicht zu den bildgebenden Verfahren gerechnet. Typische Beispiele solcher Methoden sind das Elektromyogramm (EMG), das Elektroenzephalogramm (EEG) und die Magnetenzephalographie (MEG). Diese Verfahren erlauben zwar die zeitliche, hoch aufgelöste Visualisierung neurophysiologischer Vorgänge, sie liefern jedoch keine genauen Informationen bzgl. der anatomischen Strukturen, die den neurophysiologischen Vorgängen zugrunde liegen. Insbesondere für die EEG- und MEG-Technologie werden derzeit mathematische Modelle entwickelt, die es zunehmend erlauben, auch Hinweise auf die den neurophysiologischen Vorgängen zugrunde liegenden anatomischen Strukturen zu erhalten. Die hierzu verwendeten mathematischen Modelle sind teilweise komplex und bergen noch eine Reihe von ungelösten Problemen, so dass EEG und MEG derzeit noch nicht allgemein akzeptiert (zumindest im medizinischen Bereich) zu den bildgebenden Verfahren gerechnet werden. Im Rahmen dieses Buches wird verstärkt auf kernspintomographische und teilweise auch auf positronenemissionstomographische Methoden Bezug genommen. Dies deshalb, weil diese Verfahren in den letzten zehn Jahren zu einem bemerkenswerten Aufschwung in den kognitiven Wissenschaften geführt haben. Diese Verfahren haben mittlerweile nicht nur einen herausragenden Platz z. B. in der Neuroradiologie erworben, sondern entwickeln sich zunehmend zu Standardverfahren, mit denen auch aus reinem Forschungsinteresse psychische Vorgänge und den ihnen zugrunde liegenden neurophysiologischen Prozesse untersucht werden.

2.2 Kurze Geschichte der Bildgebung2

Die Geschichte der Bildgebung ist alt und hat viele interessante Wendungen, Höhepunkte und Probleme erlebt. Will man diese Geschichte nachvollziehen, muss man verschiedene Entwicklungsstränge verfolgen. Ein wichtiger Strang hat seinen Ursprung in der Anatomie, während andere meist technischer Natur sind. Letztlich wurden alle Entwicklungsstränge durch die medizinische Wissenschaft geeinigt, denn die aus diesen Entwicklungen hervorgegangenen Verfahren wurden bzw. werden zum Nutzen der Patienten eingesetzt. Neben diesen rein medizinischen Anwendungen hat sich eine nicht minder bedeutende Forschungsrichtung etabliert, die kognitive Neurowissenschaft, die sich diese Verfahren zunutze macht, um die grundlegenden Gehirnfunktionen des Menschen zu ergründen. Obwohl diese Forschungsrichtung zunächst grundlagenorientiert erscheint, hat sie aber große Bedeutung für die klinisch-medizinischen Fächer. Dieses ständige Wechselspiel zwischen Grundlagen- und medizinischer Anwendungsforschung ist recht eindrücklich auch an der Geschichte der Bildgebung ablesbar. Im Folgenden sollen kurz die wichtigsten Entwicklungsstränge dieser Geschichte dargestellt werden. Hierbei wird Bezug genommen auf die Neuroanatomie, die Computertomographie, die Magnetresonanztomographie, die Positronenemissionstomographie und letztlich auf die Elektroenzephalographie.

Die Geschichte der Neuroanatomie

Die wohl älteste Nennung des Wortes „Gehirn“ findet sich in den Edwin-Smith-Papyrus-Rollen. Hierbei handelt es sich um Papyrus-Rollen, die wahrscheinlich um 1700 v. Chr. erstellt worden sind. Archäologen gehen davon aus, dass die darin beschriebenen Inhalte allerdings bis in die Zeit 2500–3000 v. Chr. zurückgehen. In diesen Papyrus-Rollen sind 48 klinische Fälle beschrieben, darunter 27 dezidierte Beschreibungen von Hirnverletzungen.

In der Antike existierte nur eine kurze Periode, in der das Tabu der Sektion menschlicher Leichen gebrochen wurde, und zwar im dritten Jahrhundert vor Christus in Alexandria. Dort führten die zwei bemerkenswerten Forscher Herophilus und Erasistratos anatomische und physiologische Studien an den Leichen Hingerichteter, vielleicht sogar Vivisektionen an zum Tode Verurteilten durch. Leider sind nur Teile ihrer Arbeiten erhalten geblieben, die beim Brand der Bibliothek von Alexandria 47 v. Chr. vernichtet wurden. Nach dem Tod dieser Forscher wurden in der Antike keine Sektionen mehr durchgeführt.

Abbildung 1: Hieroglyphen aus den Edwin-Smith-Papyrus-Rollen, die das Gehirn beschreiben. Wahrscheinlich die erste kulturelle Dokumentation des Begriffs Gehirn.

Die Geschichte der modernen, anatomisch orientierten Medizin begann in der Renaissance mit Leonardo da Vinci, der als Erster systematische Körperstudien anhand von anatomischen Präparaten anfertigte. Seine anatomischen Zeichnungen sind weltberühmt und von faszinierender Ausdruckskraft. 228 Blätter sind erhalten und heute im Besitz des englischen Königshauses in Windsor. Leider konnte er seinen Wunsch, ein anatomisches Handbuch zu erschaffen, nicht verwirklichen. Dies blieb Vesalius mit seinen Werken De humani corpis fabricia Epitome vorbehalten. Beide Bücher erschienen 1543 in Basel. Vesalius hat beeindruckende Zeichnungen des menschlichen Gehirns angefertigt, die auch heutzutage nicht an Eindruckskraft verloren haben. Zu bemerken ist, dass Vesalius diese Zeichnungen in einer Zeit anfertigte, in der die ventrikuläre Lokalisationshypothese noch sehr populär war. Im Rahmen dieser Theorie wird den Ventrikeln eine besondere funktionelle Bedeutung zugeschrieben. In den Ventrikeln sollte demzufolge das psychische Pneuma zirkulieren und über das Ventrikelsystem quasi in den Körper gepumpt werden. Das Gehirn fungiert im Rahmen dieses Gedankengebäudes lediglich als Stützkörper. Bestimmte Ventrikelbereiche sollten allerdings für verschiedene psychische Funktionen spezialisiert sein. Schöne optische Beispiele für diese Hypothese haben die Mönche Gregor Reisch (1504) und Magnus Hundt (1501) abgeliefert. So wird z. B. dem ersten Ventrikel (der nicht gleichzusetzen ist mit dem heute als ersten Ventrikel bezeichneten Hohlkörper) die Fähigkeit zugeschrieben, Fantasie und Imagination zu kontrollieren. Der zweite Ventrikel wäre demnach für das Denken und der dritte für das Gedächtnis zuständig.

Einen gewissen Aufschwung, zumindest was die Popularität in Laienkreisen betrifft, hat die Anatomie durch die Phrenologie erhalten. Die beiden Protagonisten dieser Richtung (Gall und Spurzheim) hatten versucht, aus den Unebenheiten der Schädeloberfläche (Beulen – bumps) auf die Beschaffenheit des darunter liegenden Hirngewebes zu schließen und diese anatomischen Eigenarten dann mit bestimmten psychischen Funktionen in Beziehung gebracht. Aus heutiger Sicht ist natürlich vollkommen einsichtig, dass dieser Ansatz einen Irrweg darstellte.

Bedeutend, wenn nicht gar bahnbrechend, waren die Befunde der Neurologen Paul Broca (1861; 1878) und Carl Wernicke (1874) sowie die Beschreibung des Patienten Phineas Gage. Die von ihnen vorgelegten Fallbeschreibungen belegen erstmalig, dass bestimmte Hirnfunktionen (Sprachexekution, Sprachperzeption und komplexe soziale Motivation) an die Intaktheit bestimmter Hirngebiete gebunden sind.

Abbildung 2: Zeichnungen von Gregor Reisch (1504), Vesalius (1543) und Magnus Hundt (1501).

Abbildung 3: Schematische Beispiele für phrenologische Deutungsversuche hinsichtlich des Zusammenhangs zwischen Schädelmerkmalen und der Ausprägung psychischer Funktionen.3

1906 erhielten die Physiologen Golgi und Cajal gemeinsam den Nobelpreis für Medizin als Anerkennung für ihre zellbiologischen Arbeiten. Interessant ist in diesem Zusammenhang, dass Golgi die wesentliche Voraussetzung schuf, um Neurone zu visualisieren, aber im Hinblick auf die Interpretation dessen, was er sah, auf einem Irrweg war. Er nahm nämlich an, dass das gesamte Gehirn eine kontinuierliche Masse mit einem einheitlichen Zytoplasma (Synctium) sei. Cajal interpretierte die mit der Golgi-Methode gefärbten Hirnschnitte korrekt. Er identifizierte einzelne Neurone und betonte damit das Neuron als Grundbaustein des Gehirns.

Der deutsche Neuroanatom Korbinian Brodmann publizierte 1909 die Ergebnisse seiner zytoarchitektonischen Studien, in deren Zusammenhang er ein (!) Post-mortem-Gehirn in 52 unterschiedliche zytoarchitektonische Areale unterteilte (einige davon sind nur für nichtmenschliche Primaten definiert). Diese Einteilung wird noch heute in der Bildgebung zur Lokalisationsbeschreibung benutzt. 1988 haben die Neurochirurgen Talairach und Tournoux ein stereotaktisches Normalisierungsverfahren vorgestellt (siehe Kapitel 4.2.3), das immer noch die wesentliche Grundlage vieler Lokalisationsbemühungen von bildgebenden Verfahren ist. Im Übrigen sind die oben erwähnten zytoarchitektonischen Felder von Brodmann in diesem stereotaktischen Atlas kartiert. Gegenwärtig werden bedingt durch moderne mathematische Verfahren Post-mortem- und In-vivo-Analysen des menschlichen Gehirns kombiniert. Diese Arbeiten erlauben einerseits die interindividuelle Variabilität, aber auch das Gemeinsame der Lokalisation zytoarchitektonischer Felder herauszuarbeiten. Herausragend ist in diesem Zusammenhang die Arbeitsgruppe um Prof. Zilles aus Düsseldorf und Jülich.

Durch die technischen Entwicklungen, insbesondere durch die Magnetresonanztomographie, aber auch durch moderne mathematische Verfahren zur Objektivierung zytoarchitektonischer Unterschiede, erfährt das Bestreben Unterstützung, Zusammenhänge zwischen hirnanatomischen und funktionalen Aspekten herzustellen.

Geschichte der Computertomographie (CT)4

Die Computertomographie (CT) hat wie die anderen Verfahren der Bildgebung sehr stark von mathematischen Vorarbeiten profitiert. Für die CT-Methode waren die Rechenmodelle des Österreichers Radon unabdingbare Voraussetzung für die Berechnung der CT-Bilder. Er hatte nämlich die Grundlage geschaffen, um die mathematische Rekonstruktion eines dreidimensionalen Objekts zu ermöglichen. Das technische Fundament der CT-Methode erschuf 1964 der südafrikanische Physiker Allen M. Cormack, der ein Verfahren entwickelte (rotierende Röntgenröhre), mit dem man die Dichte einzelner Punkte in einem Volumen ermitteln konnte. Der erste Prototyp eines CTs wurde 1968 vom englischen Ingenieur Godfrey N. Hounsfield entwickelt. Dieses Gerät erlaubte die Vermessuung anatomischer Präparate. Jedoch war der Zeitaufwand erheblich (neun Stunden Messung plus 2–3 Stunden Bildrekonstruktion). Allerdings waren die ersten Aufnahmen recht vielversprechend, denn man konnte auf ihnen partiell zwischen grauer und weißer Hirnsubstanz unterscheiden. Die in der Folgezeit entwickelten ersten CT-Geräte (z. B. der erste Kopf-Scanner EMI Mark I) waren lediglich mit einem Detektor ausgestattet, welcher genau gegenüber der Strahlenquelle lag und mit dieser um den Patientenkopf rotierte. Moderne Geräte besitzen mehr als 4000 Detektoren. Demzufolge ist also leicht nachvollziehbar, warum die Akquisition einer einzelnen Schicht damals mehr als 5 Minuten benötigte. Das erste Gerät wurde im Atkinson Morley’s Hospital in London aufgestellt und lieferte bereits 1972 erste Ansichten des Gehirns, ohne dass das Gehirn geöffnet werden musste, was damals sensationell war. Für ihre Pionierarbeiten erhielten 1979 die beiden Wissenschaftler Hounsfield und Cormack den Nobelpreis für Medizin. Zu bemerken ist, dass beide Erfinder vollkommen unabhängig voneinander gearbeitet haben. Praktisch seit 1973 wird die CT in vielen Kliniken eingesetzt. Mit dieser revolutionären Röntgentechnik können recht gut die graue und weiße Hirnsubstanz differenziert werden. Besonders hilfreich erwies sich das CT bei der Diagnose von Hirntumoren, Atrophien und Infarkten. Zu diesem Zeitpunkt wurden in der Regel vier 13 mm dicke Schichten in etwa 25 Minuten akquiriert.

Die so genannte zweite Generation von CT-Geräten zeichnete sich durch eine viel größere Anzahl an Detektoren aus. So war z. B. der EMI 5000 Scanner, der 1974 auf den Markt kam, mit bis zu 52 hintereinander liegenden Detektoren ausgestattet. Dadurch konnte schon eine beachtliche räumliche Auflösung von bis zu 320 Bildpunkte erreicht werden. Auch die Aufnahmezeit konnte auf 18 Sekunden pro Schicht reduziert werden. Die dritte Gerätegeneration erlaubte zum ersten Mal, dass die Röhre kontinuierlich rotieren konnte. Die neuen Geräte waren schon mit bis zu 1200 Detektoren ausgestattet. Die Aufnahmezeit und die räumliche Auflösung wurde hierdurch weiter verkürzt bzw. verbessert. Bei der 1977 vorgestellten vierten Gerätegeneration rotierte nur noch die Röhre. Insofern reduziert sich die bewegte Masse erheblich. Die Detektoren sind erstmals zirkulär und fest im gesamten Gerät montiert. Die Aufnahmezeiten für einen Scan (eine Scheibe) kann auf diese Weise auf 1–5 Sekunden reduziert werden. Diese Geräte sind mit 1200–2400 Detektoren ausgestattet.

1980 wurde ein CT-Gerät vorgestellt (Dynamik Spatial Reconstructor: DSR), das seinerzeit als technische Sensation eingestuft wurde. Dieses an der Mayo-Klinik in den USA aufgestellte Gerät war allerdings so groß und sperrig, das es den Namen „Mayo-Monster“ erhielt. Das Bemerkenswerte an diesem Gerät war, dass es innerhalb von 5 sec bis zu 75 000 (!) Schichten aufnehmen konnte. Dadurch konnten Schichtdicken von 0,9 mm erreicht werden. Durch die damaligen Limitationen der Computertechnik benötigt die Rekonstruktion der Bilder allerdings ein Vielfaches der Aufnahmezeit. Drei Jahre später erfolgte der Bau eines Elektronenstrahl-CT (EBT). Der Elektronenstrahl erlaubt die sehr schnelle und präzise Abtastung einer gesamten Schicht in 50 msec. Das Gerät benötigte auch keine rotierenden Geräteteile mehr (die Detektoren waren stationär befestigt) und es war auch erheblich kleiner (hinsichtlich des Durchmessers), jedoch länger als bisherige CT-Scanner. Der Unterhalt der Geräte war allerdings recht teuer, so dass eine weite Verbreitung dieser Geräte ausblieb. Ein wesentliches Problem der konventionellen CT-Geräte ist, dass der Strom der Röntgenröhre über Kabel zugeführt wird. Deshalb muss die rotierende Röhre nach einem 360°-Scan abgebremst und an ihre ursprüngliche Position zurückgebracht werden. Insofern war die minimale Scanzeit durch diese Drehung limitiert (ca. 2 Sekunden). Eine weitere Verkürzung war erst mit der Einführung von Schleifenringspannungskontakten (in Spiral-CTs) möglich. Diese erlaubten eine kontinuierliche Rotation von Röntgenröhre und Detektor.

Durch bessere Datenverarbeitungsalgorithmen und schnellere Rechner erreichte man Rekonstruktionszeiten, die als Echtzeitrekonstruktion bezeichnet werden (ca. 1995). Mit der Echtzeitrekonstruktion wird die CT-Durchleuchtung möglich. Ähnlich wie in der Angiographie können Eingriffe (z. B. Punktionen) online verfolgt und kontrolliert werden. Für die CT ergeben sich demzufolge neue Einsatzgebiete, für den Patienten bedeuten sie mehr Sicherheit.

1998 ließ sich erstmalig ein so genanntes 4-Zeilen-Gerät kommerziell erwerben. Seit 2001 ist auch ein 16-Zeilen-Gerät erhältlich, der SIEMENS Sensation 16. Mit diesen neuen Geräten werden 4 bis 16 „Spiralen“ gleichzeitig aufgenommen. Somit wird die Untersuchungszeit drastisch reduziert, was insbesondere in der Diagnostik bewegter Organe, z. B. dem Herzen, deutliche Vorteile bringt. Die neue Technik kann aber auch zur Verbesserung der räumlichen Auflösung durch Anfertigung dünnerer Schichten verwendet werden.

Die CT findet mittlerweile ausschließlich Anwendung im klinischen Alltag. Für Fragestellungen aus dem Bereich der kognitiven Neurowissenschaft wird diese Technik nicht mehr eingesetzt, da mit der MRI-Technik keine Belastung durch radioaktive Strahlung für Patienten und Probanden verbunden ist und ebenfalls hochaufgelöste Bilder akquiriert werden können. Während CT-Messungen nur die Darstellung eines physikalischen Gewebeparameters, der Gewebedichte, zulassen, erlaubt die MRI den Weichteilkontrast auf nahezu beliebige Weise zu wählen.

Geschichte der Magnetresonanztomographie (MRI)5

Die Magnetresonanztomographie besitzt zwar eine lange Vorgeschichte, jedoch nur eine sehr junge Geschichte der praktischen Anwendung. Diese ist begleitet von einer rasanten anwendungsorientierten Entwicklung. Bevor wir uns diesen modernen Entwicklungen nähern, soll zunächst der geschichtliche Hintergrund der MRI kurz dargestellt werden.

Im Grunde begann alles mit Mathematik. Vor ca. 200 Jahren beschrieb Jean-Baptiste Fourier (1768–1830) die nach ihm benannte Fourier-Transformation. Ohne diese wäre die Errechnung von MRI-Bildern nicht möglich. Es mussten allerdings weitere 100 Jahre vergehen, bis die physikalischen Grundlagen gelegt wurden. So beschrieb Nikola Tesla (1856–1943) die Entstehung und die Wirkung von Magnetfeldern. Noch heute wird die international verwendete Einheit für die Stärke eines Magnetfeldes deshalb nach ihm benannt. Im Jahre 1923 entdeckt Pauli den Kern-Spin, eine Eigenschaft der Atomkerne. 1946 erfolgte die Beschreibung des physikalischen Phänomens der Kern-Spin-Resonanz durch Felix Bloch und Edward Purcell. Für ihre Arbeiten erhielten sie 1952 den Nobelpreis für Physik.

Anfang der 1970er-Jahre publizierte Paul Lauterbur aus New York die ersten biologischen Anwendungen. In dieser Publikation beschreibt er erste ortsaufgelöste Abbildungen eines flüssigkeitsgefüllten Modells. In dieser Arbeit hat Paul Lauterbur als erster Magnetfeldgradienten in allen drei Dimensionen verwendet, um zwei- oder dreidimensionale Bilder zu erzeugen. Als er die ersten CT-Bilder sah, entwickelte er die Idee für diese Arbeit.

Nach diesen ersten physikalischen Meilensteinen trieben wiederum mathematische Entdeckungen die Entwicklung der MRI voran. Richard Ernst aus Zürich beschrieb 1975 eine Technik, mit der die Datenakquisition wesentlich vereinfacht werden kann. Diese Grundlagen werden bis heute für die MRI verwendet. Bislang wurden allerdings alle praktischen Versuche entweder an Phantommodellen, biologischen Präparaten oder an Tieren durchgeführt. 1977 gelang Damadian das erste Bild des menschlichen Körpers (ein Thoraxquerschnitt). Kurz darauf (1978) entwickelte Peter Mansfield aus Nottingham eine beschleunigte Bildakquisition, welche nunmehr das simultane Auslesen einer ganzen Bildzeile statt eines einzigen Bildpunktes erlaubte. 2003 erhielten Peter Mansfield und Paul Lauterbur für ihre Pionierarbeiten im Bereich der Magnetresonanztomographie den Nobelpreis für Medizin.

Nun ging es praktisch Schlag auf Schlag. Ian R. Young und Hugh Clow, zwei Mitarbeiter der englischen Firma EMI, welche die ersten Computer-Tomographen entwickelt hatte, gelangen die ersten Schichtbilder des menschlichen Gehirns. Auf diesen ersten Bildern konnte erstmalig zwischen malignem Tumor und gesundem Gewebe unterschieden werden. Diese ersten MR-Geräte waren allerdings noch viel zu groß. Sie waren mit einem zirkulären Permanentmagneten ausgestattet, welche aus ferromagnetischem Material bestanden und ca. 100 Tonnen wogen! In der Folgezeit wurden Widerstandsmagneten eingesetzt, denen allerdings als Nachteil ein sehr hoher Kühlbedarf für die sich erwärmende Spule anhaftete. Des Weiteren erreichten diese Geräte maximale Feldstärken von nur 0,3 Tesla (T). Durchgesetzt haben sich supraleitende Magneten, welche Feldstärken auch deutlich über 1 T erlauben.

Ab ca. 1981 findet die MRI klinisch zunehmende Akzeptanz und wird insbesondere für die Diagnostik des Zentralen Nervensystems (ZNS) eingesetzt. Wesentliche Vorteile sind neben dem hohen Weichteilkontrast die fehlende radioaktive Strahlenbelastung und die Möglichkeit, Bilder in allen Schichtorientierungen anzufertigen, sowie die fehlende Beeinträchtigung der Bildqualität durch den dichten Knochen.

Die vermeindliche Ungefährlichkeit der MRI wird jäh erschüttert, als 1985 der erste schwere Unfall in der medizinischen MRI berichtet wird. Durch das mittlerweile extrem starke Magnetfeld des MRI (mehr als 1000-mal stärker als das Erdmagnetfeld) wurde während einer Untersuchung ein Eisensplitter durch das statische Magnetfeld in Bewegung gesetzt und verletzte das Auge eines Patienten, was letztlich zur Erblindung führte. Im selben Jahr wird ein medizinischer Mitarbeiter von zwei fast 50 kg schweren Eisenplatten schwer verletzt (diese waren zu nah an der MRI-Einheit abgestellt worden). 1989 stirbt ein Patient im MRI, weil er während der Untersuchung einen Herzschrittmacher trug, welcher im MRI-Gerät beschädigt wurde.

Ende der 1980er-Jahre sind immer mehr MRI in Kliniken im Einsatz. Mittlerweile werden auch für die kognitive Neurowissenschaft und funktionelle Neuroanatomie erste interessante Befunde publiziert, denn die MRI erlaubt die räumlich hoch auflösende Vermessung des menschlichen Gehirns (ca. 1 mm³) bei jungen und gesunden Personen, was die berühmte kanadische Neuroanatomin Sandra Witelson 1992 zu dem Kommentar beflügelte, dass eine neue Forschungsära, nämlich die „Kognitive Neuroanatomie“ entstanden sei. Während die in vivo-Neuroanatomie zu Beginn der 1990er-Jahre enorme Fortschritte macht, beginnt nun die funktionelle Magnetresonanztomographie (Englisch: functional magnetic resonance imaging, fMRI) ihren Siegeszug. Ausgangspunkt ist der von Linus Pauling beschriebene magnetische Suszeptibilitätsunterschied zwischen Oxy- und Deoxyhämoglobin. Diese Eigenschaft äußert sich in einer Beeinflussung des MR-Signals infolge von regionalen Sauerstoff- und Deoxyhämoglobinkonzentrationsänderungen und wurde von Kwong und Mitarbeitern erstmalig für die MRI beschrieben. Mittels geeigneter neu entwickelter Messsequenzen gelang somit die nicht invasive Quantifizierung neurophysiologischer Aktivität im menschlichen Gehirn. In der Folgezeit wurden die Messsequenzen verbessert, so dass nicht nur funktionelle Aufnahmen einiger weniger Schichten, sondern auch des ganzen Kopfes möglich wurden. Damit waren allerdings wieder neue Herausforderungen im Zusammenhang mit der statistischen Auswertung der fMRI-Daten entstanden. Wichtige Beiträge zur Lösung dieser Problematik wurden von der Londoner Arbeitsgruppe um Richard Frackowiak geleistet. So wurden z. B. adäquate statistische Modelle entwickelt und implementiert (Worsley und Friston). Gleichzeitig erfuhr auch die statistische Verarbeitung der anatomischen Daten bis hin zur Optimierung von Normalisierungsprozeduren enormen Auftrieb (Zilles und Ashburner).

Gegenwärtig kann so etwas wie Diversifizierung in der MRI-Technologie festgestellt werden. Lange Zeit galten 1,5 T-Geräte als Hochfeldgeräte und das Maximum des technisch Machbaren für die klinische Routine. Derzeit entwickeln sich 3 T-Geräte zum Standard und erste Forschungszentren installieren bereits 7 T-Geräte. Ob diese wesentliche Vorteile für die klinische Bildgebung versprechen und eine weite Verbreitung finden werden, bleibt abzuwarten. Wahrscheinlich werden sie größere Bedeutung für neuroanatomische Fragestellungen haben. Z. B. wenn es darum geht, räumliche Auflösungen zu erreichen, welche die kortikalen Kolumnen sichtbar machen. Für klassische Fragestellungen aus dem Bereich der kognitiven Neurowissenschaften werden aber die Geräte mit niedrigen Magnetfeldstärken noch für lange Zeit (wenn nicht gar Jahrzehnte) ausreichend sein.

Für die neurochirurgische Praxis sind die interventionellen MRI-Geräte von großer Bedeutung. Sie eröffnen neue Möglichkeiten in der Neurochirurgie. Mit diesen Geräten, welche mit relativ niedrigen Feldstärken arbeiten (0,2–0,5 T), ist es möglich, während der Operation anatomische Bilder anzufertigen, die zur besseren Navigation dienlich sind. Denkbar wäre, dass auch solche Geräte für die kognitive Neurowissenschaft Verwendung finden. Man könnte z. B. mit diesen Geräten präziser Stimulationsorte für die Transkranielle Magnetstimulation (TMS) identifizieren.

Geschichte der Elektroenzephalographie6

Der Liverpooler Arzt Richard Caton hat bereits 1875 elektrische Signale direkt an der Cortexoberfläche von Tieren gemessen. Er benutzte ein Gerät, das er „reflecting galvanometer“ nannte. Dieses Gerät wurde 1858 von Lord Kelvin erfunden. Zur Aufzeichnung der schwachen kortikalen Signale benutzte er eine einfache Technik, indem er die Position eines reflektierenden Spiegels, der an dem Galvanometer befestigt war, veränderte. Auf diese Art und Weise konnte er eine Verstärkung der gemessenen Signale erzielen und im Mikro-Ampere-Bereich messen. 1887 berichtete Caton auf dem neunten internationalen medizinischen Kongress in Washington, dass Variationen der Lichtintensität der Lichtstimuli, die dem Auge des Versuchstiers zugeführt wurden, zu Variationen in der gemessenen elektrischen kortikalen Aktivität des Gehirns führten. Aus Mangel an elektrischem Licht benutzte er Kerzen und offene Flammen. Im Übrigen entdeckte er, dass diese elektrischen Variationen Kortex kontralateral zum stimulierten Auge auftraten. Die meisten Physiologen beachteten die Entdeckungen von Caton nicht. Wahrscheinlich deswegen, da sie vorwiegend wissenschaftliche Zeitschriften lasen und nicht medizinische, in denen Caton publizierte. Lediglich der Pole Adolph Beck replizierte die Arbeit von Caton. Er verwandte nicht nur Lichtreize, sondern auch Geräusche (z. B. Händeklatschen). Diese Replikationen publizierte er dann 15 Jahre später als Caton in einem physiologischen Journal. Er ergänzte die Befunde Catons, indem er herausfand, dass die elektrischen Reaktionen nicht nur relativ punktförmig an bestimmten Stellen des Kortex auftraten, sondern auch das Gesamtmuster der kortikalen Erregung unterbrachen. Ein anderer Wissenschaftler namens Fleischel von Marxow machte eine ähnliche Entdeckung, die er allerdings als versiegelten Brief 1883 in einer Gruft versteckte. Erst nachdem Beck seine Befunde publizierte, offenbarte von Marxow seinen Befund. Nun begann von Marxow dafür einzutreten, dass er und nicht Beck der Entdecker dieses Phänomens sei. Dieser Streit wurde entschieden, als Caton darauf hinwies, dass er dieses Phänomen bereits 1875 beschrieben hatte.

Der Durchbruch des EEGs konnte allerdings erst 1920 verzeichnet werden, als Hans Berger, ein Österreicher, der an der Universität Jena arbeitete, die ersten EEG-Aufzeichnungen des menschlichen Gehirns gelangen. Berger kannte die Arbeiten von Caton sehr gut. Auch er arbeitete noch mit primitiven Geräten. Er nutzte allerdings bei seinen Messungen die seltenen Fälle aus, dass manche Personen unter der Kopfhaut keinen Schädel hatten. Auf diese Art und Weise konnte er relativ gut elektrische Signale an der Kopfoberfläche abgreifen. Im Übrigen erkannte er als Erster die Alpha-Wellen mit einer dominanten Frequenz von 10 Hz. Berger publizierte seine bis dahin gesammelten Befunde, die sich ausschließlich auf EEG-Messungen am Schädel seines Sohnes Klaus bezogen, erst 1929. In dieser Publikation berichtete er, dass die besten Signale im Occipitallappen erzielt werden. Die nächsten Jahre waren dadurch gekennzeichnet, dass Berger auszuschließen versuchte, dass die von ihm gemessenen Signale keine Artefakte des Elektrokardiogramms und des Blutdruckes seien. 1930 und 1931 publizierte Berger Arbeiten, in denen er wesentliche Grundlagen des EEGs beschrieb, z. B. erstmalig den Unterschied zwischen Beta- und Alpha-Wellen. Des Weiteren bezog er diese Oszillationen auch erstmalig auf psychische Prozesse, indem er feststellte, dass Beta-Aktivität vorwiegend während mentaler Anspannung auftritt. Er konnte auch feststellen, dass die Alpha-Wellen während des Schlafs, der Anästhesie und der Kokain-Stimulation abnehmen. Er machte auch die ersten klinisch relevanten Beobachtungen an verschiedenen Patientengruppen. In der Folgezeit wurden Bergers Arbeiten von der Firma Carl Zeiss technisch und finanziell unterstützt, was zur Konsolidierung der Befunde führte.

1934 errichteten Adrian und Matthews das erste EEG-Labor in Cambridge und bestätigten die Arbeiten von Berger. Sie entwickelten eine neue Ableitmethode, indem sie spezielle Elektroden verwandten. Ihre Befunde wurden in der Zeitschrift „Brain“ publiziert und waren letztlich dafür ausschlaggebend, dass Berger weltberühmt wurde. Berger wurde zweimal für den Nobelpreis vorgeschlagen. Er durfte diesen Preis allerdings aufgrund der Intervention der Nazis nicht annehmen und wurde zur Pensionierung gezwungen. Im Jahre 1941 beging Berger daraufhin Selbstmord.

Die EEG-Technologie war allerdings nicht mehr aufzuhalten und wurde vielfältig weiterentwickelt. Besondere Meilensteine sind die ereigniskorrelierten Potentiale (ERP: event-related-potentials), die „brain maps“ (Lehmann) und die neuen mathematischen Modelle zur Lösung des inversen Problems (Scherg, Coles, Hjortsjö). Gerade letztere Entwicklungen haben dazu geführt, dass das EEG nicht nur eine neurophysiologische Methode ist, mit der elektrische kortikale Aktivität gemessen werden kann, sondern dass das EEG auch in die Riege der bildgebenden Verfahren Einzug gehalten hat.

Konvergierend mit der Entwicklung des EEGs hat sich auch das MEG (Magnetenzephalogramm) etabliert. Dieses Verfahren registriert die sehr schwachen magnetischen Felder an der Kopfoberfläche. Mit diesem Verfahren sind Vor- und Nachteile verbunden, die im Kapitel 8.8 näher besprochen werden. Ob sich diese Methode gegenüber der wesentlich günstigeren EEG-Methode durchsetzt, bleibt abzuwarten. Eine sehr interessante Anwendung lässt sich allerdings in der fetalen MEG-Technik ausmachen. Mittels dieser Methode ist man in der Lage, die magnetischen Signale des Ungeborenen aufzuzeichnen.

Geschichte der Positronen-Emissions-Tomographie7

Schon der berühmte amerikanische Psychologe William James hat in seinem bemerkenswerten Buch (Principles of Psychology, 1890) eine Arbeit zitiert, die die Grundlage der bildgebenden Verfahren ist, die auf Veränderungen des zerebralen Blutflusses zurückzuführen sind. Dort bezog er sich auf eine Arbeit des italienischen Physiologen Angelo Mosso (1890; 1894). Dieser Wissenschaftler hat Patienten untersucht, denen wegen neurochirurgischer Eingriffe Teile des Schädels abgetragen wurden. Die unter der Kopfhaut liegenden Arterien waren somit besser zugänglich. Bei diesen Patienten konnte Mosso während mentaler Tätigkeiten Veränderungen der Pulsationen und der Temperatur unterhalb dieser Kopfhautabschnitte feststellen. Hiermit war der Grundstein für die Untersuchung des Zusammenhanges zwischen Veränderungen der kortikalen Durchblutung und psychischen Prozessen gelegt. Obwohl Roy und Sherrington in der Folgezeit einen Zusammenhang zwischen neuronaler Aktivität und kortikaler Durchblutung nachwiesen, wurde dies von bedeutenden Wissenschaftlern nicht akzeptiert. Ein wichtiger Gegner dieser Arbeiten war der Physiologe Leonard Hill. Erst John Foulton konnte 1928 erneut das Interesse auf den Zusammenhang zwischen kortikaler Durchblutung und psychischen Tätigkeiten lenken. Er untersuchte einen Patienten, der infolge einer neurochirurgischen Operation einen Schädeldefekt mit einer Spalte im okzipitalen Kortex über dem visuellen Kortex aufwies. Immer dann, wenn der Patient anspruchsvolle visuelle Tätigkeiten durchführte, nahmen die Durchblutungen im Bereich des visuellen Kortex zu. Am Ende des Zweiten Weltkrieges konnte ein neues Kapitel der Durchblutungsmessung eröffnet werden. Seymour Kety konnte 1964 anhand von autoradiographischen Messungen an Gehirnen von Versuchstieren den Zusammenhang von metabolischer Aktivität und Durchblutung eindeutig nachweisen. Obwohl diese Entdeckung für die heutige PET-Forschung fundamental ist, war sie seinerzeit praktisch unbedeutend und wurde von den meisten Neurophysiologen als unwichtig und umständlich abgelehnt. Erst als die ersten Durchblutungsmessungen des menschlichen Gehirns Mitte der 70er Jahre mittels radioaktiver Glukose bei Versuchstieren und später bei Menschen gelang, wurde das damit verbundene wissenschaftliche Potential erkannt. Es folgte zur gleichen Zeit die Entwicklung der Positronen-Emissions-Tomographie (PET), mit deren Hilfe In-vivo-Autoradiogramme (für den Blutfluss und die Glukoseverteilung) erstellt und regionale zerebrale Aktivitätsveränderungen gemessen werden konnten. In der Folgezeit gelang es, diese Technik zu verfeinern und auch präzise mit dem lokalen Sauerstoffverbrauch in Verbindung zu bringen. Die Messung der regionalen Durchblutung wurde dann die Methode der Wahl für die folgenden Jahre, da sich herausstellte, dass der Blutfluss relativ einfach und schnell (< 1 Minute) mittels eines einfach zu generierenden radioaktiven Tracers mit einer recht kurzen Halbwertszeit erfasst werden konnte. Diese Tracer ermöglichten im Übrigen auch die wiederholte Messung bei einer Versuchsperson. Der große Durchbruch der PET-Technik gelang allerdings durch eine konzertierte Aktion von Neuroradiologen, Nuklearmedizinern und kognitiven Psychologen. Durch die Verwendung der „Subtraktionslogik“ des niederländischen Psychologen Donders (siehe hierzu auch Kapitel 5.4.1) konnten kompliziertere Versuchsdesigns erstellt und ausgewertet werden, die es erlaubten, die zerebralen Durchblutungsprozesse mit ganz bestimmten psychischen Funktionen in Verbindung zu bringen (eine exzellente Übersichtsarbeit mit vielen Detailzitaten lieferte Raichle (1998)).

2.3 Verständnisfragen zu Kapitel 2

Definieren Sie den Begriff Bildgebung.

Welche Verfahren werden zu den klassischen bildgebenden Verfahren gerechnet?

Wann wurde der Begriff „Gehirn“ zum ersten Mal erwähnt?

In welchem Zusammenhang erfolgte diese Erwähnung?

Warum wurde in der Antike offenbar keine

bzw.

kaum Hirnforschung betrieben?

Warum sind die Befunde zur Hirnforschung aus der Antike nicht mehr auffindbar?

Wann fand die erste dokumentierte gerichtsmedizinische Sektion statt?

Welcher berühmte Künstler hat als Erster systematische Körperstudien betrieben?

Wann wurde das erste anatomische Handbuch veröffentlicht? Wer war der Autor?

Beschreiben Sie die ventrikuläre Lokalisationshypothese.

Welche Bedeutung hat das Gehirn im Rahmen dieser Hypothese?

Welche Künstler (Wissenschaftler) haben optische Beispiele für die ventrikuläre Lokalisationshypothese geliefert?

Welche Funktionen wurden dem ersten, zweiten und dritten Ventrikel zugeordnet?

Was versteht man unter der Phrenologie und wer waren die wichtigsten Vertreter?

Bewerten Sie die Phrenologie.

Mit welchen Befunden begann die moderne Hirnforschung

bzw.

die Neuropsychologie?

Erläutern Sie das Werk von Cajal und Golgi.

Beschreiben Sie das Werk von Korbinian Brodmann.

Was haben die Neurochirurgen Talairach und Tournoux 1988 entwickelt?

Wann wurde der erste Computertomograph entwickelt?

Wie hieß der Erfinder des ersten CTs und wo arbeitete er?

Seit wann ist der CT im klinischen Einsatz?

Mit wie vielen Detektoren haben die ersten CT-Scanner gearbeitet?

Wie viele Detektoren sind in CT-Scannern der dritten Generation angebracht?

Wann wurde die vierte CT-Scanner-Generation vorgestellt?

Wie viele Detektoren hatten diese CT-Scanner?

Wann wurde der Elektronenstrahl-CT entwickelt?

Was war der Vorteil?

Wann wurden die ersten Spiral-CTs entwickelt?

Wodurch ist die neue Generation der CT-Scanner gekennzeichnet?

Wo findet CT derzeit Anwendung?

Was hat Nikola Tesla zur Entwicklung der Magnetresonanz-Tomographie beigetragen?

Welche Entdeckung von Pauli war für die Magnetresonanz-Tomographie von elementarer Bedeutung?

Von wem stammen die ersten MR-Aufnahmen?

Was hat Richard Ernst zur MR-Technologie beigetragen?

Warum war der Schotte Damadian für die MR-Technik so bedeutend?

Was hat Peter Mansfield zur MR-Technik beigetragen?

Gab es Unfälle bei der Verwendung der MR-Technik?

Was versteht man unter dem Begriff „Kognitive Neuroanatomie“?

Welchen Beitrag hat Linus Pauling für die MR-Technologie geleistet?

Mit welchen Feldstärken werden gegenwärtig MR-Geräte betrieben?

Was ist das Besondere an interventionellen Magnetresonanztomographen?

Mit welchen Namen ist die Entwicklung des EEGs verbunden?

Wem wird die „Erfindung“ des EEGs zugeschrieben?

Wann wurde das erste EEG-Labor außerhalb Jenas eingerichtet?

Welcher Wissenschaftler hat zuerst Durchblutungsänderungen gemessen?

Wer wies auf einen Zusammenhang zwischen Durchblutung und elektrischer Aktivität hin?

Welche experimentelle Technik verhalf der PET-Technologie zum Durchbruch?

1 Im Rahmen dieses Buches wird als Abkürzung für den doch recht langen und umständlichen Begriff Magnetresonanztomographie durchgängig die Englische Abkürzung MRI (nach Magnetic Resonance Imaging) verwendet. So bleibt die Abkürzung mit der in der Literatur konsistent.

2 Eine hervorragende Darstellung der Geschichte der Bildgebung findet sich bei Raichle (2000; 1998). Diesem Buchkapitel und der Übersichtsarbeit sind viele der hier aufgeführten Informationen entnommen worden.

3 Diese Abbildungen habe ich vor einigen Jahren auf einer mir nicht mehr bekannten und zugänglichen Webseite gefunden. Insofern kann ich leider die Quelle nicht angemessen würdigen. Ich bitte dies zu entschuldigen. Die Abbildungen sind allerdings sehr informativ, so dass ich nicht widerstehen konnte, sie an dieser Stelle zu präsentieren.

4 Die Darstellung der historischen Entwicklung der Computertomographie ist angelehnt an die hervorragende und lesenswerte Darstellung auf der Webseite www.radiologienetz.de. Dort sind im Übrigen noch neben vielen sehr schönen Bildern auch sehr viele nützliche und interessante Informationen bezüglich der Radiologie bzw. Neuroradiologie zu finden.

5 Die Darstellung der historischen Entwicklung der Magnetresonanztomographie ist wie die Darstellung der Geschichte der Computertomographie angelehnt an die hervorragende und lesenswerte Darstellung auf der Webseite www.radiologienetz.de.

6 Die Informationen bzgl. der Geschichte des EEGs habe ich mehreren Quellen entnommen. Zu erwähnen sind hier das Lehrbuch „Cognitive Neuroscience“ von Gazzaniga et al. (2002) und einige sehr gute Internetseiten (z. B. http://biocybernaut.com/tutorial/eeg.html) mit vielfältigen Darstellungen der geschichtlichen Entwicklungen. Manche der geschichtlichen Darstellungen waren für mich nicht gänzlich validierbar, insofern kann ich für die Korrektheit der Informationen keine Garantie übernehmen. Eine sehr gute allerdings kurze Darstellung der Geschichte des EEGs ist auch in dem Buchkapitel von Raichle (2000) zu finden.

7 Für dieses Kapitel habe ich mich gänzlich auf die Arbeiten von Raichle (2000; 1998) verlassen.

3 Die Magnetresonanztomographie

Wenn man von der Magnetresonanztomographie des Gehirns spricht, muss man zunächst zwei verschiedene Messansätze unterscheiden: die strukturelle Magnetresonanztomographie und die funktionelle Magnetresonanztomographie. Im Rahmen der strukturellen Magnetresonanztomographie werden bestimmte Hirnstrukturen sichtbar gemacht, so dass anatomische Analysen (In-vivo-Morphometrie) möglich sind. Bei der funktionellen Magnetresonanztomographie werden bestimmte neurophysiologische Veränderungen in bestimmten Hirnregionen mehr oder weniger präzise gemessen. Wir werden diese beiden Ansätze in getrennten Kapiteln näher beschreiben. Grundsätzlich basieren beide Messansätze auf dem gleichen physikalischen Prinzip, nämlich dem Kernspin. Bevor wir mit den physikalischen Erläuterungen beginnen, sollen noch einige terminologische Besonderheiten geklärt werden. Es hat sich mittlerweile in der internationalen und nationalen Literatur etabliert, vom Magnetic Resonance Imaging (MRI) und vom functional Magnetic Resonance Imaging (fMRI) zu sprechen. Ich werde aus Gründen der Konsistenz auch in diesem deutschen Text die dem Englischen entlehnten Abkürzungen verwenden.

3.1 Kernspin und Magnetisierung8

Abbildung 4: Schematische Darstellung eines Protons, das infolge seines Spins ein magnetisches Feld aufbaut. N und S stehen für Nord und Süd und repräsentieren die jeweiligen Pole des Magnetfeldes.

Bringt man solche Spins in ein starkes Magnetfeld, kann man verschiedene für das MRI wichtige Phänomene beobachten. Wie oben bereits angedeutet, verhalten sich Spins wie Kreisel. Wirkt eine äußere Kraft auf einen Kreisel ein, um die Lage der Rotationsachse zu verändern, so macht der Kreisel eine Ausweichbewegung, welche als Präzessionsbewegung bezeichnet wird. Wirken ständig Kräfte an der Spitze des Kreisels ein, so entsteht eine Reibung, die dem Kreisel Energie entzieht und ihn bremst. Dadurch neigt sich zunehmend die Drehachse, bis der Kreisel quasi „umfällt“.

Durch ein von außen angelegtes Magnetfeld (B0) richten sich die Spins wie Kompassnadeln entlang des Feldes aus. Die dann entstehenden Kreiselbewegungen der Spins erfolgen mit einer charakteristischen Frequenz, welche als Larmorfrequenz bezeichnet wird. Diese Frequenz ist proportional zur Magnetfeldstärke des äußeren Magnetfelds. Mit der Zeit richten sich die Spins parallel zum äußeren Magnetfeld aus und geben dabei Energie an ihre Umgebung ab. Die Larmorfrequenz ist für das MRI fundamental, denn darauf beruht praktisch die gesamte MRI-Bildgebung. Aus diesem Grunde soll an dieser Stelle noch mal die Definition der Larmorfrequenz explizit angegeben werden:

Die Larmorfrequenz ist die Präzessionsfrequenz eines Spins in einem Magnetfeld. Die Larmorfrequenz ist proportional zur Magnetfeldstärke (B0) und ergibt sich aus der Larmor-Gleichung9:

Abbildung 5: Im Normalfall (ohne dass die Protonen in einem magnetischen Feld platziert sind) sind die Protonen hinsichtlich ihrer Magnetfeldkennlinien zufällig ausgerichtet.

Die in einem Magnetfeld präzessierenden Spins „beruhigen“ sich und streben einen stabilen Zustand an, in dem alle Spins mehr oder weniger entlang der magnetischen Achse ausgerichtet sind. D. h. mit zunehmender Ausrichtung der Spins in dem Magnetfeld baut sich eine Längsmagnetisierung (Mz) auf. In der Literatur wird der Verlauf des äußeren Magnetfeldes B0 von unten nach oben dargestellt und diese Richtung wird als Z bezeichnet. Die anderen Dimensionen sind demnach X und Y. Die xy-Ebene steht senkrecht auf der Z-Achse und liegt somit in den Abbildungen horizontal. Um eine große Längsmagnetisierung zu erhalten, muss ein starkes Magnetfeld anliegen. Handelsübliche MR-Tomographen generieren sehr starke Magnetfelder, welche wesentlich stärker (20 000–80 000-mal) als die Erdanziehungskraft sind. Dadurch werden natürlich größere Längsmagnetisierungen erreicht. Für die messtechnische Ausnützung des relativ „schwachen“ MR-Signals sind sehr große Magnetisierungen notwendig.

Sind die Spins durch ein äußeres Magnetfeld entlang der Magnetfeldlinie ausgerichtet worden, befinden sie sich in einem relativ stabilen Zustand. Führt man diesem stabilen Spin-System mittels eines Hochfrequenzimpulses (elektromagnetische Welle hoher Frequenz) Energie zu, kann dieses System gestört werden. Weist die elektromagnetische Welle die gleiche Frequenz wie die Larmorfrequenz auf, wird eine so genannte Resonanzbedingung erzeugt. Die „eingestrahlte“ elektromagnetische Welle wird durch einen sehr starken Radiosender erzeugt und mit einer geeigneten Spule auf das Gehirn fokussiert.

Abbildung 6: Die in einem Magnetfeld platzierten Spins orientieren sich wie kleine Stabmagneten. Die überwiegende Anzahl der Protonen orientiert sich in eine Richtung (up-Spin; parallel), während ein geringer Anteil von Protonen sich antiparallel ausrichtet (down-Spin; antiparallel).

Abbildung 7: Sind die Protonen in einem Magnetfeld platziert, orientieren sie sich entweder „parallel“ oder „antiparallel“.

Durch diese Energiezufuhr werden die Spins aus der Z-Richtung quasi „umgeklappt“ bzw. „gekippt“. Diesen Vorgang bezeichnet man auch als Anregung des Spin-Spin-Systems (im Jargon wird auch vom Spin-Spin-Ensemble gesprochen). Durch die Wahl geeigneter Hochfrequenzimpulse (Dauer und Leistung sind wichtige Parameter) kann die „Kipp-Art“ sehr präzise beeinflusst werden. So gibt es Hochfrequenzimpulse, welche eine Auslenkung der Längsmagnetisierung um genau 90° erreichen (90°-Impulse). Damit werden alle Spins und mit ihnen die gesamte Magnetisierung Mz in die XY-Ebene umgeklappt, so dass eine Mxy-Magnetisierung (Quermagnetisierung10) entsteht. Weil durch das äußere Magnetfeld die Spins die Tendenz haben, wieder in die Z-Richtung zurückzukehren, beginnen die Spins wiederum um die Z-Achse zu präzessieren. Sie drehen sich also in der XY-Ebene, und mit ihnen dreht sich der magnetische Summenvektor, der nun nicht mehr als Mz, sondern als Mxy benannt wird, um deutlich zu machen, dass er jetzt in der XY-Ebene liegt. Die Bewegung bzw. Rotation von Mxy (die man sich vorstellen kann wie das sich drehende Licht eines Leuchtturmes) wirkt wie ein elektrischer Generator und induziert in der Empfangsspule eine Wechselspannung, deren Frequenz gleich der Larmorfrequenz ist. Dies ist das eigentliche MR-Signal, das von spezialisierten Verstärkern aufgefangen und angeschlossenen Computern für die Bildgebung weiterverarbeitet wird.

Abbildung 8: Dargestellt sind die drei Dimensionen (auch Ebenen genannt), die zur Beschreibung des Magnetfeldes herangezogen werden. Mz ist die Longitudinalmagnetisierung und Mxy die Transversalmagnetisierung.

Diese Rotation der Spins in XY-Ebene wird transversale Magnetisierung Mxy (oder Quermagnetisierung) bezeichnet. Diese transversale Magnetisierung bleibt allerdings nicht erhalten, sondern schwächt sich zunehmend ab und entwickelt sich wieder zum Ausgangszustand zurück. Zwei Vorgänge sind an diesem „Rückbildungsprozess“ beteiligt, einerseits die Spin-Gitter-Wechselwirkung und andererseits die Spin-Spin-Wechselwirkung. Die Spin-Gitter-Wechselwirkung wird auch als T1-Relaxation (Längsrelaxation) und die Spin-Spin-Wechselwirkung als T2-Relaxation (Querrelaxation) bezeichnet.

Tabelle 1: Eigenschaften der wichtigsten in der Magnetresonanz verwendeten Kerne.

Isotop

Spin

L

Gyromagnetisches Verhältnis

MHz/T

Natürliche Häufigkeit

1H

1/2

42,6

99,9

13C

1/2

10,7

1,1

14C

1

3,1

99,6

19F

1/2

40,1

100

23Na

³/2

11,3

100

31P

1/2

17,3

100

35Cl

³/2

4,2

75,8

39K

³/2

1,9

93,3

Bislang wurden die Spins und die zugehörigen physikalischen Effekte für Wasserstoffatome beschrieben. Natürlich können ähnliche Effekte auch für andere Elemente mit ungerader Ladungszahl gefunden werden. Die wichtigsten in der Kernspintomographie genutzten Kerne sind in Tabelle 1 aufgeführt. Wie man sieht, hat jeder Kern seine eigene Larmorfrequenz und damit Resonanz. Man erkennt allerdings auch, dass Wasserstoffkerne am häufigsten vorkommen und auch die größte Empfindlichkeit aufweisen. Deshalb werden die meisten neuroanatomischen Studien im Zusammenhang mit Kognitionsfragestellungen auf der Basis des Spins der Wasserstoffatome durchgeführt.

Die meisten Kerne haben einen Kern- und Eigendrehimpuls P. In der klassischen Vorstellungsweise rotiert der kugelförmig angenommene Atomkern um eine Kernachse. Quantenmechanische Rechnungen zeigen, dass dieser Drehimpuls wie so viele atomare Größen gequantelt ist:

γ ist das gyromagnetische Verhältnis. Mit den Gleichungen (ii) und (iii) erhält man für das magnetische Moment B:

3.2 Die T1-Relaxation

Wie oben dargestellt, werden die Spins durch einen „eingestrahlten“ Hochfrequenzimpuls aus der Z-Richtung „gekippt“. Es entsteht also eine Transversalmagnetisierung in der Mxy-Ebene. Diese bleibt allerdings nicht erhalten, sondern bildet sich wieder zur Längsmagnetisierung (dem Gleichgewichtszustand) zurück. Man spricht auch von einem Erholungsprozess (Relaxation). Diesen Vorgang nennt man die longitudinale Relaxation