29,99 €
Strahlen und Gesundheit beschreibt in allgemein verständlicher Form sowohl die diagnostischen und therapeutischen Möglichkeiten der Strahlenanwendung als
auch die Gefahren für die menschliche Gesundheit. Dabei werden die Erkenntnisse von medizinischer Technik, Strahlenbiologie und -medizin und Strahlenepidemiologie
berücksichtigt, ohne sich zu sehr in wissenschaftlichen Details zu verlieren. In einem eher wissenschaftlich orientierten zweiten Teil werden die Grundlagen ausführlicher erläutert und Verweise auf die aktuelle Literatur gegeben. Die Behandlung erstreckt sich nicht nur auf ionisierende Strahlungen wie Röntgen- und Gammastrahlen, sondern auch auf das Ultraviolett und die Anwendungen in der Mobilkommunikation. Ein spezielles Kapitel widmet sich der Strahlung in der Umwelt.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 452
Veröffentlichungsjahr: 2012
Inhaltsverzeichnis
Danksagungen
Vorwort
Farbtafel
1 Die Welt der Strahlen und Wellen
1.1 Einführung
1.2 Elektromagnetische Wellenstrahlung
1.3 Radioaktivität
1.4 Ultraschall
2 Ein Blick in die Biologie
2.1 Grundsätzliches
2.2 Zellen
2.3 Organe und Gewebe
2.4 Tumoren
3 Wenn Strahlung auf den Körper trifft…
3.1 Eindringvermögen
3.2 Wechselwirkungsprozesse
3.3 Expositionsmaße und ihre Einheiten
4 Der Blick in das Innere: Strahlendiagnostik
4.1 Einleitende Vorbemerkungen
4.2 Röntgendiagnostik
4.3 Nuklearmedizin
4.4 Magnetresonanztomographie (MRT)
4.5 Ultraschalldiagnostik (Sonographie)
5 Strahlenrisiken
5.1 Vorbemerkungen
5.2 Übersicht
5.3 Frühschäden
5.4 Spätwirkungen
5.5 Strahlen und das Ungeborene
6 Die gar nicht immer liebe Sonne…
6.1 Vorbemerkungen
6.2 Ultraviolette Strahlen
6.3 Sichtbare Strahlung
6.4 Infrarot, Terahertzwellen
6.5 Laser
7 Handys, Mikrowellenherde und Strommasten
7.1 Einleitung und Übersicht
7.2 Hochfrequenzfelder
7.3 Masten und Stromversorgungsleitungen
8 Heilen mit und durch Strahlen
8.1 Einleitung
8.2 Ionisierende Strahlen
8.3 Ultraviolette und sichtbare Strahlung
8.4 Hochfrequente Felder
9 Strahlen und Lebensmittel
9.1 Einleitung
9.2 Radioaktivität in Lebensmitteln
9.3 Lebensmittelbestrahlung
9.4 Und die Mikrowelle in der Küche?
10 Strahlen in unserer Umwelt
10.1 Übersicht
10.2 Umweltstrahlung und ihre Bedeutung
10.3 Zivilisatorische Einflüsse
10.4 „Esoterische“ Strahlenquellen – von Erdstrahlen, Wünschelruten & Co.
11 Erzeugung und Wechselwirkungen von Strahlung – etwas detaillierter
11.1 Ionisierende Strahlen
11.2 Optische Strahlungen
12 Strahlenwirkungen in der Zelle – etwas näher betrachtet
12.1 Übersicht
12.2 Initiale DNA-Veränderungen
12.3 Strahleninduzierte Veränderungen der Chromosomen
12.4 Zelluläre Endpunkte: Teilungsfähigkeit, Mutationen, Transformationen
12.5 Modifikationen der Strahlenwirkung
12.6 Abschließende Synopse
13 Strahlendosen und ihre Messung
13.1 Vorbemerkungen und Übersicht
13.2 Kalorimetrie
13.3 Elektrische Verfahren
13.4 Optische Verfahren
13.5 Chemische Verfahren
13.6 Biodosimetrie
14 Die Epidemiologie und ihre Fallstricke
14.1 Vorbemerkungen
14.2 Studientypen
14.3 Fallstricke der Epidemiologie – die Bradford-Hill-Kriterien
15 Das System des Strahlenschutzes
15.1 Übersicht
15.2 Ionisierende Strahlen
15.3 Nicht ionisierende Strahlen
16 Strahlenzwischenfälle
16.1 Übersicht
16.2 Nicht nukleare Ereignisse
16.3 Nukleare Zwischenfälle
16.4 Schlussbemerkung
Literatur
Weiterführende Literatur (Auswahl,nur deutschsprachige Werke)
Epilog
Glossar
Index
Beachten Sie bitte auch weitere interessante Titel zu diesem Thema
Lyss, A. P., Fagundes, H., Corrigan, P.
Chemotherapie und Bestrahlung für Dummies
2009
ISBN: 978-3-527-70479-8
Bäuerle, D.
Laser
Grundlagen und Anwendungen in Photonik, Technik, Medizin und Kunst
2009
ISBN: 978-3-527-40803-0
Häußler, P.
Donnerwetter– Physik!
2006
ISBN: 978-3-527-31644-1
Diehl, J. F.
Radioaktivität inLebensmitteln
2003
ISBN: 978-3-527-30722-7
Lilley, J. S.
Nuclear Physics
Principles and Applications
2001
ISBN: 978-0-471-97936-4
Gottwald, W., Heinrich, K. H.
UV/VIS-Spektroskopie für Anwender
1998
ISBN: 978-3-527-28760-4
Autor
Prof. Dr. Jürgen Kiefer
Justus-Liebig-Universität
Strahlenzentrum
Leihgesterner Weg 217
35392 Gießen
1. Auflage 2012
Alle Bücher von Wiley-VCH werden sorgfältig erarbeitet. Dennoch übernehmen Autoren, Herausgeber und Verlag in keinem Fall, einschließlich des vorliegenden Werkes, für die Richtigkeit von Angaben, Hinweisen und Ratschlägen sowie für eventuelle Druckfehler irgendeine Haftung
Bibliografische Information der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über <;http://dnb.d-nb.de> abrufbar.
© 2012 Wiley-VCH Verlag & Co. KGaA, Boschstr. 12, 69469 Weinheim, Germany
Alle Rechte, insbesondere die der Übersetzung in andere Sprachen, vorbehalten. Kein Teil dieses Buches darf ohne schriftliche Genehmigung des Verlages in irgendeiner Form – durch Photokopie, Mikroverfilmung oder irgendein anderes Verfahren – reproduziert oder in eine von Maschinen, insbesondere von Datenverarbeitungsmaschinen, verwendbare Sprache übertragen oder übersetzt werden. Die Wiedergabe von Warenbezeichnungen, Handelsnamen oder sonstigen Kennzeichen in diesem Buch berechtigt nicht zu der Annahme, dass diese von jedermann frei benutzt werden dürfen. Vielmehr kann es sich auch dann um eingetragene Warenzeichen oder sonstige gesetzlich geschützte Kennzeichen handeln, wenn sie nicht eigens als solche markiert sind.
PrintISBN: 978-3-527-41099-6
ePDF ISBN: 978-3-527-64843-6
ePub ISBN: 978-3-527-64842-9
mobil ISBN: 978-3-527-64841-2
oBook ISBN: 978-3-527-64840-5
WK für mehr als 50 Jahre Geduld
Danksagungen
Für die Erlaubnis des Abdrucks von Abbildungen danken wir:
Prof. Dr. Föll, Institut für Materialwissenschaften, Universität Kiel
Bundesamt für Strahlenschutz (BfS)
Physikalisch-Technische Bundesanstalt (PTB)
Georg Thieme Verlag
Springer-Verlag (Spektrum Akademischer Verlag)
Siemens AG
Universitätsklinikum Heidelberg
Deutsches Röntgenmuseum
Oak Ridge Associate Universities
sowie Dr. Andrea Kinner und Dr. C. Johannes.
Vorwort
Strahlen tragen für viele Menschen das Signum des Unheimlichen, manchmal des Mythischen, oft der Gefahr. Dieses Buch beschäftigt sich ihrem Einfluss auf die menschliche Gesundheit, was sofort die Assoziation mit potenziellen oder auch realen negativen Folgen hervorruft. Auch über sie soll hier gesprochen werden, aber es gilt auch ihre positiven Möglichkeiten gebührend heraus zu stellen. Es ist das Ziel, realistisch und unaufgeregt aufzuklären und Fakten darzustellen – auf dem Boden wissenschaftlicher Befunde, soweit sie vorliegen. Auch Unsicherheiten sollen nicht verschwiegen werden.
Die Einstellung zur Strahlung in unserer Gesellschaft hat eine wechselvolle, oft irritierende, Geschichte. Kurz nach der Entdeckung von Röntgenstrahlen und Radioaktivität erhoffte man sich wahre Wunderdinge, und die Gefahren spielten im öffentlichen Bewusstsein keine sehr große Rolle. Auch die Möglichkeiten der Anwendung der Kernspaltung wurden geradezu enthusiastisch gefeiert. Dabei stand die Energiegewinnung im Vordergrund, das Potenzial zur Zerstörung war den Fachleuten natürlich bekannt, blieb aber in den Geheimlabors der Militärs weitgehend verborgen. Diese Situation änderte sich schlagartig mit den Bombenabwürfen auf Hiroshima und Nagasaki im Sommer 1945, allerdings speiste sich das Entsetzen mehr aus der Zerstörungskraft, kaum aus den Gefahren der Strahlung, die erst nach und nach realisiert wurden. Es war ein genialer Schachzug des damaligen amerikanischen Präsidenten Dwight D. Eisenhower, die weltweite friedliche Nutzung der Kernenergie zu einem Ziel seiner Regierung zu machen und dadurch von den fürchterlichen Folgen der weiteren Entwicklung atomarer Waffen, und der Rolle der USA dabei, abzulenken. Seine Rede vor den Vereinten Nationen am 8. Dezember 19531) („Atoms for Peace“) führte nicht nur zur Gründung der „International Atomic Energy Agency“ (IAEA), sondern löste auch weltweite Aktivitäten aus, deren erster Kulminationspunkt eine große internationale Konferenz im August 1955 verbunden mit einer Ausstellung in Genf war, die später auch in der Essener Gruga gezeigt wurde. Die Erinnerung an die Bombe schien verdrängt, eine neue Euphorie brach aus. Deutschland hatte seinen Teil daran, wobei auch eine Rolle spielte, dass der nunmehr von den Alliierten erlaubte Bau nuklearer Anlagen als Zeichen wiedererlangter Souveränität empfunden wurde. Sogar ein „Atomministerium“ wurde geschaffen. Die Industrie verhielt sich zögerlich, die (wirtschaftlichen) Unsicherheiten schienen zu groß. Mit kräftiger politischer Unterstützung – auch und nicht zuletzt durch die SPD – entstanden dann die ersten Kernkraftwerke. Der Stimmungswandel zeichnete sich in den 1970er Jahren ab. Wie nicht ganz selten in der Geschichte startete er mit einem „Bauernaufstand“: Als am Oberrhein bei Wyhl ein Kraftwerk errichtet werden sollte, fürchteten die Winzer, dass die Schwaden der Kühltürme ihr wundervolles Mikroklima zerstören würde und setzten sich letztlich erfolgreich zur Wehr. Mit Strahlung hatte das ursprünglich wenig zu tun, was sich dann aber ändern sollte. Die aufstrebende „grüne Bewegung“ machte die Gegnerschaft zur Kernenergie alsbald zu ihrem Markenzeichen und Identifikationsmerkmal. Die Auswirkungen der Katastrophe von Tschernobyl taten ein Übriges. Die heutige Lage ist bekannt: eine klare Mehrheit der Bevölkerung lehnt die Verwendung der Kernenergie ab.
Man mag dies bedauern oder begrüßen, das ist hier nicht das Thema. Ganz bewusst wird hier keine Stellung bezogen (der Autor besitzt eine, aber sie bleibt hoffentlich verborgen). Schlimm wird die Situation jedoch dadurch, dass nun alles, was auch im Entferntesten mit Strahlung in Verbindung gebracht werden kann, als bedrohlich empfunden wird und als weltliches Teufelswerk angesehen wird, was mit steigender Skepsis gegenüber Wissenschaft und Technik einhergeht. Dem durch objektive Information entgegen zu wirken, bildet ein Hauptanliegen dieses Buches. Es lässt sich nicht vermeiden, sich ab und an auch deutlich gegen den derzeitigen „Mainstream“ zu stellen, durch Rückgriff auf die zahlreich angegebenen Quellen mag der Leser sich selbst ein Urteil bilden. Allerdings, so genannte „graue Literatur“ von Bürgerinitiativen, Umweltverbänden etc. wird in der Regel nicht herangezogen, da viele der dort gemachten Aussagen schwer oder kaum verifizierbar sind. Wenn sie sich auf Publikationen nach anerkannten wissenschaftlichen Standards beziehen, werden sie selbstverständlich angemessen berücksichtigt.
Strahlung ist ein physikalisches Phänomen. Es lässt sich also nicht vermeiden, auch auf die Physik einzugehen. Aus langjähriger Erfahrung mit Studenten und Kursteilnehmern vor allem medizinischer und biologischer Disziplinen weiß ich, dass diese Ankündigung viele Leser dazu bringen wird, das Buch schon jetzt zu schließen (schlecht für den Autor) oder es nicht zu kaufen (schlecht für den Autor und den Verlag). Sie erinnern sich an frustrierende Schulstunden oder Vorlesungen, aus denen sie mit der Überzeugung heraus gingen, diese Wissenschaft sei schwer und für „normale“ Menschen nicht zu verstehen. Sie erliegen dabei einem weit verbreiteten Irrtum: In Wirklichkeit ist die Physik die einfachste Naturwissenschaft – man muss es nur merken. Im Gegensatz zu Biologie, Chemie oder auch Anatomie kommt man mit einem Minimum an zu memorierenden Einzelheiten aus, auf Strukturformeln, Pflanzen- oder Tiernamen oder eine Unmenge lateinische Termini kann man weitgehend verzichten. Die physikalische Wissenschaft entwickelt sich aus wenigen Grundprinzipien, auf denen sich das ganze Gebäude aufbaut. Dieses zu verstehen, erfordert nicht unerhebliche intellektuelle Anstrengung, die allerdings belohnt wird mit einem „Heureka-Erlebnis“, wie es schon im dritten Jahrhundert vor Christus dem Griechen Archimedes auf Syrakus widerfuhr, als er herausgefunden hatte, nach welchem Prinzip der Auftrieb in Flüssigkeiten funktioniert.
Um den möglichen Abschreckungscharakter abzumildern, ist dieses Buch in zwei große Abschnitte unterteilt: im ersten werden die Fakten dargestellt und die wissenschaftlichen Begründungen kurz gehalten, im zweiten (ab Kapitel 11) wird auf diese ausführlicher eingegangen und auf weiterführende Literatur verwiesen. Quellen und Literaturverweise finden sich in den Anmerkungen. Das Internet eröffnet heute Zugänge, die früher undenkbar waren. Aus diesem Grunde sind auch, wo immer möglich, entsprechende Adressen angegeben. Der Autor hofft, auf diese Weise verschiedenen Anforderungen gerecht zu werden, nämlich über den gegenwärtigen Stand der Kenntnisse über Möglichkeiten und Gefahren der Strahlenanwendung zunächst mit einem Minimum an technischen Details aufzuklären, auf der anderen Seite aber auch diejenigen Leser zu bedienen, die etwas tiefer in die Materie eindringen möchten. Allerdings soll es kein wissenschaftliches Lehrbuch werden, sondern dem Nichtfachmann (was die Frauen einschließt), der an der Thematik generell interessiert ist, Information liefern.
Der Autor hat als „gelernter“ Physiker viele Jahrzehnte mit nicht nachlassender Faszination Strahlenbiologie betrieben, auch im Ruhestand lässt ihn das Gebiet nicht los. Die im wahrsten Sinne des Wortes tief greifenden Entwicklungen der modernen Biologie spiegeln sich auch in dieser Teildisziplin wider, die auch selbst Einiges zu den neuen Erkenntnissen beigetragen hat. Ab und an mag in diesem Buch etwas durchscheinen von der Erregung, welche die Forscher erfasste, wenn sie glaubten, bewegend Neuem auf der Spur zu sein. Einige mehr persönlich gefärbte Aspekt werden im „Epilog“ angesprochen.
Das Feld der Strahlenforschung ist auch heute noch in beachtlicher Bewegung, neue unerwartete Erkenntnisse kommen laufend hinzu. Insofern kann hier nur eine Momentaufnahme geliefert werden, nicht alles, was neu aufscheint, wurde erwähnt, einmal, um den Leser nicht zu sehr zu verwirren, vor allem aber, weil nicht immer sicher ist, in wie weit die Ergebnisse auch Einfluss auf die Beurteilung gesundheitlicher Wirkungen haben.
Mit Bedauern und auch Traurigkeit muss man feststellen, dass die Abkehr von der Kernenergie leider die gesamte Strahlenforschung in Misskredit gebracht hat, so dass sich junge Menschen von ihr abwenden. Wie immer man zu der jüngsten Entwicklung stehen mag, der Verzicht auf weitere Forschungen wäre ein herber Verlust, darüber hinaus würde Deutschland international als Gesprächspartner auf einem Gebiet ausfallen, auf dem es einst eine Führungsrolle innehatte. Hoffen wir, dass es dazu nicht kommt!
Die Rolle des Wissenschaftlers ähnelt der des unerfüllten Liebhabers. Immer, wenn man glaubt, dem Brunnen der Erkenntnis näher gekommen zu sein, sprudeln neue Quellen. Man ist nie fertig, „und das ist auch gut so…“. So kann man auch dieses Buch nicht anders auf die Reise zum Leser schicken als man mit den Worten, die Beethoven seiner „unsterblichen Geliebten“ widmete:
„Nimm sie hin denn, diese Lieder,
Die ich dir, Geliebte, sang …“
Romantische Gefühle werden beim Lesen sicher nicht aufkommen, vielleicht aber kann ein Informationsbedürfnis befriedigt werden. Wenn dem so ist, und möglicherweise der Wunsch zu weiterem Nachfragen geweckt wird, ist ein bescheidenes Ziel erreicht.
Wettenberg/Giessen, Sommer 2012
Jürgen Kiefer
1)http://web.archive.org/web/20070524054513/http://www.eisenhower.archives.gov/atoms.htm
Farbtafel
Abb. 1.2 Elektromagnetische Wellen. [1]
Abb. 1.4 Strahlenspektrum der Sonne: Man sieht, dass im UV und im IR große Bereiche durch die Absorption von Ozon (O3), Sauerstoff (O2), Wasser (H2O) und Kohlendioxid (CO2) in der Atmosphäre abgeschwächt werden. [2]
Abb. 2.3 Die Chromosomen einer menschlichen (männlichen) Zelle (Karyogramm). Die Zahlen entsprechen der heute üblichen Klassifizierung, X und Y sind die Geschlechtschromosomen, in weiblichen Zellen findet man zwei X-Chromosomen, in männlichen ein X- und ein Y-Chromosom (dankenswerterweise zur Verfügung gestellt von Dr. C. Johannes, Univ. Duisburg-Essen).
Abb. 6.1 Die Anteile der solaren UV-Strahlung, welche die Erdoberfläche erreichen und ihre Eindringtiefen in die menschliche Haut (Quelle: Strahlenschutzkommission (SSK), 1997 [28]).
Abb. 6.5 Malignes Melanom (Quelle: SSK1).
Abb. 12.3 Immunchemische Färbung von DNADoppelstrangbrüchen im Kern einer mit Röntgenstrahlen exponierten Säugerzelle. Jeder Punkt entspricht einem Doppelstrangbruch. (Foto: Dr. Andrea Kittler)
Abb. 12.4 Pyrimidindimere im DNA-Doppelstrang (NASA/David Herring).
Abb. Radonexpositionen in Deutschland (Quelle: BfS).
Das Wort „Strahlen“ birgt für viele Menschen – je nach Gemütslage – etwas Leuchtendes, oft aber auch Unheimlich-Mystisches. Im Alltag verbindet man damit Gedanken an die strahlenden Augen der Kinder oder von Liebenden, man denkt an das strahlende C-Dur gegen Ende von Mozarts „Zauberflöte“, wo es heißt „Die Strahlen der Sonne vertreiben die Nacht.“ Bei manchen wird allerdings auch die Erinnerung an den Physikunterricht wach, was nicht in jedem Fall mit positiven Gefühlen besetzt ist. Dieser Rückgriff lässt sich allerdings nicht vermeiden, denn „Strahlung“ ist eine physikalische Erscheinung, will man sie und ihre Wirkungen verstehen, muss man auf die Grundlagen zurückgreifen, und die sind nun mal (leider wird mancher seufzen) physikalischer Natur. Es mag dabei trösten, dass auch der Physiker hier oft seine Probleme hat, wie die Geschichte dieser Wissenschaft zeigt. Auf der anderen Seite ist die Entwicklung der modernen Physik auf das Engste mit der Erforschung der Strahlen verbunden, ohne sie gäbe es weder Relativitäts- noch Quantentheorie, zu schweigen von den vielfältigen technischen Entwicklungen
Am Anfang sollte man sich darüber einigen, wovon man spricht, wenn man sich mit Strahlen beschäftigt. Gängige Physikbücher sind hier bemerkenswert zurückhaltend, sie verzichten meist auf eine Definition und setzten voraus, dass der Leser schon weiß, wovon die Rede ist. Die Erfahrung zeigt allerdings, dass selbst Physikstudenten sich schwer tun, „Strahlen“ zu definieren. Früher schaute man im Konversationslexikon nach, heute befragt man das Internet und die universelle Wissensbörse WIKIPEDIA. Dort findet man in der deutschen Ausgabe (6. Juni 2010): „Der Begriff Strahlung bezeichnet die Ausbreitung von Teilchen oder Wellen.“ Danach wäre also jedes Paddelboot eine Strahlenquelle, denn unzweifelhaft gehen von ihm Wellen aus. So geht es also nicht. Die englische Version ist schon etwas genauer (ebenfalls 6. Juni 2010): „Radiation describes any process in which energy travels through a medium or through space.“ („Strahlung beschreibt einen Prozess, bei dem Energie sich durch ein Medium oder den Raum bewegt.“) Strahlung ist also Energietransport, die Übertragung ist nicht notwendigerweise an ein Medium gebunden, sie geschieht auch durch den leeren Raum. Wäre es nicht so, gäbe es kein Leben auf der Erde, denn zwischen der Sonne und uns herrscht auf dem größten Teil der Strecke Vakuum. Nach dieser engeren Definition gehören elektromagnetische Wellen zu den Strahlen, nicht aber der Schall, der bekanntlich Luft (oder manchmal auch andere Träger) zu seiner Ausbreitung benötigt.
In der Medizin hat man weniger Skrupel: Die Sonographie, Diagnostik mit Hilfe von Ultraschall, gehört zum selbstverständlichen Handwerkszeug des Radiologen. Aus diesem Grunde werden wir uns hier auch mit dieser Anwendung beschäftigen, also etwas von der „reinen Lehre“ abweichen, ohne allerdings die Unterschiede zu verwischen.
Für eine genauere Auseinandersetzung mit dem Thema Energie reichen qualitative Überlegungen nicht aus. Gerade im Hinblick auf mögliche Wirkungen muss man genau hinschauen, d. h. die Energie quantitativ erfassen, und dazu benötigt man Maßeinheiten, Dimensionen. Grundsätzlich ist man frei in ihrer Wahl, doch ist es praktischer, sich auf ein allgemein übliches System zu einigen. International eingeführt und in Deutschland auch verbindlich sind die SI-Einheiten (SI steht für SystèmeInternationald’Unités), die von dem Bureau International des Poids et Mesures (abgekürzt: BIPM) koordiniert und überwacht werden, das seinen Sitz in der Nähe von Paris hat. Die SI-Einheit für die Energie ist das „Joule“ (J), die früher übliche und beliebte „Kalorie“ ist nicht mehr zulässig (s. Glossar). In der Atomund Strahlenphysik ist die Verwendung des Joule auch möglich, jedoch unpraktisch, da man eine Menge Zehnerpotenzen dauernd mitführen müsste. Aus diesem Grunde hat man für dieses spezielle Gebiet eine besondere Einheit kreiert, das „Elektronvolt“ (eV). Seine Definition geht auf ein wichtiges physikalische Gesetz zurück, das nach seinem Entdecker, dem französischen Physiker Charles Augustin de Coulomb (1736–1806), dem Begründer der Elektrostatik, benannt ist (Coulombsches Gesetz). Es besagt, dass sich ungleichnamige elektrische Ladungen anziehen, gleichnamige abstoßen, und dass die Kräfte mit dem Quadrat der Entfernung abnehmen. Es ist wie im menschlichen Leben „Gegensätze ziehen sich an…“. Der praktisch wichtigste Ladungsträger ist das Elektron, das negativ geladen ist. In einem elektrischen Feld wird es zum positiven Pol beschleunigt und gewinnt dadurch Bewegungsenergie. Wenn die Beschleunigungsspannung gerade 1 Volt beträgt, so beträgt die Energie des Elektrons gerade 1 Elektronvolt (eV) (Abb. 1.1).
Einige Beziehungen zwischen Energieeinheiten sind im Glossar zusammengestellt.
Abb. 1.1 Zum Verständnis der Energieeinheit „Elektronvolt“. Wenn ein Elektron durch ein elektrisches Feld von 1 V beschleunigt wird, gewinnt es die Energie von 1 eV.
Kehren wir zum Ausgangspunkt zurück: Strahlen im eigentlichen Sinne treten in zwei Erscheinungsformen auf, als elektromagnetische Wellen und als Teilchenstrahlen. Letztere sind typische Erscheinungen der Radioaktivität, mit der wir uns weiter unten beschäftigen werden. Zunächst aber geht es um die Wellenstrahlung.
Unsere Welt ist voll von elektromagnetischen Wellen, sie sind also keineswegs nur Erzeugnisse moderner Technik, obwohl diese einiges dem Spektrum hinzugefügt hat. Die ohne Zweifel wichtigste Spielart ist das (sichtbare) Licht, die einzige Strahlung, für die wir ein spezielles Sinnesorgan besitzen. Über seine Natur haben die Physiker lange gerätselt und auch oft handfest gestritten. Seit der Mitte des 17. Jahrhunderts weiß man, dass es sich dabei um ein Wellenphänomen handelt. Sehr viel später erkannte man, dass es noch andere Strahlungen gibt, die, obwohl unsichtbar, ähnlichen Gesetzen folgen. Erst im 19. Jahrhundert gelang es, sie als elektromagnetische Felder zu identifizieren. Elektrisches und magnetisches Feld sind untrennbar verbunden, beide schwingen senkrecht zur Ausbreitungsrichtung und senkrecht zueinander.
Charakteristische Größen sind Wellenlänge (meist mit dem griechischen λ abgekürzt) und Frequenz (kurz v), worunter man die Zahl der Schwingungen pro Zeiteinheit versteht. Beide stehen in einem einfachen Zusammenhang:
Hierbei ist c die Ausbreitungsgeschwindigkeit, welche im Vakuum (und näherungsweise auch in der Luft) 300.000 Kilometer pro Sekunde beträgt. Als Einheiten benutzt man für die Wellenlänge das Meter (m) bzw. Vielfache oder Bruchteile davon, für die Frequenz die Zahl der Durchgänge pro Sekunde mit dem speziellen Namen „Hertz“, abgekürzt Hz, benannt nach dem deutschen Physiker Heinrich Hertz (1847–1894), der die Natur des Lichtes als elektromagnetische Wellenstrahlung experimentell bestätigte. Sein Neffe war übrigens Gustav Hertz (1887–1975), der entscheidende Beiträge zum Verständnis des Atoms lieferte.
Abb. 1.2 Elektromagn etische Wellen. (s. auch Farbtafel S. XVII.) [1]
Die Natur des Lichtes hat die Physiker über Jahrhunderte beschäftigt. Isaac Newton (1643–1727) vertrat noch die Auffassung, dass es sich um Teilchen handelte, was jedoch der experimentellen Evidenz widersprach. So schien die Wellentheorie die einzige Erklärungsmöglichkeit bis Max Planck (1858–1947) auf Grund theoretischer Überlegungen im Jahre 1900 zu dem Schluss kam, dass die Energieübertragung in einzelnen Beträgen (Quanten) erfolgen müsste, was 1915 durch Albert Einstein (1879–1955) experimentell bestätigt wurde. Damit befinden wir uns in dem Dilemma eines unauflösbaren Widerspruchs – es kann eigentlich nicht sein, dass eine Erscheinung sowohl Wellen- als auch Teilchencharakter hat. Wellen sind räumlich ausgedehnt (man denke an den ins Wasser geworfenen Stein), Teilchen kompakt und lokalisierbar. Das ist offenbar eine Frage für Philosophen, die sich dieser Thematik auch ausführlich angenommen haben. Für unsere Betrachtung möge eine praktische Einstellung genügen: Elektromagnetische Strahlen haben sowohl Wellen- als auch Quantencharakter, je nach der experimentellen Anordnung tritt einmal die eine oder die andere Eigenschaft in Erscheinung. Eigentlich zeigen sie also fast menschliche Facetten…
Die Planckschen Überlegungen führten zu folgender berühmten Beziehung, in der festgestellt wird, dass Quantenenergie E und Frequenz v zueinander proportional sind:
Der verbindende Faktor h heißt „Plancksches Wirkungsquantum“ (sein Wert beträgt im internationalen Einheitensystem 6,63 × 10–34 J s). Will man elektromagnetische Wellen näher beschreiben, so kann man also auf Wellenlänge, Frequenz oder Quantenenergie zurückgreifen.
Abbildung 1.3 gibt eine Übersicht über die verschiedenen Strahlenarten und ihre Energien. Man sieht, dass ein sehr großer Energiebereich, nämlich ca. 15 Zehnerpotenzen, abgedeckt wird. In Tabelle 1.1 sind außerdem die Beziehungen zwischen Wellenlängen, Frequenzen und Quantenenergien im Einzelnen zusammengestellt, wobei auch noch feinere Unterteilungen mit aufgeführt sind, auf die noch einzugehen ist.
In Tabelle 1.1 sind in den Spalten jeweils die oberen und unteren Grenzen des jeweiligen Bereichs angegeben. Eine wichtige grundsätzliche Klassifizierung ist gerade im Zusammenhang mit der in diesem Buch diskutierten Problematik anzusprechen: Es gibt ionisierende und nicht ionisierende Strahlung. Unter Ionisierung (oder auch Ionisation) versteht man die Loslösung eines Elektrons aus dem Atom- oder Molekülverband. Da die Elektronen durch Kräfte gebunden sind, bedarf es zu ihrer Abtrennung einer gewissen Energie (in der Größenordnung von 100 eV). Sie kann nur von ionisierenden Strahlen aufgebracht werden. Alle Folgeerscheinungen, die auf einer initialen Ionisation beruhen, wie auch z. B. Gesundheitsschäden, können daher von nicht ionisierenden Strahlen nicht hervorgerufen werden. Dabei spielt die Intensität, d. h. die Zahl der auftreffenden Quanten, keine Rolle. Man kann sich das in einem simplen Bild verdeutlichen: Bekanntlich lassen sich Fensterscheiben durch Gewehrschüsse („ionisierend“) durchlöchern, nicht aber durch Wattekugeln („nicht ionisierend“). Auch wenn man mit vielen Wattebäuschchen in schneller Folge die Scheibe bewirft, sie wird standhalten.
Abb. 1.3 Quantenenergien verschiedener elektromagnetischer Wellenstrahlungen.
Der physikalischen Ehrlichkeit halber ist hier eine einschränkende Bemerkung angezeigt: Das Gesagte gilt nicht für Strahlenquellen sehr hoher Intensität, wie z. B. Hochleistungslaser. Bei ihnen treten so genannte nichtlineare Effekte auf, wodurch sekundäre Strahlen mit hoher Frequenz (und somit auch hoher Quantenenergie) entstehen. Auf diesem Wege können also unter sehr besonderen Bedingungen auch durch nicht ionisierende Strahlen Ionisationen bewirkt werden.
Tabelle 1.1 Frequenzen, Wellenlängen und Photonenenergien elektromagnetischer Wellen.
Es gibt zwei Arten ionisierender Strahlen, Röntgenstrahlen und Gammastrahlen. Beide unterscheiden sich nicht grundsätzlich in ihrer physikalischen Natur (und daher auch nicht in ihren Wirkungen), sondern nur in Bezug auf den Entstehungsprozess. Röntgenstrahlen treten überall auf, wo beschleunigte Elektronen auf Materie treffen (z. B. in Röntgenröhren), Gammastrahlen bilden immer eine Begleiterscheinung des radioaktiven Zerfalls. Entgegen verbreiteter populärer Vermutungen sind Gammastrahlen weder immer energiereicher als Röntgenstrahlen noch etwa gefährlicher, sie entstehen nur anders.
Röntgenstrahlen entstehen, wenn beschleunigte Elektronen in Metallen abgebremst werden, z. B. in Röntgenröhren, aber nicht nur dort. Das Prinzip ist im Bild dargestellt. In der Röntgenröhre werden Elektronen durch Erhitzung der als Heizdraht ausgebildeten Kathode freigesetzt. Durch die zwischen Kathode und Anode anliegende Hochspannung werden sie beschleunigt, wobei durch das im Inneren aufrechterhaltene Vakuum dafür gesorgt wird, dass sie sich frei bewegen können. Bei dem Auftreffen auf die Anode entstehen Röntgenstrahlen, allerdings wird auch Wärme frei (nur ungefähr 5% der aufgewendeten Energie wird zu Röntgenstrahlung umgesetzt). Die Röhrenummantelung schirmt die Röntgenstrahlung weitgehend ab, nur an der Austrittstelle ist ein durchlässiges Fenster aus Beryllium eingesetzt.
Genau genommen muss noch eine andere Strahlenart erwähnt werden, die in das bisherige Schema nicht passt und die später in diesem Kapitel angesprochen wird, die Vernichtungsstrahlung. Fälschlicherweise wird sie häufig, selbst in manchen Physikbüchern, als Gammastrahlung bezeichnet.
Abbildung 1.3 und Tabelle 1.1 illustrieren die beachtliche Vielfalt elektromagnetischer Wellenstrahlen. Sehr hohe Energien treten im Weltraum auf, die allerdings keine praktische Bedeutung haben, jedoch von besonderem wissenschaftlichem Interesse sind. Ihre Intensität ist sehr gering, für die Strahlengefährdung bei der Raumfahrt spielen sie keine Rolle, diese geht von geladenen Teilchen, vor allem Protonen und Alphateilchen aus.
An die ionisierende Strahlung schließt sich nach unten in der Energieskala der ultraviolette Teil (UV) des Spektrums an. Aus praktischen Gründen, die vor allem mit der medizinischen Wirkung in Zusammenhang stehen, hat man eine genauere Einteilung in verschiedene Unterbereiche nach Wellenlängen vorgenommen:
„Schumann“- oder Vakuum-UV
100–200 nm
1
)
,
UV-C
200–280 nm,
UV-B
280–315 nm,
UV-A
315–380 nm.
Hauptquelle ultravioletter Strahlung auf der Erde ist die Sonne (Abb. 1.4). Betrachtet man nur die Strahlungseigenschaften, so unterscheidet sich unser Gestirn im Prinzip nicht von den klassischen Glühlampen mit der Heizwendel (die in Zukunft verboten sein werden): Sie ist ein Temperaturstrahler, allerdings deutlich wärmer als nahezu alles, was wir aus unserer Umgebung kennen. Ihre Temperatur beträgt annähernd 6000 Grad. Sie sendet Strahlen über einen weiten Wellenlängenbereich aus, vom kurzwelligen Ultraviolett bis hin zum fernen Infrarot. Nicht alles gelangt auf die Erde, die Atmosphäre und darin enthaltene Gase schirmen große Teile ab, wie man in Abb. 1.4 sieht.
Von besonderer Bedeutung ist in Bezug auf UV das Ozon, dreiatomiger Sauerstoff (O3), das in den oberen Schichten der Stratosphäre photochemisch unter Einwirkung der Sonnenstrahlung gebildet wird. Es filtert kurzwelliges UV-C, teilweise auch UV-B, aus dem solaren Spektrum aus, so dass hiervon nur geringe Mengen die Erdoberfläche erreichen. Dies ist für das Leben auf unserem Planeten von erheblicher Bedeutung, da kurzwelliges UV biologische Vorgänge nachhaltig schädigen kann, wie später noch erläutert wird. Durch den Einfluss bestimmter Spurengase in der Atmosphäre (z. B. Fluorchlorkohlenwasserstoffe FCKW) kann das Ozon photochemisch abgebaut werden, was dann zu dem viel diskutierten „Ozonloch“ führt. Durch die rigorose Beschränkung der Verwendung dieser Chemikalien konnte die Ausdehnung des Ozonlochs eingeschränkt werden, das bedeutet allerdings nicht, dass vollständige Entwarnung gegeben werden kann. Dies Ganze hat übrigens nichts mit der derzeit akuten CO2-Problematik zu tun, dabei spielt die Infrarotstrahlung die entscheidende Rolle (siehe weiter unten).
Abb. 1.4 Strahlenspektrum der Sonne: Man sieht, dass im UV und im IR große Bereiche durch die Absorption von Ozon (O3), Sauerstoff (O2), Wasser (H2O) und Kohlendioxid (CO2) in der Atmosphäre abgeschwächt werden. (s. auch Farbtafel S. XVII.) [2]
Ultraviolette Strahlen können technisch z. B. mit Gasentladungslampen erzeugt werden. Man findet sie in Sterilisierungseinrichtungen, aber auch in Solarien. Außerdem treten sie auch beim Elektroschweißen auf.
An das UV schließt sich der Bereich des sichtbaren Lichts an, was eigentlich ein Pleonasmus ist, da „Licht“ per definitionem sichtbar ist. Leider hat sich häufig eine etwas schlampige Ausdrucksweise eingeschlichen, wenn man z. B. auch von „ultraviolettem“ oder „infrarotem Licht“ spricht. Eigentlich meint man damit die „optische Strahlung“ zu der neben dem Sichtbaren auch das UV und das Infrarot gehören. Licht im engeren Sinne bildet nur einen sehr kleinen Teil des gesamten Spektrums elektromagnetischer Wellen. Es umfasst den Wellenlängenbereich von 380–800 nm und fällt recht genau mit dem Maximum der Sonnenemission zusammen, was interessante Rückschlüsse auf die Evolution des Auges zulässt.
Infrarotstrahlung (IR) besitzt eine geringere Energie als UV oder sichtbare Strahlung und überstreicht den Wellenlängenbereich von 800 nm bis ca. 1 mm. Auch hier gibt es eine weitere Unterteilung, nämlich
IR-A 780–1400 nm,
IR-B 1,4–3 µm,
IR-C 3 µm – 1 mm.
IR-C ist weitgehend identisch mit der sogenannten Terahertz-Strahlung, die in letzter Zeit mit den für die Passagierüberwachung vorgeschlagenen „Körperscannern“ von sich reden machte, ihre effektive Erzeugung ist erst seit Kurzem technisch möglich geworden. Ansonsten äußert sich IR vor allem durch Wärme, alle erhitzten Körper senden infrarote Strahlen aus, nicht zuletzt auch die Sonne.
Für die Erwärmung der Erde ist aber nicht nur die einfallende Infrarotstrahlung verantwortlich. Alle Teile des gesamten Spektrums werden absorbiert und letztlich weitgehend in Wärme umgewandelt, wovon allerdings ein großer Teil zurück in den Weltraum abgestrahlt wird. Wird nun die Durchlässigkeit der Atmosphäre für IR vermindert, so sinkt dieser „Strahlungsverlust“ und die Temperatur der Erde steigt. In Abb. 1.4 sieht man, dass hierfür vor allem das Wasser, aber auch das Kohlendioxid CO2 verantwortlich sind. Diese Klimaproblematik ist auch unter dem Namen „Treibhauseffekt“ (greenhouse effect) bekannt geworden. Dort findet man nämlich ganz ähnliche Verhältnisse: Die Glasscheiben lassen das Licht durch, das im Innern des Häuschens absorbiert und in Wärme umgewandelt wird. Dafür sind die Glasscheiben aber undurchlässig, die Wärme bleibt gefangen. Was zur Aufzucht von Salat und Tomaten sehr erwünscht ist, kann für die Erde dramatische Folgen haben. Erhöht sich der CO2-Gehalt der Atmosphäre, so heizt sich auf längere Sicht unser Planet auf, mit bisher noch nicht absehbaren Folgen. Spurenelemente in der Atmosphäre können unser Leben also entscheidend beeinflussen: Weniger Ozon lässt mehr schädliche UV-Strahlung in die Biosphäre kommen, mehr Kohlendioxid hält wärmende Infrarotstrahlung zurück.
Noch geringere Quantenenergien als die bisher angesprochenen Strahlenarten haben Mikro- und Radiowellen. Die ersten von beiden bildeten noch vor wenigen Jahrzehnten eine Spezialität der Experimentalphysiker, ohne große praktische Bedeutung. Heute assoziiert man mit ihnen vor allem „Mikrowellenherde“, nicht so bekannt ist, dass sich auch die gesamte Mobilfunkkommunikation, also die allgegenwärtigen „Handys“, sich ihrer bedient, ebenso wie auch die Radarortung. Über diese Anwendungen wird später noch ausführlich zu sprechen sein. Radiowellen, die zur Übertragung unserer täglichen Rundfunk- und Fernsehprogramme dienen, haben noch geringere Quantenenergien.
Nur der Vollständigkeit halber sind in Tabelle 1.1 auch Felder „extrem niedriger Frequenz“ (ELF) aufgeführt, sie gehören eigentlich nicht zu den Wellenstrahlen, werden aber häufig gerade wegen vermuteter gesundheitlicher Wirkungen im selben Zusammenhang diskutiert, deshalb sollen sie hier nicht fehlen. Sie hängen vor allem mit der Elektrizitätsversorgung zusammen, sind also in der Nähe von Überlandleitungen, Erdkabeln oder entlang der Trasse elektrischer Züge zu finden.
Ein Wort noch zu einer „Strahlenart“, die bei manchen ein gewisses Unwohlsein auslöst, nämlich der „Laserstrahlung“. Es handelt sich hier eigentlich nicht um eine besondere Spezies, sondern nur um eine besondere Art der Erzeugung. Mit Hilfe von Lasern (Light amplificationbystimulatedemissionofradiation) ist es möglich, sehr hohe Intensitäten zu erreichen. Dadurch ist die Besonderheit charakterisiert, nicht jedoch durch hohe Quantenenergien, denn Laser gibt es heute praktisch für den gesamten Bereich der optischen Strahlung, also UV, sichtbares Licht und Infrarot, sogar auch für Mikrowellen (dann heißen die Geräte „Maser“). Durch die große Energiekonzentration kann man hohe lokale Temperaturerhöhungen erzielen, was auch in der Medizin, z. B. in der Augenheilkunde oder der Dermatologie, benutzt wird. Wegen dieser Eigenschaften müssen bei Lasern besondere Schutzvorkehrungen beachtet werden.
Hiermit ist die kurze Besprechung elektromagnetischer Wellen abgeschlossen, es folgen die Teilchenstrahlen, die hauptsächlich im Zusammenhang mit radioaktiven Prozessen entstehen.
Elektromagnetische Wellen übertragen Energie in Form von Quanten oder Photonen. Für sie ist charakteristisch, dass sie weder Masse noch Ladung besitzen und sich in homogenen Medien alle mit gleicher Geschwindigkeit fortbewegen. Bei dem Energietransport durch Teilchen ist alles anders: Die Partikel besitzen eine Masse (die der Regel sehr klein ist), in vielen Fällen eine Ladung und ihre Geschwindigkeit ändert sich mit ihrer Energie. Für unsere Anschauung bereiten sie geringere Probleme. Denn sie verhalten sich weitgehend wie die Objekte, die wir aus unserer Umgebung kennen, auch wenn sie sehr viel kleiner sind.
Teilchenstrahlen treten vor allem bei der Radioaktivität auf, d. h. dem Zerfall instabiler Atomkerne. Gleichgültig um welche Teilchenart es sich handelt, die emittiert wird, der Akteur ist immer der Atomkern, die Elektronenhülle ist höchstens manchmal sekundär und am Rande beteiligt. Nicht zu Unrecht umgibt die Radioaktivität eine Aura des Geheimnisvollen: Warum zerfallen Atomkerne? Die meisten Menschen machen sich nicht klar, dass diese Frage eigentlich falsch gestellt ist. Sie müsste lauten: Warum sind die meisten Atomkerne stabil? Sie bestehen bekanntlich aus Protonen, also positiv geladenen Teilchen, und Neutronen, die keine Ladung tragen. Nach dem schon erwähnten Coulombschen Gesetz stoßen sich gleichnamige Ladungen ab, und das umso mehr, je näher sie beieinander liegen. Atomkerne besitzen Radien in der Größenordnung von ca. 10-12 m, es ist also wirklich eng in ihrem Inneren, und dennoch fliegen die meisten nicht auseinander. Dies liegt daran, dass die Bestandteile – Protonen und Neutronen – durch spezielle Kräfte zusammengehalten werden, die allerdings nur auf sehr kurze Entfernungen wirksam sind, sie stellen also gewissermaßen den Kontaktkleber für den Zusammenhalt des Kerns dar. Da diese „starke Wechselwirkung“ sowohl Protonen als auch Neutronen gleichermaßen erfasst, kompensieren die neutralen Komponenten einen Teil der elektrostatischen Abstoßung. Dies ist auch ein Grund dafür, dass man bei hohen Kernladungszahlen immer mehr Neutronen als Protonen findet. Aber alles hat seine Grenzen, bei einer Kernladungszahl von 82 (Blei) hört die Stabilität auf. Alle Elemente mit höheren Kernladungszahlen sind natürlicherweise radioaktiv. Auf der Erde geht das bis 92 (Uran), allerdings kann man durch Kernreaktionen diese Grenze herausschieben. Der derzeitige Rekord liegt bei 112, einem künstlichen Element, das 1996 am GSI-Helmholtz-Forschungszentrum für Schwerionenforschung in Darmstadt erstmalig erzeugt wurde und im Jahre 2010 den offiziellen Namen ״Copernicium“ erhielt.
Bei nahezu allen Elementen gibt es bei gleicher Protonenzahl verschiedene Kernmassen, die sich durch die Zahl von Neutronen unterscheiden, man bezeichnet sie dann als „Isotope“. Manche von ihnen sind radioaktiv und Bestandteil unserer natürlichen Umwelt. Heute ist es möglich, von praktisch allen Elementen radioaktive Isotope herzustellen, wovon vor allem auch die Nuklearmedizin profitiert.
Die Radioaktivität wurde 1896, also weniger als ein Jahr nach Röntgens Experimenten, von dem französischen Physiker Henri Becquerel (1852–1908, Nobelpreis 1903) bei Versuchen mit Röntgenstrahlen fast zufällig entdeckt. Als er eines Tages dadurch überrascht wurde, dass seine Filme, die er in einer Schublade aufbewahrte, geschwärzt waren, schloss er, dass Mineralien die daneben lagen (es handelte sich um das Uranerz Pechblende), wohl die Ursache sein müssten. Zusammen mit seinen Mitarbeitern, dem Ehepaar Marie Sklodowska-Curie (1867–1934) und Pierre Curie (1859–1906, Nobelpreis 1903 gemeinsam mit Henri Becquerel und Marie Curie), erforschte er dieses neue unerwartete Phänomen und identifizierte 1900 die Betastrahlung.
Es gibt verschiedene Arten des radioaktiven Zerfalls, denen wir uns jetzt im Einzelnen zuwenden wollen (s. Box 1.2). Offensichtlich steigt die Wahrscheinlichkeit der Instabilität mit wachsender Protonenzahl wegen der Abstoßung der positiven Ladungen. Man könnte das Problem lösen, indem Protonen ausgestoßen würden. Dieses findet aber nicht statt, es gibt keine Protonenemission. Stattdessen werden Alphateilchen emittiert, die aus zwei Protonen und zwei Neutronen bestehen und chemisch den Kernen von Helium-4 entsprechen. Bei jedem Alphazerfall findet eine Elementumwandlung statt: die Kernladungszahl vermindert sich um zwei, die Massenzahl um vier. Alphazerfälle findet man nur bei schweren Kernen, was verständlich ist, da damit doch ein erheblicher „Substanzverlust“ einhergeht.
Es gibt aber auch andere Möglichkeiten, Stabilität zu erreichen, die vor allem bei leichteren Kernen auftreten. Die „Elementarteilchen“ Proton und Neutron sind nämlich keineswegs so unveränderbar wie der Name suggeriert, vielmehr können sie sich ineinander umwandeln, d. h. aus einem Proton kann ein Neutron entstehen und umgekehrt. Bei einem solchen Prozess muss allerdings die Gesamtladung erhalten bleiben. Wird also aus einem Proton ein Neutron, so muss die positive Ladung abgegeben werden. Dies geschieht durch die Emission eines positiv geladenen Teilchens, des Positrons, dessen Masse dem des Elektrons entspricht. Man bezeichnet diesen Vorgang als β+-Zerfall („Beta-plus-Zerfall“) (Identifizierung durch Irène und Frederic Joliot-Curie 1934).
Die genaue Analyse zeigt, dass dabei auch noch ein anderes, allerdings neutrales, Teilchen entsteht, das eine äußerst geringe Masse besitzt und als Neutrino bezeichnet wird. Es zeigt nur eine sehr geringe Neigung zur Wechselwirkung mit Materie und gibt auch heute noch den Physikern eine ganze Menge an Rätseln auf, was es natürlich recht interessant macht.
Der β+-Zerfall besitzt ein Spiegelbild, nämlich den β--Zerfall („Beta-minus-Zerfall“), der sehr viel häufiger vorkommt und deshalb auch früher als Bestandteil der natürlichen Radioaktivität entdeckt wurde. Hierbei entsteht aus einem Neutron ein Proton, das im Kern verbleibt, während zur Ladungserhaltung ein negatives Elektron emittiert wird. Die bei dem Betazerfall auftretende Elektronenstrahlung kommt also aus dem Kern und nicht, wie man vielleicht vermuten könnte, aus der Atomhülle. Außerdem gibt es auch bei diesem Zerfall ein neutrales Teilchen, hier das „Antineutrino“, das dem schon erwähnten Neutrino spiegelbildlich entspricht. Diese Tatsache eröffnet im wahrsten Sinn des Wortes neue Welten, nämlich die von Materie und Antimaterie.
Paul Maurice Dirac (1902–1984), einer der genialsten Köpfe der Physik im 20. Jahrhundert, das wahrlich nicht arm war an eminenten Forschern, sagte im Jahre 1928 die Existenz eines „Antiteilchens“ zum wohlbekannten Elektron voraus, das von ihm postulierte Positron wurde erstmals 1932 in der kosmischen Strahlung durch den Amerikaner Carl David Anderson (1905–1991) nachgewiesen. Dirac verband die damals modernsten Theorien der Physik, nämlich die Quantentheorie und die spezielle Relativitätstheorie Einsteins, und war damit in der Lage, einige bis dato unerklärte Phänomene zu deuten, zum Beispiel den Elektronenspin, der uns noch später beschäftigen wird. Nach heutiger Kenntnis gibt es zu jedem Teilchen ein Antiteilchen – wir leben also in einer von zwei möglichen Welten. Nach gängigen Vorstellungen entstanden bei dem Urknall, der den Beginn des Universums markiert, Materie und Antimaterie zu gleichen Teilen. Die Frage, warum nur eine Spielart übrig blieb, bildet eines der großen ungelösten Rätsel der Kosmologie. Allerdings verdanken wir dieser Tatsache unsere Existenz.
Radioaktive Kerne zerfallen unter Aussendung von Teilchen, nämlich Alpha- und Betateilchen.
Alphateilchen bestehen aus zwei Protonen und zwei Neutronen und entsprechen somit dem Kern des Elements Helium. Bei einem Alphazerfall vermindert sich die Massenzahl M des Kerns um 4, die Kernladungszahl z um 2.
Es gibt zwei Arten von Betazerfällen.
Treffen nämlich Teilchen und Antiteilchen aufeinander, so verschwinden sie und verlieren ihre Masse: Gemäß der wohl berühmtesten Formel der Physikgeschichte wird sie in Energie umgewandelt:
E mc2
Diese Beziehung wurde 1905 von Albert Einstein im Rahmen der speziellen Relativitätstheorie abgeleitet und besagt, dass Masse und Energie äquivalent sind, also nur unterschiedliche Erscheinungsformen darstellen. In der obigen Formel bedeutet E die Energie und m die Masse. Verbunden sind sie durch das Quadrat der Lichtgeschwindigkeit c2.
Antimaterie kommt auf der Erde nur in Form des äußerst kurzlebigen Positrons vor. Trifft es auf ein Elektron, so entstehen zwei Strahlungsquanten, deren Energie durch die Massen von Elektron und Positron gemäß der obigen Formel bestimmt ist. Sie fliegen in entgegengesetzter Richtung (also mit einem Winkel von 180 Grad) auseinander (Abb. 1.5). Es handelt sich hier um die besondere Art der Vernichtungsstrahlung und nicht um Gammastrahlen, auch wenn selbst in manchen Physikbüchern diese falsche Bezeichnung benutzt wird. Beide Quanten besitzen dieselbe Energie von jeweils 511 keV. Der beschriebene Vorgang hat in der modernen medizinischen Diagnostik große Bedeutung erlangt in Form der Positronen-Emissions-Tomographie (PET), ein eindrucksvolles Beispiel, dass scheinbar sehr theoretische Entwicklungen der Physik wichtige praktische Entwicklungen auslösen können.
In der Praxis spielen noch andere Teilchen eine Rolle, die hier erwähnt werden sollen, obwohl sie nicht bei radioaktiven Prozessen auftreten, nämlich Protonen und Neutronen. Sie können mit Hilfe spezieller Apparaturen erzeugt werden. Neutronen werden vor allem bei der Kernspaltung frei, z. B. in den Reaktoren der Kernkraftwerke. Dieser Vorgang ist von den besprochenen Kernzerfällen zu unterscheiden. Die Spaltung wird durch Neutronenbeschuss dazu geeigneter Kerne, z. B. Uran-235, induziert. Mit ihrer Entdeckung im Jahre 1938 durch Otto Hahn (1879–1968) und Fritz Strassmann (1902–1980) begann das Atomzeitalter, dessen Folgen uns noch heute intensiv beschäftigen. Der historischen Wahrheit halber sei angefügt, dass die korrekte Deutung auf Hahns Mitarbeiterin Lise Meitner (1878–1968) und ihren Neffen Otto Robert Frisch (1904–1979) zurückgeht, die zu diesem Zeitpunkt wegen ihrer jüdischen Abkunft schon nach Dänemark emigriert waren. Bei der Spaltung werden die Kerne in annähernd gleichgroße Bestandteile zerlegt, die also um erheblich größere Massen verfügen als Alpha- oder Betateilchen. Ganz selten kommt bei dem künstlichen Transuranelement Californium die Kernspaltung auch spontan vor, das Isotop Californium-252 (Halbwertszeit 2645 Jahre) wird daher auch als Neutronenquelle eingesetzt, die erreichbaren Intensitäten sind allerdings recht gering.
Abb. 1.5 Zur Entstehung von „Vernichtungsstrahlung“
Abgesehen von der kernphysikalischen Forschung spielen Protonen auch in der modernen Strahlentherapie von Tumoren eine Rolle. Die Nutzung von Neutronen zum selben Zweck hat heute nur noch eine vergleichsweise geringe Bedeutung.
Wenn eine Bindung zerfällt, die über lange Zeit in engstem Kontakt bestanden hat, so geschieht das selten, ohne dass Erregung zurückbleibt. Atomkerne zeigen in dieser Hinsicht gewissermaßen menschliche Eigenschaften. Nach einem Zerfallsprozess wird nicht sofort Stabilität erreicht, der Kern befindet sich für kurze Zeit noch in einem angeregten Zustand. Die angestaute Energie wird durch Emission elektromagnetischer Wellenstrahlung abgegeben, der Gammastrahlung. Es wurde schon darauf hingewiesen, dass sie sich in ihrer Natur nicht grundsätzlich von Röntgenstrahlen unterscheidet. Häufig wird zwar unterstellt, dass Gammastrahlen energiereicher und damit durchdringender seien. Das stimmt allerdings nicht generell, es gibt sehr weiche Gammastrahlen, aber sie werden nur selten genutzt. In der Praxis spielen vor allem hochenergetische Gammastrahlen eine Rolle, wie sie z. B. durch Kobalt-60 oder Caesium-137 ausgesandt werden, was wahrscheinlich die Ursache für die falsche Wahrnehmung ist.
Es ist keine Überraschung, dass die Emission in Form wohldefinierter Strahlungsquanten erfolgt. Ihre Energien weisen für jedes Isotop eine charakteristische Verteilung auf, sie stellt gewissermaßen einen spektralen Fingerabdruck dar, durch den die Strahler leicht identifiziert werden können. Gammastrahlende Materialien brauchen dazu nicht chemisch aufbereitet zu werden, da die Strahlen in der Regel durchdringend genug sind, um sie mit Hilfe externer Detektoren messen zu können. Abbildung 1.6 zeigt als Beispiel das Spektrum einer Luftprobe, die am 2. Mai 1986 in dem Heimatinstitut des Autors mit Hilfe eines Filters aufgesammelt wurde. Man erinnert sich, am 26. April 1986 explodierte der Reaktor in Tschernobyl und verteilte die Spaltprodukte weit über Europa. Dank der Gammaspektroskopie wussten wir schon eine Woche später, was in Gießen niedergegangen war, jedenfalls sofern es sich um Gammastrahler handelte. Einige Nuklide sind im Bild markiert.
Abb. 1.6 Gammaspektrum einer Luftprobe, genommen am 2. Mai 1986 in Gießen [3].
Nicht alle radioaktiven Substanzen senden auch Gammastrahlen aus, das gilt vor allem für manche Betastrahler und leichtere Kerne. Ein Beispiel ist Strontium-90, ein sehr radiotoxisches Isotop, das auch bei der Kernspaltung frei wird. Eine Identifizierung ist hier ungleich aufwändiger, da komplizierte chemische Trennungen notwendig sind. So dauerte es recht lange, bis festgestellt werden konnte, dass glücklicherweise Strontium-90 durch die Tschernobylkatastrophe in geringerer Menge freigesetzt worden war, als man ursprünglich befürchtet hatte.
Obwohl, wie eingangs erwähnt, der Ultraschall (US) nicht zu den Strahlen im engeren Sinne gehört, soll hier von der reinen Lehre abgewichen und eine kurze Besprechung angeschlossen werden, da der Ultraschall in der Medizin vielfach angewendet wird und sowohl die International Commission on Non IonisingRadiationProtection (ICNIRP) als auch die Weltgesundheitsorganisation (WHO) ihn als „ Strahlung“ betrachten. Ultraschall definiert sich über das menschliche Hörvermögen. Dieses umfasst (theoretisch, im Alter wird es deutlich schlechter) den Bereich von ca. 16 Hz bis 20 kHz. Alle höheren Frequenzen bezeichnet man als Ultraschall, alle tieferen als Infraschall. Es gibt viele Tiere, die Ultraschall wahrnehmen können, nicht nur die Fledermäuse, die sich mit Hilfe von Ultraschallradar orientieren. Bei Ultraschall handelt es sich nicht um elektromagnetische Felder, sondern um periodische Druckschwankungen, womit sofort klar ist, dass ein übertragendes Medium notwendig ist. Schall breitet sich in Luft aus, aber auch sehr gut in anderen Materialien, z. B. Wasser und auch in Festkörpern. In Luft verlaufen die Schwingungen in Richtung der Ausbreitung, man spricht daher von Longitudinalwellen. In festen Körpern findet man aber auch Transversalwellen, bei denen die Schwingungen senkrecht zur Ausbreitungsrichtung verlaufen (das ist auch bei den elektromagnetischen Wellen der Fall).
Ultraschall wird in der Regel mit Hilfe des „piezoelektrischen Effekts“ erzeugt, der übrigens von Pierre Curie, der eigentlich mehr für seine Arbeiten zur Radioaktivität bekannt ist, zusammen mit seinem Bruder Jacques, im Jahre 1880 entdeckt wurde. Piezoelektrische Materialien verändern ihre Länge, wenn sie einem elektrischen Feld ausgesetzt werden. Schwingt dieses mit einer bestimmten Frequenz, so wird diese auf Grund der rhythmischen Ausdehnung des Körpers auf die Luft übertragen, es entsteht Schall bzw. Ultraschall. Diese Erscheinung lässt sich übrigens umkehren: Wird ein piezoelektrischer Kristall von Schallschwingungen getroffen, so verändert sich seine Länge, und es kommt zu einer Verschiebung der Ladungsverteilung, die man messen und zur Detektion von Ultraschall benutzen kann.
In der medizinischen Diagnostik, dem Hauptanwendungsgebiet, verwendet man Frequenzen von 1 bis 40 MHz. Das Prinzip, das später ausführlicher besprochen wird, beruht vor allem auf der Reflexion der Wellen an Grenzflächen und ist vergleichbar der im militärischen Bereich entwickelten Echoortung, die schon im Ersten Weltkrieg benutzt wurde. So kann man auch hier, wie so oft in der angewandten Forschung, mit dem antiken griechischen Philosophen Heraklit (um 500 v. Chr.) feststellen: „Der Krieg ist aller Dinge Vater…“ Es gibt eine Reihe von Vorteilen der Darstellung von Organen mit Ultraschall, besonders hervorzuheben ist aber, dass bei den in der Diagnostik verwendeten Intensitäten schädigende Einwirkungen nach heutigem Kenntnisstand auszuschließen sind.
1) 1 nm= 10−9 m oder 1 millionstels Millimeter
Ein jeder lebende Organismus ist ein Wunderwerk in der Komplexität des Zusammenwirkens von Struktur und Funktion. Die letzten Jahrzehnte haben uns durch die Entwicklung immer neuer Untersuchungsmethoden Einblicke beschert, die zur Schulzeit des Verfassers unvorstellbar waren, und sie sind im Internet und durch das Fernsehen allen zugänglich. Ob wir damit der Klärung des Phänomens „Leben“ näher gekommen sind, mögen die Philosophen, vielleicht auch die Theologen, entscheiden. Auch die Definition von Gesundheit hat sich tiefgreifend gewandelt. Verfeinerte Diagnosetechniken, an denen der Einsatz von Strahlung einen nicht unwesentlichen Anteil hat, bahnen den Weg zu verbesserten Therapien. Es ist unmöglich, den heutigen Kenntnisstand zu referieren, ohne Bibliotheken zu füllen und es soll daher auch gar nicht versucht werden. Das Thema dieses Buches kann man aber nicht behandeln, wenn nicht einige biologische Grundtatbestände angesprochen werden. Dies soll in diesem Kapitel geschehen, zugegebenermaßen in holzschnittartiger Vereinfachung.
Alle biologischen Systeme ähneln sich in ihrem grundsätzlichen Aufbau, der menschliche Körper bildet hierbei keine Ausnahme. Die speziellen Aufgaben basieren auf der Funktion der Organe, ihr abgestimmtes Zusammenspiel garantiert den Ablauf der Lebensvorgänge. Hierbei spielen sowohl chemische als auch physikalische Prozesse eine Rolle. Charakteristisch ist die Beteiligung besonderer Biomoleküle, welche in der unbelebten Umwelt nicht vorkommen, allerdings mit einer essentiellen Ausnahme, nämlich dem Wasser, ohne das Leben nicht möglich ist. Abbildung 2.1 gibt einen ungefähren Überblick über die molekulare Zusammensetzung des menschlichen Körpers.
Auf den ersten Blick erstaunlich ist die Tatsache, dass unser Körper zu nahezu 70% aus Wasser besteht, eine historische Reminiszenz an den Ursprung allen Lebens aus dem Meer. Allerdings verfügt dieses Molekül auch über erstaunliche Eigenschaften, die es für den Aufbau und die Funktion lebender Systeme zu prädestinieren scheinen (s. Box 2.1). Auch im Zusammenhang mit der Strahlenwirkung kommt ihm eine besondere Bedeutung zu, wie noch später auszuführen sein wird. Die wesentlichen Funktionen im Ablauf der Lebensprozesse werden durch die Proteine, Eiweiße, vermittelt, gesteuert allerdings durch die genetische Information, deren Träger die Nukleinsäuren sind. Lipide stellen die konstituierenden Bestandteile von Membranen dar, Kohlenhydrate spielen eine zentrale Rolle im Energiestoffwechsel. Mineralstoffe tragen in vielfältiger Weise zur Funktion des Körpers bei, als Bestandteile des Knochengerüsts ebenso wie als wichtige Spurenstoffe im Stoffwechsel.
Abb. 2.1 Molekulare Zusammensetzung des menschlichen Körpers.
Proteine und Nukleinsäuren sind Makromoleküle, d. h. sie bestehen aus vielen Atomen und ihre Massen sind sehr groß (in der Größenordnung von 100.000 bis mehrere Millionen g/mol). Sie setzen sich allerdings nur aus wenigen Grundbausteinen zusammen, den Aminosäuren bei den Proteinen und den Nukleobasen bei den Nukleinsäuren. Auf weitere Einzelheiten braucht an dieser Stelle nicht eingegangen zu werden, obwohl die Versuchung groß ist ob der faszinierenden Einsichten, die zu gewinnen sind.
Alle biologischen Systeme sind aus Zellen aufgebaut. Der menschliche Körper enthält ca. 1013–1014 dieser Grundeinheiten des Lebens. In den Organen nehmen sie unterschiedliche Aufgaben wahr und bauen ca. 200 verschiedene Gewebe auf, wobei sie in Größe und Form erheblich variieren. Dennoch liegt ihnen allen ein analoger Grundbauplan zu Grunde: Die Abgrenzung des Inneren (Cytoplasma) zur Umgebung bildet immer eine Membran (in Pflanzen kommt meist noch eine Zellwand hinzu), über die auch Stoffe eingeschleust oder ausgeschieden werden. Auf ihrer Oberfläche befinden sich aber auch Rezeptormoleküle, an die externe Partner „andocken“ können. Mit solchen Reaktionen lassen sich intrazelluläre Signalwege anstoßen, durch die Stoffwechselabläufe gesteuert werden können. Auf diese Weise wirken z. B. viele Hormone. Membranen gibt es aber nicht nur an der Zellaußenfläche, sondern auch im Innern (endoplasmatisches Retikulum), wo sie für den geregelten Stofftransport verantwortlich oder (in den Mitochondrien) am Energiestoffwechsel beteiligt sind.
Im Wasser sind die beteiligten Atome nicht linear, sondern in einem Winkel von ca. 110 Grad angeordnet. Die Bindungen werden durch die Elektronen von Wasserstoff und Sauerstoff vermittelt, die allerdings nicht exakt lokalisiert sind. Folgend dem Coulombschen Gesetz übt der achtfach geladene Kern des Sauerstoffs auf die negativen Elektronen eine größere Anziehungskraft aus als die nur einfach geladenen Protonen, was zu einer unsymmetrischen Ladungsverteilung führt. Obwohl das Gesamtmolekül neutral ist, trägt es doch deutliche Ladungsschwerpunkte: An dem Ende des Sauerstoffs bildet sich ein negatives, bei den H-Atomen ein positives Übergewicht. Ein solches Gebilde nennt man Dipol.
Auch Dipole werden durch elektrische Felder ausgerichtet, auch können sich die jeweiligen gegensätzlich gepolten Enden anziehen, wodurch eine gewisse Art von Bindung zustande kommt, die Wasserstoffbrückenbindung, die allerdings deutlich schwächer und auch weniger spezifisch ist als die kovalente Bindung der organischen Chemie. Die Wasserstoffbrücken zwischen den einzelnen Wassermolekülen sind für die besonderen physikalischen Eigenschaften, z. B. große Oberflächenspannung, hohe Schmelz- und Siedepunkte, große Dielektrizitätskonstante, verantwortlich.
Alle wichtigen biologischen Reaktionen laufen mit der Hilfe von Katalysatoren ab, die Biokatalysatoren heißen Enzyme und sind ausnahmslos Proteine. Sie stellen also die eigentlichen „Arbeitspferde“ in der Werkstatt der Zelle dar. Ihre Synthese wird gesteuert durch die im Zellkern lokalisierte genetische Information, ihr Träger ist ebenfalls ein Makromolekül, die berühmte Desoxyribonukleinsäure, im Deutschen abgekürzt mit DNS, meist allerdings mit dem aus dem Englischen kommenden DNA(deoxyribonucleic acid). Die Aufklärung ihrer Struktur im Jahre 1953 durch den amerikanischen Biologen James Watson und den englischen Physiker Francis Crick war eine wissenschaftliche Sensation ersten Ranges, welche den Gang der biologischen und auch der medizinischen Wissenschaft für Jahrzehnte entscheidend prägte, eine Entwicklung, die auch heute noch in keiner Weise abgeschlossen ist. Die DNA besteht aus zwei Strängen von Nukleotiden, die in wie eine Doppelschraube in Form der berühmten Doppelhelix ineinander verschränkt sind. Die Reihenfolge codiert die Information für den Aufbau der Proteine. Beide Stränge enthalten in komplementärer Form dieselbe Information so wie Positiv und Negativ eines Bildes, was für die Erhaltung der Information von großer Bedeutung ist und auch bei Reparaturprozessen eine Rolle spielt, wenn Schäden auftreten sollten.
Abb. 2.2 Schema einer tierischen Zelle [4].
Zellen vermehren sich durch Teilung, bei der in der Regel zwei identische neue Individuen entstehen. Dieser Vorgang, die Mitose, lässt sich im Mikroskop beobachten. Mit Hilfe spezieller Färbetechniken kann man dabei auch die Erbinformation sichtbar machen in Form der Chromosomen. Sie bestehen aus DNA und besonderen Proteinen, den Histonen. Der Mensch besitzt in jeder Zelle des Körpers 23 Paare von Chromosomen, also insgesamt 46. Würde man die DNA als linearen Strang entwickeln, so hätte er eine Länge von ca. 2 m, wohlgemerkt in jeder Zelle! Bedenkt man, dass die Zellkerne in der Regel nur wenige Mikrometer groß sind, so erkennt man, dass hier ein beachtliches „Verpackungsproblem“ existiert. Heute ist es möglich, jedes menschliche Chromosom spezifisch so anzufärben, dass eine klare Unterscheidung möglich wird. Die Technik trägt den komplizierten Namen Fluoreszenz-in-situ-Hybridisierung, abgekürzt „FISH“. Strahleneinwirkung kann die Struktur der Chromosomen zerstören oder verändern, was ein wichtiges Indiz für eine genotoxische Wirkung darstellt und auch für dosimetrische Zwecke ausgenutzt werden kann.
Abb. 2.3 Die Chromosomen einer menschlichen (männlichen) Zelle (Karyogramm). Die Zahlen entsprechen der heute üblichen Klassifizierung, X und Y sind die Geschlechtschromosomen, in weiblichen Zellen findet man zwei X-Chromosomen in männlichen ein X- und ein Y-Chromosom (dankenswerterweise zur Verfügung gestellt von Dr. C. Johannes, Univ. Duisburg-Essen). (S. auch Farbtafel S. XVIII.)
Die genetische Information befindet sich in den Chromosomen (aus dem Griechischenχρμαchrma, Farbe, und σμαsma, Körper; also wörtlich „Farbkörper“). Sie tragen ihren Namen, weil sie im mikroskopischen Bild sich teilender Zellen mit Hilfe spezieller Färbetechniken sichtbar gemacht werden können. Ihre Bestandteile sind die Desoxyribonukleinsäure (deutsch DNS, meist aber wie im Englischen DNA) und spezielle Proteine, die Histone.
Struktur der DNA [5].
Jeder DNA-Abschnitt, auf dem die Information für ein bestimmtes Protein verzeichnet ist, bildet ein Gen. Ihre Zahl ist beim Menschen nicht genau bekannt, sie wird auf ca. 23.000 geschätzt.
Jeder Mensch erfährt täglich, welch vielfältige Aufgaben sein Körper zu erfüllen hat, meist ohne dass es einem bewusst wird. Erst wenn es durch Krankheiten zu Ausfällen und Schmerzen kommt, beginnt man, sich Gedanken zu machen. Die lebenslange ordnungsgemäße Funktion ist eigentlich ein großes Wunder, für das Staunen und Dankbarkeit eine mehr als angemessene Reaktion wäre. Unsere Organe sind hoch spezialisiert und das gilt auch für die Zellen, aus denen sie aufgebaut sind. Ausgehend von dem oben beschriebenen Grundmuster durchlaufen sie vielfältige Modifizierungen, ein Prozess, den man alsDifferenzierung bezeichnet.
Alle Zellen unseres Körpers besitzen nur eine begrenzte Lebensdauer, die erheblich kürzer ist als unsere Lebenserwartung, die nach einem bekannten Bibelspruch höchstens 80 Jahre beträgt, was damals wohl nicht der Realität entsprach, aber der heutigen Situation ziemlich nahe kommt. Das Ausscheiden der Zellen verläuft nicht unspezifisch, sondern nach einem recht raffinierten Programm, das man alsApoptose