43,99 €
Expertenwissen für jedermann: Diese Auskopplung aus dem "Handbuch der Lebensmitteltoxikologie" beschreibt umfassend und kompetent heute verwendeten Methoden und Verfahren der Lebensmittelüberwachung.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 510
Veröffentlichungsjahr: 2013
Inhalt
Autorenverzeichnis
1 Allgemeine Grundsätze der toxikologischen Risikoabschätzung und der präventiven Gefährdungsminimierung bei Lebensmitteln
1.1 Einleitung
1.2 Gefährdung und Risiko
1.3 Literatur
2 Ableitung von Grenzwerten in der Lebensmitteltoxikologie
2.1 Einleitung
2.2 Lebensmittelzusatzstoffe
2.3 Natürliche Lebensmittelbestandteile
2.4 Vitamine und Mineralstoffe
2.5 Aromastoffe
2.6 Lebensmittelkontaminanten
2.7 Materialien im Kontakt mit Lebensmitteln
2.8 Rückstände in Lebensmitteln
2.9 Literatur
3 Hygienische und mikrobielle Standards und Grenzwerte und deren Ableitung
3.1 Einleitung
3.2 Untersuchungsziele
3.3 Beurteilung mikrobiologischer Befunde
3.4 Stichprobenpläne
3.5 Mikrobiologische Kriterien
3.6 Literatur
4 Sicherheitsbewertung von neuartigen Lebensmitteln und Lebensmitteln aus genetisch veränderten Organismen
4.1 Einleitung
4.2 Definitionen und rechtliche Aspekte
4.3 Sicherheitsbewertung neuartiger Lebensmittel und Lebensmittelzutaten
4.4 Sicherheitsbewertung von Lebensmitteln aus GVO
4.5 Literatur
5 Lebensmittelüberwachung und Datenquellen
5.1 Einleitung
5.2 Welche Produkte werden im Rahmen der Lebensmittelüberwachung untersucht?
5.3 Datengewinnung im Rahmen der amtlichen Lebensmittelüberwachungr amtlichen Lebensmittelüberwachung
5.4 Datenbewertung
5.5 Berichtspflichten
5.6 Datenveröffentlichung
5.7 Zulassungsstellen und Datensammlungen
5.8 Zusammenfassung
5.9 Literatur
6 Verfahren zur Bestimmung der Aufnahme und Belastung mit toxikologisch relevanten Stoffen aus Lebensmitteln
6.1 Einleitung
6.2 Bestimmung des Lebensmittelverzehrs
6.3 Kopplung von Verzehrs- und Konzentrationsdaten
6.4 Bestimmung der Belastung mit toxikologisch relevanten Stoffen
6.5 Zusammenfassung
6.6 Literatur
7 Analytik von toxikologisch relevanten Stoffen
7.1 Einleitung
7.2 Qualitätssicherung und Qualitätsmanagement (QS/QM)
7.3 Nachweis anorganischer Kontaminanten
7.4 Nachweis organischer Rückstände und Kontaminanten
7.5 Literatur
8 Mikrobielle Kontamination
8.1 Mikroben und Biosphäre
8.2 Die Kontamination von Lebensmitteln
8.3 Ökonomische Bedeutung der mikrobiellen Kontamination von Lebensmitteln
8.4 Kontaminationswege
8.5 Beherrschung der Kontaminationszusammenhänge durch menschliche Intervention
8.6 Der Nachweis von Kontaminanten: ein viel zu wenig beachtetes Problem
8.7 Literatur
9 Nachweismethoden für bestrahlte Lebensmittel
9.1 Einleitung
9.2 Entwicklung von Nachweismethoden
9.3 Stand der Nachweisverfahren
9.4 Validierung und Normung von Nachweisverfahren
9.5 Prinzip und Grenzen der genormten Nachweisverfahren
9.6 Neuere Entwicklungen
9.7 Überwachung
9.8 Schlussfolgerung und Ausblick
9.9 Literatur
10 Basishygiene und Eigenkontrolle, Qualitätsmanagement
10.1 Einleitung
10.2 Eingliederung eines Hygienekonzeptes in ein Qualitätsmanagement-System eines Lebensmittelbetriebes
10.3 Bedeutung der Basishygiene am Beispiel des Rinderschlachtprozesses
10.4 Eigenkontrollen im Rahmen des neuen Europäischen Lebensmittelrechtes
10.5 Umsetzung der Eigenkontrollen zur Verifikation der Basishygiene am Beispiel Schlachtbetrieb
10.6 Fazit
10.7 Literatur
Sachregister
Beachten Sie bitte auch weitere interessante Titel zu diesem Thema
Schwedt, G.
Analytische Chemie
Grundlagen, Methoden und Praxis
2008
ISBN: 978-3-527-31206-1
Vreden, N., Schenker, D., Sturm, W., Josst, G., Blachnik, C.
Lebensmittelführer
Ein Inhalte, Zusätze, Rückstände
2008
ISBN: 978-3-527-31797-4
Heller, K. J. (Hrsg.)
Genetically Engineered Food
Methods and Detection
2., aktualis. u. erw. Auflage
2006
ISBN: 978-3-527-31393-8
Schuchmann, H.P., Schuchmann, H.
Lebensmittelverfahrenstechnik
Rohstoffe, Prozesse, Produkte
2005
ISBN: 978-3-527-31230-6
Schmidt, R. H. / Rodrick, G. E.
Food Safety Handbook
2003
ISBN: 978-0-471-21064-1
Herausgeber
Prof. Dr. Hartmut Dunkelberg
Universitätsmedizin Göttingen
Laborgebäude 11A
Lenglerner Straße 75
37079 Göttingen
Prof. Dr. Thomas Gebel
Bundesanstalt für Arbeitsschutzund Arbeitsmedizin, FG4.3
Fachbereich 4
Friedrich-Henkel-Weg 1–25
44149 Dortmund
Prof. Dr. Andrea Hartwig
KIT/Angewandte Biowiss.
Abt. Lebensmittelchemie und ToxikologieKaiserstraße 12
76131 Karlsruhe
Alle Beiträge in diesem Band sind entnommen aus „Handbuch der Lebensmitteltoxikologie – Belastungen, Wirkungen, Lebensmittelsicherheit, Hygiene“, ISBN 978-3-527-31166-8
1. Auflage 2012
Alle Bücher von Wiley-VCH werden sorgfältig erarbeitet. Dennoch übernehmen Autoren, Herausgeber und Verlag in keinem Fall, einschließlich des vorliegenden Werkes, für die Richtigkeit von Angaben, Hinweisen und Ratschlägen sowie für eventuelle Druckfehler irgendeine Haftung
Bibliografische Information der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
© 2012 Wiley-VCH Verlag & Co. KGaA,Boschstr. 12, 69469 Weinheim, Germany
Alle Rechte, insbesondere die der Übersetzung in andere Sprachen, vorbehalten. Kein Teil dieses Buches darf ohne schriftliche Genehmigung des Verlages in irgendeiner Form – durch Photokopie, Mikroverfilmung oder irgendein anderes Verfahren – reproduziert oder in eine von Maschinen, insbesondere von Datenverarbeitungsmaschinen, verwendbare Sprache übertragen oder übersetzt werden. Die Wiedergabe von Warenbezeichnungen, Handelsnamen oder sonstigen Kennzeichen in diesem Buch berechtigt nicht zu der Annahme, dass diese von jedermann frei benutzt werden dürfen. Vielmehr kann es sich auch dann um eingetragene Warenzeichen oder sonstige gesetzlich geschützte Kennzeichen handeln, wenn sie nicht eigens als solche markiert sind.
Print ISBN 978-3-527-33288-5
ePDF ISBN 978-3-527-65304-1
ePub ISBN 978-3-527-65303-4
mobi ISBN 978-3-527-65302-7
oBook ISBN 978-3-527-65301-0
Umschlaggestaltung Adam-Design, WeinheimSatz K+V Fotosatz GmbH, Beerfelden
Autorenverzeichnis
Dr. Henry Delincée
Bundesforschungsanstalt
für Ernährung und Lebensmittel
Institut für Ernährungsphysiologie
Haid-und-Neu-Str. 9
76131 Karlsruhe
Deutschland
Dr. Werner Grunow
Bundesinstitut für Risikobewertung (BfR)
Thielallee 88–92
14195 Berlin
Deutschland
Dr. Thomas Heberer
Bundesinstitut für Risikobewertung (BfR)
Thielallee 88–92
14195 Berlin
Deutschland
Dr. Kurt Hoffmann
Deutsches Institut
für Ernährungsforschung
Arthur-Scheunert-Allee 114–116
14558 Nuthetal
Deutschland
Dr. Horst Klaffke
Bundesinstitut für Risikobewertung (BfR)
Thielallee 88–92
14195 Berlin
Deutschland
Prof. Dr. Johannes Krämer
Rheinische Friedrich-Wilhelms-Universität Bonn
Institut für Ernährungsund Lebensmittelwissenschaften
Meckenheimer Allee 168
53115 Bonn
Deutschland
Prof. Dr. Diether Neubert
Charité Campus Benjamin Frankling
Berlin
Institut für Klinische Pharmakologie und Toxikologie
Garystr. 5
14195 Berlin
Deutschland
Dr. Annette Pöting
BGVV
Toxikologie der Lebensmittel und Bedarfsgegenstände
Postfach 330013
14191 Berlin
Deutschland
Dr. Maria Roth
Chemisches und Veterinäruntersuchungsamt Stuttgart
Schaflandstr. 3/2
70736 Fellbach
Deutschland
Irene Straub
Chemisches und Veterinäruntersuchungsamt Stuttgart
Weißenburgerstr. 3
76187 Karlsruhe
Deutschland
Prof. Dr. Roger Stephan
Institut für Lebensmittelsicherheit und -hygiene
Winterthurerstr. 272
8057 Zürich
Schweiz
Prof. Dr. Martin Wagner
Veterinärmedizinsiche Universität Wien (VUW)
Abteilung für öffentliches
Gesundheitswesen
Veterinärplatz 1
1210 Wien
Österreich
Dr. Claudio Zweifel
Institut für Lebensmittelsicherheit und -hygiene
Winterthurerstr. 272
8057 Zürich
Schweiz
Diether Neubert
Mit der natürlichen Nahrung nehmen wir jeden Tag Zehntausende von unbekannten Substanzen auf, wahrscheinlich sogar Hunderttausende. Von der überwiegenden Mehrzahl kennen wir die vorhandene Konzentration nicht, ja nicht einmal die chemische Struktur. Offenbar sind jedoch die Dosis und die akute Toxizität der meisten dieser nahezu unzählbaren Verbindungen so gering, dass fast nie eine unmittelbare Gesundheitsgefährdung resultiert. Die Jahrtausende alte Erfahrung hat nur für wenige definierte Nahrungsmittel (Pflanzen, Pilze, Fische, etc.) und bestimmte Inhaltsstoffe eine toxikologische Gefährdung überliefert. Hingegen können wir naturgemäß wegen der komplexen Situation nur wenige konkrete Aussagen über mögliche, negative oder positive, chronische Wirkungen der Komponenten in unserer Nahrung machen. Dafür sind die Konsumgewohnheiten der meisten menschlichen Gesellschaften zu komplex und zu variabel.
Neben den natürlichen Nahrungsbestandteilen können toxikologisch auch vom Menschen manipulierte Faktoren in Lebensmitteln eine zunehmende Rolle spielen. Vielen dieser Komponenten wird primär eine „günstige“ Wirkung zugeschrieben, und deshalb werden sie Lebensmitteln zugesetzt und vom Verbraucher konsumiert. Ob die stetige Konfrontation gegenüber zunächst unterschwelligen Stoffmengen, z. B. von karzinogenen Stoffen (insbesondere aus der Nahrungszubereitung wie Kochen, Braten, Grillen, Frittieren, etc.), in praxi einen deutlichen schädlichen Einfluss auf die menschliche Gesundheit ausübt, muss heute noch weitgehend offen bleiben. Jedenfalls hat die Tatsache, dass hier mutagene und karzinogene Substanzen vorliegen, die durchaus zu den potenten gehören, bisher in unserer Gesellschaft zu keiner drastischen Konsequenz geführt: Wir kochen, braten und grillen unsere Nahrung weiterhin. Man kann davon ausgehen, dass nach jeder Mahlzeit in den Leberzellen Tausende von DNA-Addukten aufgetreten sind und noch sehr viel mehr Addukte an Proteinen. Wir vertrauen weitgehend auf die bekannten und offensichtlich sehr ef-fektiven Reparatursysteme in unserem Organismus, die solche Noxen fast immer wieder unschädlich machen.
Vom Standpunkt der Toxikologie aus (d. h. der Schädlichkeit), und vielleicht auch der Pharmakologie (d. h. der Nützlichkeit), kann man zusammenfassend mehrere Gruppen von Komponenten in der Nahrung unterscheiden:
natürliche
, in bestimmten Nahrungsmitteln bevorzugt vorkommende, chemische Substanzen. Dies stellt bei weitem die größte Gruppe dar. Die Toxizität einiger konkreter Substanzen ist uns heute geläufig. Mögliche Wirkungen der weitaus meisten Bestandteile der Nahrung bleiben unbekannt;
angereicherte natürliche
Komponenten, in Konzentrationen, die in der natürlichen Nahrung so nicht vorkommen (z. B. Vitamine, Aminosäuren, Spurenelemente, Flavonoide, aber auch Salz, Zucker, Gewürze, etc.);
bei der
Zubereitung
der Speisen entstehende Stoffe (beim Kochen, Braten, Grillen, z. B. polycyclische aromatische Kohlenwasserstoffe bzw. aromatische Amine, heterocyclische Amine, Nitrosamine, Acrylamid, etc.);
zur
Konservierung
usw. zugesetzte oder bei diesem Vorgang entstehende Stoffe (z. B. Nitrite und andere Salze, durch Räuchern entstehende Stoffe, Ameisensäure und andere Säuren, Antioxidantien).
Rückstände
in pflanzlichen und tierischen Nahrungsmitteln (z. B. von Pflanzenschutzmitteln, aber auch von Substanzen aus der Tiermast oder von notwendiger (und unnötiger) veterinärmedizinischer Behandlung).
Stoffe aus
Kontaminationen
(Methylquecksilber in manchen Fischen, „Dioxine“ und PCB im tierischen Fett, Aflatoxine in Erdnüssen, im Trinkwasser Blei oder Arsen; letzteres auch als „natürliche“ Verunreinigung).
Alle diese Gruppen von Substanzen mit toxikologischem Potenzial zeigen, mindestens bei exzessiver Exposition, eine spezielle Problematik, und sie bedürfen einer besonderen Beurteilung. Die allgemeinen Prinzipien zur Beurteilung der toxikologischen Sicherheit (engl.: safety evaluation) sind für alle Agenzien gleich. In der folgenden kurzen Darstellung kann nicht auf die speziellen Gegebenheiten der einzelnen Substanzen eingegangen werden, sondern es sollen vielmehr die Voraussetzungen und Prinzipien der Toxikologie, anhand von typischen Beispielen, diskutiert werden.
Nicht zu unterschätzen ist natürlich auch die Bedeutung der Ernährung als solche. Der direkte und indirekte Zusammenhang zwischen z. B. Übergewicht und Herz-/Kreislauf-Erkrankungen muss nach guten epidemiologischen Studien als wahrscheinlich gelten [15, 48, 56, 60].
Im hier zu diskutierenden Zusammenhang kann man die Toxikologie in drei Gebiete unterteilen:
Die
humanmedizinische
Toxikologie hat die Aufgabe, Gesundheitsschädigungen des Menschen im Zusammenhang mit Lebensmitteln zu erkennen und zu verhindern. Sie stellt das bei weitem größte Gebiet dar.
Die Veterinärtoxikologie hat die Aufgabe, unerwünschte Agenzien in Lebensmitteln tierischen Ursprungs zu erkennen und den entsprechenden Konsum des Menschen zu minimieren.
Die
Öko
toxikologie hat die Aufgabe, schädigende Einflüsse auf die Natur zu analysieren, und mögliche Wege zur Minimierung aufzuzeigen. Im Zusammenhang mit Lebensmitteln spielt dieser Aspekt der Toxikologie eine untergeordnete Rolle, aber die „ökologische“
Kontamination
von Lebensmitteln ist ein wichtiger Zweig der medizinischen Toxikologie.
Diese drei Gebiete der Toxikologie haben recht verschiedene Zielsetzungen, sie benutzen unterschiedliche Methoden zur Erkennung entsprechender Wirkungen, und die Aussagekraft spezifischer Daten ist ebenfalls nicht gleich. Hier sollen nur die Gebiete mit medizinischer Fragestellung diskutiert werden, denn in die komplexe Ökotoxikologie fließen noch viele zusätzliche, z. B. überwiegend politische, Aspekte ein.
Es ist die wissenschaftliche Aufgabe der medizinischen Toxikologie, für den Menschen, Gesundheitsgefährdungen, die von exogenen chemischen oder physikalischen Noxen ausgehen können, durch entsprechende Verfahren zu erkennen, wenn möglich zu quantifizieren und Wege aufzuzeigen, entsprechende Schädigungen zu verhindern sowie aufgetretene Intoxikationen zu behandeln.
Als Grundlage für das Verständnis der Toxikologie dient in erster Linie die Pharmakologie, weil viele entscheidende Prinzipien (Dosis-Wirkungsbeziehung, Pharmakodynamik, Pharmakokinetik, Metabolismus, Wirkungsmechanismen, etc.) primär in diesem Fach erforscht wurden und noch werden. Maßstäbe für eine sinnvolle Interpretation toxikologischer Daten stammen zudem meistens aus der Arzneimitteltoxikologie.
Die Veterinärtoxikologie hat gegenüber der Toxikologie mit humanmedizinischer Zielsetzung den Vorteil, dass Untersuchungen immer direkt am entsprechenden Objekt durchgeführt werden können. Dies ist bei der humanmedizinischen Toxikologie nur begrenzt der Fall, denn die Erkenntnisse stützen sich auf zwei Informationsquellen mit sehr unterschiedlicher Aussagekraft:
Zur Erkennung, Beurteilung und Gefährdungsminimierung möglicher toxikologischer Wirkungen beim Menschen werden also zwei völlig verschiedene Strategien angewandt (Abb. 1.1):
Die zuletzt genannte Strategie wird überwiegend zur administrativen Prävention eingesetzt („vorsorglicher Verbraucherschutz“). Entsprechende Schlussfolgerungen müssen jedoch so lange Spekulation bleiben, bis Daten vom Menschen verfügbar sind.
Wenn Daten für eine toxikologische Beurteilung erhoben werden sollen wird in der Regel versucht, das Studiendesign so übersichtlich wie möglich zu gestalten. In praxi wird jedoch die Wirkung zusätzlicher exogener Noxen durch eine größere Zahl allgemeiner Faktoren im Organismus beeinflusst, die bei einer pauschalen Beurteilung nicht berücksichtigt werden. Bereits die Zufuhr der Nahrung und ihre Verwertung verändert im Organismus eine Fülle von Vorgängen, von der Umverteilung der Blutzufuhr zu bestimmten Organen bis zu Veränderungen im allgemeinen Stoffwechsel und dem der Zellen. Besonders im Niedrigdosisbereich werden solche Vorgänge die Wirkung von exogen zugeführten Substanzen modifizieren (Abb. 1.2). Es kommt hinzu, dass bestimmte Nahrungsbestandteile die Wirkung und Metabolisierung von Medikamenten und anderen Fremdstoffen beeinflussen können. Der Einfluss von Grapefruitsaft auf Prozesse der Pharmakon-Metabolisierung, und der Einfluss Vitamin-K-reicher (oder auch -armer) Nahrung auf das Ausmaß der Hemmung der Blutgerinnung durch Phenprocoumon (Marcumar®) sind einige Beispiele.
Abb. 1.1 Unterschied zwischen toxikologischer Risikoabschätzung und präventiver Gefährdungsminimierung. Die klinische Risikoabschätzung mit Relevanz für den Menschen basiert auf Beobachtungen beim Menschen. Es resultiert eine Zahlenangabe (Inzidenz bei definierter Exposition). Durch Extrapolation von tierexperimentellen Daten wird eine (präventive) Gefährdungsminimierung versucht; es wird ein Bereich abgeschätzt, in dem toxikologische Wirkungen nicht mehr sehr wahrscheinlich sind. Die wirkliche Inzidenz beim Menschen muss letztlich unbekannt bleiben (modifiziert aus: Neubert, in: Marquardt/Schäfer, 2004).
Abb. 1.2 Wechselwirkung zwischen exogenen und endogenen Faktoren. Faktoren wie Ernährung und Krankheiten können die Wirkung exogener Noxen ähnlich modifizieren wie endogene Variable, z. B. hormoneller Status und Psyche.
Der Nachweis von Dosis-Wirkungsbeziehungen ist ein wesentliches Argument für das Vorhandensein einer spezifischen toxikologischen Wirkung. Beim Fehlen einer Dosis-Wirkungsbeziehung sollte man stutzig werden: Es mag sich um einen „Pseudoeffekt“ handeln, der nicht entscheidend vom untersuchten Agens abhängt.
Es ist das heute unumstrittene Dogma der Pharmakologie und Toxikologie, dass alle Effekte dosisabhängig auftreten. Die zweite Erfahrung besteht darin, dass bei Erhöhung der Dosis fast immer mehr Effekte hinzutreten. Das erklärt auch, warum es für nahezu alle Substanzen Dosisbereiche gibt, in denen Wirkungen auftreten, die mit dem Leben nicht vereinbar sind: Letaldosen.
Es gibt noch eine weitere Erkenntnis in der Medizin, nämlich dass geringgradige Wirkungen („borderline effects“) nicht mit hinreichender Sicherheit zu verifizieren sind. Berücksichtigung dieser Erkenntnis könnte uns viele unnötige und frustrierende Diskussionen ersparen, die überwiegend von medizinischen Laien angezettelt werden.
Wenn man eine resultierende Wirkung gegen die Dosis aufträgt, erhält man eine Dosis-Wirkungs-(Dosis-Effekt-)Kurve. Solche Kurven können recht unterschiedliche Formen aufweisen und eine unterschiedliche Steilheit besitzen. In der Regel sind Dosis-Wirkungskurven nicht linear oder nur in einem sehr kleinen (mittleren) Dosisbereich geradlinig. Meist verlaufen sie S-förmig (Abb. 1.3). Entsprechende Kurven beziehen sich auf eine Wirkung. Bei verschiedenen Wirkungen des gleichen Agens wird man Dosis-Wirkungsbeziehungen mit unterschiedlichem Kurvenverlauf und verschiedener Steilheit erwarten.
Abb. 1.3 Beispiele für Dosis-Wirkungskurven. Die meisten Dosis-Wirkungskurven haben einen S-förmigen Verlauf. Dargestellt sind die Kurven für drei Wirkungen der gleichen Substanz. Bei Dosiserhöhung muss mit mehr Wirkungen gerechnet werden (hier: B und C), deren Dosis-Wirkungskurven in der Regel andere Steilheiten aufweisen. Einige dieser Wirkungen sind mit dem Leben nicht vereinbar (Bereich von Letaldosen). (Modifiziert aus: Neubert, in: Marquardt/ Schäfer, 2004).
Auch bei der Analyse der gleichen Wirkung bei verschiedenen Tierspezies kann man keine identischen Dosis-Wirkungskurven erwarten.
Der S-förmige Verlauf von Dosis-Wirkungskurven ergibt sich z. B. aus der Rezeptortheorie. Der nahezu geradlinige Abschnitt in der Nähe des 50%-Wertes erscheint verlängert und tritt häufig deutlicher hervor, wenn der Logarithmus der Dosis gegen den Prozentsatz (besser noch gegen den Prohit) der Wirkung aufgetragen wird.
In einer „klassischen“ Dosis-Wirkungskurve existiert also sowohl ein Bereich der „100%-Wirkung“ als auch der „Null-Wirkung“ (Abb. 1.3). Dies ist an Hunderten von Arzneimitteln, auch beim Menschen, verifiziert worden. Da sich die Kurve aber asymptotisch dem 0- bzw. 100%-Bereich nähert, sind diese beiden Werte in der Regel nicht genau zu definieren (besonders bei flachen Dosis-Wirkungskurven). Dies spielt in der Praxis für die pharmakologischen und für die meisten toxikologischen Wirkungen keine Rolle.
Für bestimmte stochastische Effekte wird häufig angenommen, zu Recht oder zu Unrecht, dass sich die Inzidenz einer Wirkung bei Reduktion der Exposition immer weiter vermindert. In praxi gibt es aber auch für diese Effekte (z. B. Karzinogenität) eine Exposition mit nicht mehr nachweisbarer oder nicht mehr relevanter Wirkung. Karzinogene Wirkungen zeigen besonders klare Dosis-Wirkungsbeziehungen.
Durch Fremdstoffe im Organismus induzierte primäre Veränderungen lösen sehr häufig Folgereaktionen aus oder sogar Gegenreaktionen. Wegen dieser Tatsache müssen komplexe Dosis-Wirkungsbeziehungen resultieren, d. h. die dann komplexe Dosis-Wirkungskurve repräsentiert die Resultante aus mehreren Effekten. Angesprochen ist hier das Problem komplexer Wirkungen (und damit auch komplexer Dosis-Wirkungsbeziehungen), die bei gleichzeitiger Wirkung auf das gleiche Organsystem aber über verschiedene Mechanismen auftreten.
Bei manchen pharmakologischen oder toxikologischen Effekten verläuft die Dosis-Wirkungskurve gegensinnig, d. h. „U- oder besser ausgedrückt J-förmig“. Dies ist seit langem bekannt, auch bei bestimmten Wirkungen einiger Umweltsubstanzen, z. B. „Dioxinen“ [69, 90]. In jüngster Zeit ist das Phänomen erneut aufgefallen, z. B. bei hormonellen Wirkungen von Fremdstoffen.
Ein biphasischer Verlauf einer Dosis-Wirkungskurve ist unter zwei Bedingungen bekannt:
bei verschiedenen Dosierungen von
Partialantagonisten
(z. B. beim Nalorphin) oder wenn die Konzentration des gleichzeitig anwesenden Agonisten verändert wird;
wenn eine Substanz den gleichen Endeffekt über zwei verschiedene Mechanismen auslöst (
Abb. 1.4
), z. B. an zwei Rezeptoren aber mit unterschiedlicher Affinität. Ein altbekanntes Beispiel ist das Verhalten des Blutdrucks nach Gabe von Adrenalin.
Im Gegensatz zur S-förmigen Kurve ergeben sich beim J-förmigen Verlauf natürlich zwei „no observed adverse effect level“ (NOAEL), weil die Nulllinie zweimal erreicht wird.
Experimentell und klinisch sind seit langer Zeit Substanzen bekannt, die auf hormonelle Systeme gleichzeitig oder dosisabhängig über verschiedene Rezeptoren (besonders solche für Sexualhormone) unterschiedliche Wirkungen auslösen können. Das gilt bereits für die physiologischen Hormone (Estrogene, Progesteron, Testosteron), die periphere Rezeptoren stimulieren, aber über das Hypothalamus-/Hypophysensystem entsprechende hormonelle Wirkungen hemmen. Fast alle klinisch benutzten hormonellen halbsynthetischen oder synthetischen Substanzen besitzen mehr als eine hormonelle Wirkung, sehr häufig von entgegengesetztem Charakter: gestagen/androgen, antiestrogen/estrogen, usw. (s. z. B. [70]). Es ist für Experten daher nicht überraschend, dass auch Fremdstoffe mit gewissem hormonellen Potenzial bei entsprechenden Effekten keinen „klassischen“ DosisWirkungskurven gehorchen. Auch bestimmten Nahrungsbestandteilen wird heute eine gewisse hormonelle Wirkung zugeschrieben (z. B. Soja-Inhaltsstoffen), und es sind auch komplexe Dosis-Wirkungskurven zu erwarten.
Abb. 1.4 Beispiel für den biphasischen Verlauf einer Dosis-Wirkungskurve. Die resultierende Wirkung (Resultante) kommt durch Überlagerung von zwei verschiedenen Wirkungen (A und B, hier additiv) zustande. Beim „J“-förmigen Verlauf existieren zwei NOAEL-Werte. Wirkung B tritt bereits bei einer geringeren Dosis auf als Wirkung A. (Modifiziert aus: Neubert, in: Marquardt/Schäfer, 2004).
Es ist auch denkbar, dass sich bei relativ hoher Dosierung zwei Wirkungen kompensieren, während bei niedriger Exposition eine Wirkung (z. B. eine unerwünschte) dominiert. Vom Mechanismus her wird man in der Regel eine Resultante von Wirkungen annehmen, die an mehr als einem Angriffspunkt ansetzen. Sinnvolle Aussagen sind nur möglich, wenn (1) genaue Daten zu DosisWirkungsbeziehungen vorgelegt werden (einschließlich NOAEL, es existiert für solche Effekte immer auch ein unterer NOAEL (Abb. 1.4!), (2) ausreichend große Gruppen von Versuchstieren untersucht wurden, (3) der Effekt auch in anderen Laboratorien reproduziert werden kann, und (4) der Wirkungsmechanismus analysiert wurde. Wenn diese Kriterien nicht erfüllt werden, verbleiben für die toxikologische Bewertung weitgehend wertlose Spekulationen. Zur Beurteilung der möglichen Relevanz für den Menschen ist (5) auch der Nachweis wichtig, dass das postulierte Verhalten bei mehreren Versuchstierspezies und -stämmen reproduziert werden kann, und dass (6) beim Menschen eine ausreichende Exposition zu erwarten ist (vergleichende Untersuchungen zur Kinetik).
Die veränderte oder entgegengesetzte Wirkung im Niedrigdosisbereich ist aber keine allgemeine Eigenschaft aller oder vieler Substanzen, wie in der Homöopathie angenommen wird. Eine solche Behauptung ist inzwischen hinreichend widerlegt worden, und eine solche Anschauung wäre, wenn sie heute noch vertreten würde, sicher falsch.
Abb. 1.5 Beispiel für den „biphasischen“ Verlauf unerwünschter Wirkungen beim Mangel und im toxischen Bereich. Als Beispiel kann Vitamin A (Retinoide) dienen: Beim Vitaminmangel können experimentell multiple Fehlbildungen ausgelöst werden. Das Vitamin ist eine für die pränatale Entwicklung essenzielle Substanz (mittlerer Expositionsbereich). Die Applikation sehr hoher Dosen führt ebenfalls zu multiplen Fehlbildungen, weil wesentliche Entwicklungsvorgänge gestört werden. Der Typ von Fehlbildungen muss in beiden Bereichen nicht identisch sein.
Ein scheinbar biphasisches Resultat kommt auch bei essenziellen Substanzen vor, z. B. Vitaminen oder Spurenelementen, wenn diese in hoher Dosierung toxisch wirken. In Abbildung 1.5 ist als Beispiel die teratogene Wirkung von Vitamin A angegeben: Bei Vitamin A-Mangel während der Trächtigkeit (oder Schwangerschaft) kommt es zu Fehlbildungen des Keimes [121]. Innerhalb eines gewissen Dosisbereiches ist Vitamin A für die Entwicklung essenziell, und bei Überdosierung werden wiederum Fehlbildungen induziert, dann durch toxikologische Fehlsteuerung. Dieser teratogene Effekt tritt auch nach Gabe anderer Retinoide auf (z. B. [51, 52]). Im Mangelbereich und bei der toxischen Wirkung muss durchaus nicht der gleiche Typ von Fehlbildungen auftreten. Natürlich handelt es sich bei der Mangelsituation nicht um eine pharmakologische oder toxikologische Wirkung. Eine solche „biphasische“ Wirkung ist bei allen essenziellen Substanzen zu erwarten, wenn ein toxischer Bereich erreicht werden kann. Im Gegensatz zu anderen beschriebenen biphasischen Effekten kann bei der Mangelsituation kein unterer NOAEL existieren. Alle Dosierungen unterhalb der minimal notwendigen Dosis sind schädlich.
Die Gesundheit betreffende unerwünschte Wirkungen fallen oft nicht in den Bereich der Toxizität, sondern es handelt sich um allergische Wirkungen. Das gilt insbesondere auch für das Gebiet der unerwünschten Wirkungen von Le bensmitteln, weil Nahrungsmittelallergien recht häufig sind (z. B. [18, 41]), sicher viel häufiger als toxikologische Wirkungen von Lebensmitteln.
Allergische Wirkungen werden in der Medizin von toxischen Effekten klar abgegrenzt, weil sie anderen Gesetzmäßigkeiten gehorchen. Dies betrifft sowohl die Dosisabhängigkeit, den zeitlichen Ablauf, und den Wirkungsmechanismus. Das klinische Bild von allergischen und von toxikologischen Wirkungen mag jedoch in vielen Fällen als recht ähnlich imponieren (Blutbildveränderungen, Kreislaufzusammenbruch (bis zum letalen Ausgang), Lungenveränderungen, etc.). Dies ist verständlich, weil der Organismus nur mit einer limitierten Anzahl von Reaktionen antworten kann.
Es ist zu beachten, dass sich toxikologische Effekte selbstverständlich auch am Immunsystem manifestieren können, wie an jedem Organsystem. Darum können und müssen immuno-toxische (bzw. immuno-pharmakologische) Wirkungen klar gegenüber allergischen Effekten abgegrenzt werden.
Es ist viel über toxikologisches „ Risiko“ diskutiert und publiziert worden. Viele Missverständnisse im täglichen Leben, aber auch bei manchen toxikologischen Beurteilungen, insbesondere von Behörden, entstehen, weil zwei völlig verschiedene Begriffe, Gefährdung und Risiko, mit dem gleichen gemeinsamen Ausdruck, nämlich Risiko, belegt werden. Zu dieser Konfusion haben auch „Experten“ auf dem Gebiet der Toxikologie maßgeblich beigetragen. Klarheit können wir uns nur verschaffen, wenn wir die beiden Begriffe klar auseinander halten. Auch im internationalen Sprachgebrauch ist die Definition nicht immer eindeutig. In diesem Kapitel werden die Definitionen der WHO benutzt, die heute weitgehend akzeptiert sind.
Eine toxikologische Gefährdung (engl.: hazard) bezeichnet die Möglichkeit, dass eine unerwünschte Wirkung eintreten könnte (eine ausreichende Dosis vorausgesetzt), aber unter den gegebenen Umständen durchaus nicht eintreten muss und wird. Unbeantwortet bleibt sowohl die Frage, ob beim Menschen überhaupt ein Effekt zu erwarten ist, und vor allem bei welcher Exposition (Dosis) und in welchem Ausmaß (Inzidenz). Es wird also ein Verdacht geäußert.
Angaben zur Gefährdung sind wichtig, aber letztlich interessiert uns, insbesondere auch als Mediziner, das toxikologische Risiko. Dies beinhaltet eine quantitative Aussage1), d. h. eine Zahlenangabe. Das Risiko kann grundsätzlich nur auf der Basis von Daten von der Spezies abgeschätzt werden, für welche die Angabe gemacht werden soll. Dies bedeutet: das toxikologische Risiko für den Menschen kann nur nach Daten vom Menschen abgeschätzt werden!
Unter einem toxikologischen Risiko (engl.: risk) versteht man die Häufigkeit des Auftretens einer spezifischen unerwünschten Wirkung bei einer klar definierten Exposition oder Dosis bei einer definierten Spezies. Bei Exposition gegenüber dem gleichen Agens wird darum das Risiko für verschiedene unerwünschte Effekte durchaus unterschiedlich sein (wenn das Agens mehrere Effekte auslöst). Für verschiedene Subpopulationen der gleichen Spezies mag ebenfalls ein unterschiedliches Risiko bestehen. Natürlich ist meistens auch das Risiko gegenüber dem gleichen Agens bei verschiedenen Spezies nicht gleich!
Bei einer Fülle von Expositionsszenarien reicht die verfügbare Datenbasis nicht aus, um konkrete Angaben zum Risiko für den Menschen zu machen. Zur Minimierung der Gefährdung benutzt man dann pragmatisch Strategien, um Expositionsbereiche abzuschätzen, bei denen eine Gefährdung entweder sehr unwahrscheinlich ist, oder aber als noch „akzeptabel“ angesehen wird (engl.: hazard evaluation). Diese Strategien stützen sich immer auf Annahmen (häufig: worst-case-Annahmen) und Extrapolationen, mit allen damit verbundenen Unsicherheiten.
Das Ausmaß eines Effektes unter definierten Bedingungen (d. h. die Inzidenz) entspricht der Potenz2) der toxischen Wirkung des Agens bei der betreffenden Spezies. Das Risiko ist die statistische Häufigkeit (Inzidenz) mit der das Ereignis bei einer definierten Exposition (Dosis) in einer definierten Population beobachtet wurde. Risiko ist also: ein Zahlenwert, d. h. eine Dosis-Wirkungsbeziehung, häufig nur bei einer Dosis3). Eine Risikoabschätzung setzt demnach zwei Informationen voraus, über die möglichst gute Daten vorgelegt werden müssen:
ausreichende Angaben zur
Inzidenz
der
unerwünschten Wirkung
bei der betreffenden Spezies, und
3)
ausreichende Angaben zur
individuellen Exposition
(Dosis und Expositionsdauer) bei der betreffenden Spezies.
Für viele Arzneimittel wird eine derartige Risikoabschätzung laufend auf der Basis klinischer und epidemiologischer Studien mit Erfolg durchgeführt. Es muss daran erinnert werden, dass immer bereits ein gewisser Schaden eingetreten sein muss, um eine unerwünschte Wirkung beim Menschen zu erkennen, bzw. zum Ausschluss eines Risikos muss immer eine massive Exposition vieler Menschen stattgefunden haben. Risikoabschätzung ist also immer mit einer absichtlichen oder unabsichtlichen Exposition des Menschen gegenüber dem zu beurteilenden Agens verbunden!
Es ist klar, dass die Aussage zum Risiko um so zuverlässiger wird, je umfangreicher und qualitativ hochwertiger die Datenbasis der Beobachtungen beim Menschen ist. Da eine Risikoabschätzung grundsätzlich nur nach den Daten der entsprechenden Spezies durchgeführt werden kann, ist bei unzureichender Datenlage keine entsprechende verlässliche Abschätzung der Häufigkeit unerwünschter Wirkungen möglich. Viele Missverständnisse und Fehlinterpretationen beruhen auf der Verkennung dieser Tatsache.
Wenn man davon ausgeht, dass toxikologisches Risiko, per definitionem, einen Zahlenwert darstellt (nämlich: Inzidenz bei definierter Exposition), sind einige Schlussfolgerungen logisch:
Wenn die
Inzidenz
unerwünschter Effekte, bei der zu beurteilenden Spezies, nicht bekannt ist, oder die individuelle
Exposition
nicht zufriedenstellend definiert und gemessen werden kann, muss das Ausmaß des Risikos (d. h. der verlässliche Zahlenwert)
unbekannt
bleiben.
Die Annahme, man könnte
immer
ein Risiko für bestimmte Expositionen abschätzen, ist sicher falsch. Für die
meisten
Situationen gelingt dies wegen ungenügender Datenbasis
nicht
in zufriedenstellender Weise. Man begnügt sich mit dem Hinweis (z. B. aus Experimenten) auf eine mögliche
Gefährdung
und versucht, diese gering zu halten.
In der Regel bezieht sich das beschriebene Risiko auf die untersuchte Gruppe von Menschen. Es ist durchaus möglich, dass für bestimmte Subpopulationen oder andere Bevölkerungsgruppen ein höheres (oder auch ein geringeres) Risiko besteht (beim Vorliegen genetischer Polymorphismen, bei verschiedenen Altersgruppen, beim Vorliegen von Vorerkrankungen, etc.).
Wir gehen im täglichen Leben laufend Risiken ein, und wir sind auch
bereit
dies zu tun. Leben mit einem
Nullrisiko
gibt es nicht. Wir können nur versuchen, überschaubare Gefährdungen und unnötig hohe Gefährdungen wenn möglich zu vermeiden. Die Risikobereitschaft ist individuell verschieden und nicht klar definierbar
4)
. Bei geringem Nutzen sollte auch das Risiko gering sein (bei fehlendem Nutzen vernachlässigbar klein)
5)
.
Versuche, eine mögliche
Gefährdung
auf der Basis tierexperimenteller Daten zu
quantifizieren
, sind
keine
Risikoabschätzung. Entsprechende Zahlenangaben (z. B. die meisten wissenschaftlich fundierten „Grenzwerte“) entsprechen
keinem Risiko
für den Menschen. Dies mindert nicht den Wert derartiger pragmatisch-administrativer Abschätzungen zu „akzeptablen“ oder „wahr-scheinlich weitgehend ungefährlichen“
Bereichen
der Exposition (
präventive Gefährdungsminimierung
oder „
Vorsorglicher Verbraucherschutz
“).
Begriffe wie „karzinogenes Risiko“ sind meistens missverständlich, es sei denn die Inzidenz bei definierter Exposition kann für den Menschen angegeben werden (z. B. etwa für Arsen). Das ist selten der Fall. Meistens reicht eine semiquantitative Angabe zur Gefährdung (z. B. „…
kann beim Menschen Krebs auslösen
…“) auch als Warnhinweis aus. In der Umwelttoxikologie wird, der oben gegebenen Definition entsprechend, meist „
karzinogene Gefährdung
“ gemeint sein, da sich Angaben fast immer nur auf Resultate von Tierversuchen stützen. Dann ist nur eine
qualitative
Aussage auf der Basis einer
Extrapolation
möglich und keine verlässliche Angabe für den Menschen. Deshalb können trotzdem
präventive
Maßnahmen geboten erscheinen. Ob sie tatsächlich sinnvoll waren, wird man in der Regel nie erfahren.
Das toxikologische Risiko bezieht sich in der Regel auf
einen
definierten
Effekt
. Es wird für andere medizinische Endpunkte einen anderen Zahlenwert besitzen, auch wenn die verschiedenen Effekte von der gleichen Substanz ausgelöst werden.
Der Zahlenwert für das Risiko ist
unabhängig
von einem möglichen
Nutzen
der Exposition. Eine medizinische „
Nutzen-Risiko“-Abschätzung
gelingt bei klaren medizinischen Sachverhalten verhältnismäßig leicht. Aber der Nutzen kann auch weniger eindeutig oder z. B. ökonomisch sein. Da ein solcher Nutzen in der Regel nicht mit der gleichen Genauigkeit abgeschätzt und eindeutig definiert werden kann, muss eine derartige Nutzen-Risiko-Abschätzung immer ein erhebliches Maß an
Willkür
beinhalten. Verschiedene Menschen und Institutionen werden, ohne Absprache, zu voneinander abweichenden Einschätzungen gelangen.
Wenn man gegenüber einem bekannten toxikologischen Risiko die
Exposition
deutlich
vermindert
, kann man (bei unbekannter Dosis-Wirkungsbeziehung) den
Wert
für das neue
Risiko
nicht abschätzen. Aber man reduziert in der Regel das Risiko.
Die Anzahl von Individuen mit unerwünschten Wirkungen ist klein oder zu vernachlässigen (
Tab. 1.1
), wenn entweder das toxikologische Risiko sehr gering oder die Anzahl der Exponierten verhältnismäßig klein ist (es sei denn das Risiko ist sehr hoch).
Die Häufigkeit, mit der eine bestimmte unerwünschte Wirkung in einer exponierten Gruppe auftritt, hängt also sowohl vom entsprechenden toxikologischen Risiko (d. h. der Inzidenz bei der betreffenden Exposition) als auch von der Größe der exponierten Gruppe ab (Tab. 1.1). Selbst bei einem relativ hohen Risiko (z. B. Situation I (Risiko 1: 100)) wird bei sehr wenigen Exponierten (hier: n=80 im Beispiel Ia) kaum ein zusätzlicher Fall einer unerwünschten Wirkung zu registrieren sein. Wird eine große Zahl von Menschen exponiert und eine entsprechend sehr große Gruppe untersucht (Beispiel I c), so ist das Risiko verifizierbar. Das gilt auch dann, wenn das Risiko sehr klein ist, aber eine sehr große Zahl von Menschen exponiert wurde und untersucht wird (Beispiele IIb und III c).
Tab. 1.1 Beispiele für die Aussagekraft einer Studie bei verschiedenem toxikologischem Risiko und unterschiedlicher Größe der exponierten bzw. der untersuchten Populationen. Die Beurteilung hängt auch wesentlich von der Art der unerwünschten Wirkung ab sowie von der „Spontanrate“ in der nicht exponierten Population. Zehn zusätzliche Fälle eines seltenen Krebstyps im Beispiel II könnten inakzeptabel sein, zehn zusätzliche Fälle von Kopfschmerz wären meistens weitgehend unbedenklich. Bei Arzneimitteln wird eine unerwünschte Wirkung von ≥ 1% bereits als „häufig“ bezeichnet. In der Umwelttoxikologie kann Beispiel Ia (kleine Gruppe Exponierter) durchaus eine realistische Konstellation darstellen.
Es ist zu bedenken, dass die Risikoabschätzung für den Menschen in der Regel keine ganz genaue Zahl ergibt, und verschiedene Studien können und werden zu voneinander abweichenden Angaben führen. Je geringer das Risiko, umso ungenauer die Zahlenangabe.
Das Risiko wird häufig nicht als absolutes, sondern als relatives Risiko, d. h. im Vergleich der Inzidenz mit einer nicht exponierten Population, angegeben. In einem derartigen klassischen Studiendesign werden zwei Gruppen, eine exponierte und eine Referenzgruppe (oder Kontrollgruppe), z. B. im randomisierten, doppelten Blindversuch miteinander verglichen. Der Vergleich mit einer Referenzpopulation und die doppeltblinde Anordnung sowie die Definition strikter Ein- und Ausschlusskriterien sind notwendig, weil (a) „Spontanraten“ ohne zusätzliche Exposition meist bereits in der Referenzgruppe vorhanden sind, (b) eine Beeinflussung einerseits durch das bloße Bekanntwerden der Exposition als solche und andererseits durch den Untersucher möglich ist und (c) so viele Störfaktoren („confounding factors“) wie möglich ausgeschlossen werden müssen.
In Tabelle 1.2 sind einige Beispiele für Risikoabschätzungen nach klinischen oder epidemiologischen Daten aufgeführt. Neben dem absoluten Risiko (der Inzidenz pathologischer Fälle in einer Gruppe Exponierter) kann das relative Risiko (rR) berechnet werden (der Quotient aus der Inzidenz in der Gruppe Exponierter und der Häufigkeit in der Referenzgruppe). Die Inzidenz der pathologischen Fälle ist allerdings beim rR nicht mehr erkennbar. Aus der Veränderung (z. B. als Prozent) der absoluten Risiken (Zunahme oder Reduktion) zwischen Exponierten und Referenzen kann die Veränderung des absoluten Risikos (aR-V) berechnet werden, und diese Aussage wird heute in der Pharmakologie häufig zu der „number needed to treat“ (NNT) umformuliert (100/aR-V). Dieser Begriff gibt in der „evidence-based medicine“ an, wie viele Patienten behandelt werden müssen, um einen Krankheitsfall zu vermeiden. Ein analoger Begriff kann auch in der Toxikologie benutzt werden: Wie viele Menschen müssen exponiert werden, um einen zusätzlichen pathologischen Fall zu beobachten („number needed to harm“, NNH)?
Tab. 1.2 Beispiele für Risikoabschätzungen nach Daten vom Menschen. Die Inzidenz in der Referenzgruppe könnte z. B. etwa der spontanen Häufigkeit der Summe aller Fehlbildungen in einer Population entsprechen. Diese Angaben sagen zunächst nichts über die statistische Signifikanz zwischen den Gruppen aus. Nur bei den Differenzen der beiden Beispiele 5. und 6 ist p<0,05 (χ2-Test).
Ob die mit einem relativen Risiko ausgedrückte Differenz zwischen zwei Gruppen statistisch signifikant und medizinisch relevant ist, hängt nicht nur von der Höhe des Wertes ab, sondern auch entscheidend von der Anzahl untersuchter Personen. Abhängig von der Güte des Studiendesigns darf man häufig erst bei Werten für das relative Risiko (rR) von deutlich über 2 mit einem medizinisch relevanten Effekt rechnen. Das liegt daran, dass bei dem meist komplizierten Studiendesign confounding factors nie völlig auszuschließen sind. Aus diesem Grund sind Resultate von Studien mit geringgradigen Effekten häufig nicht reproduzierbar.
Es liegt im Wesen klinischer Studien bzw. epidemiologischer Erhebungen, dass die Wahrscheinlichkeit des Auftretens einer bestimmten Wirkung innerhalb der untersuchten Population erkannt wird, zunächst aber nicht das Risiko für ein bestimmtes Individuum abgeschätzt werden kann. Das gilt insbesondere dann, wenn das Risiko innerhalb der untersuchten Population nicht gleichmäßig verteilt ist. Das ist leider sehr häufig, und bei sehr seltenen Ereignissen praktisch immer der Fall. Es handelt sich um, mehr oder minder große, Subpopulationen innerhalb der Bevölkerung, die eine spezielle erhöhte Empfindlichkeit zeigen. Dies kann, meist genetisch bedingte, pharmakodynamische oder pharmakokinetische Gründe haben (z. B. Polymorphismen, etc.).
Das Ziel in der Zukunft muss sein, Subpopulationen mit einer Gefährdung für bestimmte Erkrankungen oder gegenüber der Wirkung definierter Agenzien zu definieren. Für eine solche Population kann dann die Inzidenz, d. h. das genaue erhöhte Risiko, abgeschätzt werden oder es können gezielte präventive Maßnahmen zur Verhinderung unerwünschter Wirkungen eingeleitet werden. Untersuchungen einer großen Population besitzen zwar erhebliche statistische Vorteile, die Inzidenz bei Subpopulationen mit erhöhtem Gefährdungspotenzial kann aber stark „verdünnt“ werden, insbesondere wenn es sich um sehr kleine empfindliche Subgruppen handelt.
Aus den genannten Gründen ist es schwierig, und oft unmöglich, im Einzelfall retrospektiv zu entscheiden, ob ein unerwünschtes Ereignis „spontan“ aufgetreten ist oder durch die Exposition gegenüber einem spezifischen Agens ausgelöst wurde. Das gilt sinngemäß natürlich in der Medizin auch für „positive“ Entwicklungen, d. h. zur Entscheidung der Frage ob eine bestimmte Medikation geholfen hat oder ob eine Spontanheilung verantwortlich war. Bei einem relativen Risiko unter 2,0 ist, per definitionem, die Wahrscheinlichkeit für einen spontanen Effekt >50% (Tab. 1.3).
Tab. 1.3 Beispiele für die Wahrscheinlichkeit, dass ein Effekt substanzinduziert oder spontan aufgetreten ist. Ein unerwünschter Effekt (z. B. Krebs oder Fehlbildungen) kann bei einem Individuum entweder durch ein Agens oder als „spontanes“ Ereignis ausgelöst sein.
Zweifellos stellen vom Menschen stammende Daten die beste Informationsquelle zur Beurteilung von möglichen Gesundheitsgefährdungen dar. Die Interpretation toxikologischer Daten ist aber durchaus nicht immer einfach, und es ist eine erhebliche medizinische Expertise notwendig, um verlässliche Schlussfolgerungen zu ziehen. Bei einer Risikoabschätzung müssen im Wesentlichen fünf Aspekte beurteilt werden:
Bei der Beurteilung auftretende Probleme können hier nur an wenigen Beispielen illustriert werden. Erwähnt werden sollen:
Aussagekraft verschiedener Studien bzw. epidemiologischer Erhebungen,
Unterschied zwischen Exposition und Körperbelastung,
unbefriedigende Abschätzung der individuellen Exposition,
Probleme bei der Auswahl der Referenzgruppe,
Veränderungen innerhalb des Referenzbereiches,
Berücksichtigung von „confounding factors“,
Bedeutung statistisch signifikanter Unterschiede,
Risikopopulationen gegenüber definierten Expositionen,
Risiko für eine Population und individuelles Risiko,
Problem der Beurteilung von Substanzkombinationen,
Problem einer Polyexposition.
Mit Bezug auf die toxikologische Aussagekraft ergibt sich für die verschiedenen Typen von Untersuchungen am Menschen eine Rangfolge, wie in Tabelle 1.4 veranschaulicht. Dies muss bei einer Beurteilung der Daten berücksichtigt werden. Die Aussagen vieler „Studien“ oder Erhebungen sind nicht überzeugend. Deshalb müssen sich die Ergebnisse verschiedener Studien zum gleichen Thema auch häufig widersprechen, insbesondere wenn geringgradige Effekte beurteilt werden. Aber auch viele Studien, die zum gleichen Ergebnis kommen, sind nicht sehr aussagekräftig, wenn alle die gemeinsamen erheblichen Schwächen im Studiendesign aufweisen.
Tab. 1.4 Beispiele für die Aussagekraft von Studien über toxikologische Wirkungen beim Menschen. (Die Aussagekraft der Untersuchung nimmt in der angegebenen Reihenfolge ab. Der Nachweis einer Dosis-Wirkungsbeziehung vergrößert die Aussagekraft von Untersuchungen.)
Typ der Untersuchung
Aussagekraft für Risikoabschätzung
1. kontrollierte klinische Studie
a)
kann recht hoch sein
2. größere klinische Anwendungsbeobachtung
b)
gut zur Formulierung eines Verdachtes
3. größere ambulante Multizenterbeobachtung
c)
gut bei ausgeprägtem Effekt
4. größere Querschnittsstudie
d)
, mit Referenzgruppe
kann recht hoch sein
5. größere Langzeitstudie
e)
, mit Referenzgruppe
kann recht hoch sein
6. ausreichend große Kohortenstudie
f)
gut bei ausgeprägtem Effekt
7. ausreichend große Fall-Kontrollstudie
g)
nur ausreichend bei ausgeprägtem Effekt
8. ausreichend große Interventionsstudie
h)
gut bei ausgeprägtem Effekt
9. größere Querschnittserhebung
i)
,
ohne
individuelle Expositionsmessung
nicht sehr hoch
10. größere Langzeiterhebung
j)
,
ohne
individuelle Expositionsmessung
recht mäßig
11. gehäufte Kasuistiken
k)
ausreichend nur bei sehr ausgeprägtem Effekt
12. einzelne Kasuistik
l)
gewisser Verdacht, immer weitere Daten erforderlich
Wesentliche Kriterien für die betreffende Untersuchung:
a) Doppelt-blind, placebokontrolliert, Quantifizierung der individuellen Exposition, Einschluss- und Ausschlusskriterien, wenige relevante Endpunkte, deutliche Wirkung.
b) Quantifizierung der individuellen Exposition, ein definierter medizinischer Endpunkt.
c) Doppelt-blind, Compliance gesichert, definierte Exposition, objektive medizinische Endpunkte.
d) Quantifizierung der individuellen akuten Exposition, ein definierter medizinischer Endpunkt, wenige confounding factors, deutliche Wirkung.
e) Prospektiv, Quantifizierung der individuellen konstanten Langzeitexposition, wenige definierte medizinische Endpunkte, wenige (gut kontrollierbare) confounding factors.
f) Quantifizierung der individuellen Exposition, ein definierter medizinischer Endpunkt, ausgeprägter Effekt.
g) Häufig keine Quantifizierung der individuellen Exposition, ein definierter medizinischer Endpunkt.
h) Compliance gesichert, wenige definierte medizinische Endpunkte.
i)Keine Quantifizierung der individuellen Exposition, mehrere definierte medizinische Endpunkte, mehrere confounding factors.
j)Schwierige Quantifizierung der individuellen und variablen Exposition, mehrere definierte medizinische Endpunkte, mehrere confounding factors.
k) Quantifizierung der individuellen Exposition (praktisch keine Aussagekraft bei mangelhafter Angabe zur Exposition), ein definierter medizinischer Endpunkt, in der Regel mehrere confounding factors, (ausreichende Aussage nur bei massivem Effekt, z. B. Fehlbildungen nach Thalidomid).
l) Quantifizierung der individuellen Exposition, ein definierter medizinischer Endpunkt, in der Regel mehrere auch unbekannte confounding factors (allein sehr geringe Aussagekraft).
Die höchste Aussagekraft besitzen: ausreichend große klinische placebokontrollierte, doppeltblinde Studien, mit wenigen medizinisch wichtigen Endpunkten, klaren Einschluss- und Ausschlusskriterien und quantifizierter bzw. definierter individueller Exposition. Jede Abweichung von diesen Kriterien vermindert die Aussagekraft, es sei denn es handelt sich um massive Effekte6).
Per definitionem bezieht sich der Begriff „Exposition“ auf eine Konzentration oder „Dosis“ bis zur äußeren oder inneren Körperobefläche (Haut, Lunge, Darmlumen). Es ist zunächst nicht definiert, wie viel von dem Agens in den Organismus aufgenommen, d. h. resorbiert, wird.
Ob überhaupt eine Wirkung eintritt und mit welcher Intensität hängt zunächst vom Ausmaß der Aufnahme des Agens in den Organismus ab (Abb. 1.6). Als Maß für die aufgenommene Menge dient die „Körperbelastung“ („innere Dosis“). Letztlich entscheidend für eine erwünschte oder unerwünschte Wirkung ist die Konzentration des betreffenden Agens am Wirkort (z. B. am Rezeptor), in der Regel innerhalb des Organismus.
Die Beziehung zwischen Exposition und resultierender Körperbelastung ist z. B. bei der Mehrzahl akut parenteral verabreichter Arzneimittel eindeutig. Bei oraler Aufnahme sind die Verhältnisse bereits deutlich komplizierter, da die Re-sorptionsrate bei verschiedenen Substanzen irgendwo zwischen 0 (z. B. viele großmolekulare und hydrophile Substanzen) und 100% (z. B. bei vielen lipophilen Verbindungen) liegen kann, und sich auch „first pass“-Effekte auswirken werden. Bei inhalativer Exposition ist die Menge des resorbierten Gases neben der Konzentration in der Atemluft vom Ausmaß der Lungenventilation abhängig (d. h. bei schwerer körperlicher Arbeit wird viel, in Ruhe wenig aufgenommen). Die Beurteilung der Beziehung zwischen Exposition und resultierender Körperbelastung ist bei einmaliger Exposition relativ einfach. Bei Langzeitexposition werden die Verhältnisse meistens sehr unübersichtlich, insbesondere wenn Enzyminduktionen auftreten oder wenn bei Substanzen mit relativ kurzer Eliminations-Halbwertszeit das Ausmaß der Exposition stark variiert.
Abb. 1.6 Wichtige Faktoren der Pharmakokinetik: Exposition, Resorption, Verteilung, Metabolismus, Elimination. Resorption und Verteilung bestimmen das Ausmaß der Wirkung und zum Teil auch die Organotropie. Entscheidend sind die Konzentration des Agens am Wirkort und die Dauer der Anwesenheit, die von der Elimination bestimmt wird. Als Maß für die Körperbelastung („innere Dosis“) dient meistens die Konzentration im Blut (beachte: Einfluss eines „tiefen“ Kompartiments). (Modifiziert aus: Neubert, in: Marquardt/Schäfer, 2004).
Die Konzentration am eigentlichen Ort der Wirkung (z. B. am Rezeptor) kann im Experiment nur selten, beim Menschen eigentlich nie bestimmt werden. Man begnügt sich darum bei der Abschätzung der Körperbelastung mit Messungen in leicht zugänglichen Geweben. Dies ist in erster Linie das Blut (Abb. 1.6). Es wird vorausgesetzt, dass ein Gleichgewicht (nicht unbedingt eine identische Konzentration) zwischen der Konzentration im Blutplasma oder Serum und der Konzentration am Wirkort besteht. Diese Annahme wird in der Regel berechtigt sein, es gibt aber auch Ausnahmen. Die bekannteste Abweichung von dieser Regel ist das Vorliegen eines „tiefen Kompartimentes“ (engl.: deep compartment): bei Mehrfachgabe, und nur dann reichert sich die Substanz in diesem Gewebe an und die Konzentration im deep compartment kann wesentlich höher sein als die im Blut. Das Fettgewebe kann häufig als typisches tiefes Kompartiment dienen. Auch die feste Bindung eines Agens an bestimmte Strukturen, z. B. Strontium an Knochengewebe, führt zur Diskrepanz zwischen der angereicherten Menge in bestimmten Bereichen und der Konzentration im Blut. Auch die intrauterine Exposition ist im Experiment nur schwer, beim Menschen eigentlich nie, zu quantifizieren.
Interessanterweise wurde festgestellt, dass nahezu identische Konzentrationen sehr lipophiler Verbindungen wie im Fettgewebe auch im Milchfett gefunden werden. Neben den analytischen Möglichkeiten spielt dies auch bei der Risikoabschätzung des gestillten Säuglings eine Rolle.
Ein Beispiel zu diesem Problem: Für den Erwachsenen wurde eine akzeptable Dioxinaufnahme“ von 1 pg I-TEq/kg Körpergewicht pro Tag festgesetzt, und diese Menge wird von der Normalbevölkerung kaum überschritten. Für einen gestillten Säugling wurde um 1990 eine tägliche Aufnahme bis zu 350 pg I-TEq/kg Körpergewicht über die Frauenmilch berechnet. Das wäre eine Exposition bis zum > 300fachen eines Erwachsenen. Diese Menge veranlasste einige Mitbürger voreilig und unberechtigt vor dem Stillen zu warnen. Allerdings hatten sie die Pharmakokinetik nicht berücksichtigt. Während beim Erwachsenen bei einer Eliminations-Halbwertszeit von etwa sieben Jahren die tägliche Dosis bis zum 3000fachen kumuliert, wird ein Säugling höchstens 1/2 Jahr gestillt (meistens leider sogar kürzer). Entsprechende Kalkulationen von Experten schätzten die Körperbelastung des Säuglings damals auf höchstens das 3–4fache der mütterlichen Werte. Dies wurde durch entsprechende Messungen der erreichten Konzentrationen im Blutfett bestätigt [1]. Durch Körperwachstum und verminderte Aufnahme reduziert sich diese Körperbelastung in den nächsten Monaten und Jahren weiter.
Um nicht missverstanden zu werden: Wir wollen natürlich möglichst keine Fremdstoffe in der Frauenmilch haben. Hier geht es aber um die medizinische Beurteilung, und alle nationalen und internationalen Gremien haben betont, dass die Vorteile des Stillens deutlich überwiegen gegenüber möglichen Nachteilen. Erfreulicherweise beträgt die heutige I-TEq-Konzentration an polyhalogenierten Dibenzo-p-dioxinen und Dibenzofuranen (PCDD/PCDF), nach deutlicher Reduktion der Emissionen, nur noch etwa die Hälfte der früheren Werte.
Tab. 1.5 Beispiele für die Kumulation einiger „Dioxin“-Kon-genere bei gestillten Säuglingen. Zwei Säuglinge wurden vier Monate gestillt und die Konzentration der PCDD/PCDF im Blut im Alter von elf Monaten gemessen. Vergleich mit zwei Säuglingen nur mit Flaschennahrung. A) Daten nach Abraham et al. [1], B): Daten nach Kreuzer et al [53].
Es ist bemerkenswert, dass die I-TEq-Werte von Säuglingen nach Flaschennahrung deutlich unter den mütterlichen Werten liegen (Tab. 1.5) und nur etwa 5–10% der Werte gestillter Kinder erreichen. Dies beruht einmal darauf, dass die Kuhmilch nur etwa 1/10 der „Dioxine“ enthält, verglichen mit der Frauenmilch. Allein könnte dies allerdings die sehr geringe Belastung des Säuglings nur erklären, wenn die Körperbelastung bei der Geburt sehr viel geringer ist als bei der Mutter. Das ist wahrscheinlich der Fall, aber es wurde auch in Bilanzuntersuchungen nachgewiesen, dass bei geringer Exposition besonders höher chlorierte Kongenere unverändert in den Darm sezerniert und damit zusätzlich eliminiert werden können [42]. Dieses Phänomen ist auch aus tierexperimentellen Untersuchungen mit PCDD/PCDF bekannt [2].
Die Beispiele zeigen, dass Beurteilungen, die sich allein auf Messungen der Exposition stützen ohne die Pharmakokinetik zu berücksichtigen, leicht zu Fehlschlüssen führen können.
Eine medizinisch-toxikologische Beurteilung setzt qualitativ und quantitativ ausreichende Daten zu den zu beurteilenden medizinischen Endpunkten und insbesondere zur individuellen Exposition (bzw. Dosis) voraus. Ohne diese Information müssen alle Versuche zur Risikoabschätzung Spekulation bleiben.
Gerade auf dem Gebiet der „Umwelttoxikologie“ ist, im Gegensatz zur Arzneimitteltoxikologie, die quantitative Abschätzung der Exposition häufig schwierig, wenn nicht sogar unmöglich. Einige Probleme sind in Tabelle 1.6 wiedergegeben. Entscheidend für den Erfolg der Quantifizierung ist insbesondere die Eliminations-Halbwertszeit des zu untersuchenden Agens. Probleme treten vor allem bei Agenzien mit kurzer Halbwertszeit auf. Die Körperbelastung ist dann bei akuter Einwirkung nur schwer abzuschätzen (insbesondere retrospektiv), weil sie sich zeitabhängig dauernd ändert. Bei variabler chronischer Exposition gegenüber solchen Agenzien ist die tatsächliche Körperbelastung gar nicht verlässlich zu ermitteln. Besonders Spitzenkonzentrationen (bzw. Dosierungen), die toxikologisch von erheblicher Bedeutung sein können, sind retrospektiv nicht zu rekonstruieren. In solchen Fällen werden oft mehr oder minder komplizierte mathematische Kalkulationen zur Abschätzung der Exposition vorgelegt. Man kann vereinfacht feststellen, dass alle solche Bestrebungen weitgehend unbrauchbar sind. Sie gaukeln Information vor, die nicht erfassbar ist. Es ist allerdings möglich, ein bestimmtes Expositionsszenarium zu definieren, wie das in der Arbeitsmedizin geschieht und eine Aussage zu einem typischen Arbeitsplatz oder einem Konsumverhalten zu machen. Solche Aussagen sind zwar immer „semiquantitativ“ sowie ohne verlässliche Zahlenangabe, und viele confounding factors sind in der Regel nicht berücksichtigt, aber sie sind pragmatisch.
Bei Substanzen, besonders den ausgeprägt lipophilen, mit extrem langer Eliminations-Halbwertszeit gelingt die Abschätzung der Körperbelastung dagegen relativ leicht. Einige solcher sehr persistenten Verbindungen können jahrelang im Fettgewebe verbleiben und sehr langsam freigesetzt werden. Hierzu gehören einige ältere Pestizide wie DDT und seine Metabolite sowie andere polychlorierte Substanzen wie PCB und „Dioxine“. Diese Fremdstoffe können auch in einigen Lebensmitteln (Milch, Eier, Fleisch, etc.) toxikologisch bedeutsam sein [11, 89].
Tab. 1.6 Zuverlässigkeit, mit der bestimmte individuelle Expositionen quantifiziert werden können.
Eliminations-Halbwertszeit
Quantifizierung der Exposition
Zuverlässigkeit der Abschätzung
Akute Exposition:
a) kurz
Messung der Exposition
gering
, Körperbelastung ändert sich schnell
b) kurz
nach Körperbelastung
gering
, nur Momentaufnahme bei einer Messung
c) lang
nach Körperbelastung
befriedigend
, Quantifizierung ist möglich
d) sehr lang
nach Körperbelastung
sehr hoch
, Quantifizierung gelingt optimal
Chronische Exposition:
e) kurz
Messung der Exposition
extrem gering
, da Exposition sehr variabel
f) lang
Messung der Exposition
ausreichend
, nur bei konstanten Gewohnheiten
g) lang
nach Körperbelastung
ausreichend
, Quantifizierung ist möglich
h) sehr lang
nach Körperbelastung
sehr hoch
, Quantifizierung gelingt optimal
Da die Quantifizierung der Körperbelastung meist im Blut oder Urin erfolgt, sind eine Reihe von Voraussetzungen zu beachten:
Die Substanz darf nicht in bestimmten Organen
abgelagert
werden („deep compartments“).
Kinetik und Metabolismus sollten bekannt sein.
Quantifizierung einer Exposition über
sehr lange
Zeiträume ist nur bei sehr konstanten Gewohnheiten möglich (sie gelingt leichter bei d) und h)).
Wird lediglich die äußerliche Konzentration gemessen, muss die
Resorptionsrate
bekannt sein, oder sie muss als konstant vorausgesetzt werden können.
Die toxikologisch relevanten Komponenten (auch Metabolite) müssen messbar sein.
Bei relativ geringgradigen Effekten kann die Auswahl einer akzeptablen und repräsentativen Vergleichsgruppe (Referenz-oder Kontrollgruppe 7)) eine entscheidende Rolle spielen, weil die Aussage letztlich auf dem Vergleich mit dieser Referenzgruppe beruht. Deshalb ist es zweckmäßig, sich einige Gedanken zu Kontrollgruppen zu machen. Dies betrifft nicht nur die notwendige Gruppengröße, sondern auch die Auswahl einer repräsentativen Stichprobe und die Erkenntnis, dass auch Referenzgruppen (in Abhängigkeit von der Größe) im Hinblick auf bestimmte medizinische Endpunkte eine, teilweise ganz erhebliche, Streuung aufweisen. Dies wird häufig verkannt.
Wenn eine vergleichsweise kleine Kontrollgruppe gewählt wird, muss man damit rechnen, dass sie in mancher Hinsicht nicht repräsentativ ist, d. h. mit einer anderen Kontrollgruppe hätte man eventuell ein anderes Resultat erhalten. Verschiedene Kontrollgruppen streuen also untereinander und die Variation ist umso größer, je kleiner die Gruppe ist. Dies ist der Grund, warum geringgradige Effekte in der Medizin kaum zu verifizieren sind, und warum unter solchen Bedingungen mit voneinander abweichenden Endresultaten in verschiedenen Studien gerechnet werden muss.
Nun könnte man, was häufig in der Epidemiologie geschieht, die exponierte (vergleichsweise kleine) Gruppe mit der Gesamtpopulation vergleichen. Damit ist die Kontrollgruppe relativ stabil, aber sie passt nicht zu der kleinen Verum-Gruppe, die natürlich (insbesondere bei geringgradigen Unterschieden) bereits in der „Spontanrate“ eine entsprechende Streuung aufweisen muss. Eine scheinbar pragmatische Lösung des Problems wird häufig darin gesehen, nur eine Studie durchzuführen und gleich Schlussfolgerungen zu ziehen. Dann braucht man keine Streuung zu berücksichtigen (es darf allerdings auch niemand auf die Idee kommen, die Studie zu wiederholen).
Als Fazit bleibt, dass in der Medizin nur relativ ausgeprägte Effekte eindeutig zu verifizieren sind. Bei der Demonstration geringgradiger Wirkungen und bei fehlenden Dosis-Wirkungsbeziehungen ist immer eine gesunde Skepsis angebracht, auch weil „confounding factors“ und „Spontanraten“ schwer zu kontrollieren sind (sie mögen sogar unbekannt bleiben). Diese Feststellung gilt natürlich nicht nur für Studien am Menschen, sondern sie ist uns aus Tierversuchen seit langem hinreichend bekannt.
Wichtig für eine Risikoabschätzung ist die Beantwortung der Fragen:
Antworten auf beide Fragen gelingen nur selten. Das liegt zum Teil daran, dass fast nie individuelle Daten in Publikationen dokumentiert und ausgewertet werden (z. B. als „scatter-plots“). Die Werte des in der Abbildung 1.7 gezeigten Beispiels überlappen stark mit den Kontrollwerten, d. h. die meisten Exponierten (9 von 12) weisen keine pathologischen Werte auf. Entscheidend ist die Beantwortung der Frage: Welche Individuen sind betroffen, und warum? Man sieht, dass die Angabe von Mittelwerten und SD (oder sogar Medianwerten und Range) medizinisch oft nicht sehr hilfreich ist. Es soll das individuelle Verhalten analysiert werden, und deshalb müssen die Werte für alle Individuen dokumentiert sein. In der Abbildung 1.8a und b sind als Beispiel zwei Interpretationen der in Abbildung 1.7 dargestellten Daten angegeben. Wenn Vordaten bekannt sind oder ein „cross-over“-Design gewählt wurde, könnte zwischen diesen beiden prinzipiellen Möglichkeiten entschieden werden, denn jedes Individuum wird zur eigenen Kontrolle: Bei der ersten Möglichkeit (Abb. 1.8a) reagieren alle Probanden/Patienten in ähnlicher Weise. Trotz pauschal erniedrigter Werte verbleiben bei dieser Exposition die meisten Wertepaare im Referenzbereich. Es liegt in diesem Fall ein gleichmäßiger, aber sehr geringer Effekt bei allen Individuen vor. Die medizinische Relevanz ist bei dieser Exposition gering. Bei der zweiten Möglichkeit (Abb. 1.8b) reagieren viele der Individuen nicht auf diese Exposition, aber eine Subgruppe zeigt eine, recht ausgeprägte, Veränderung. Bei Probanden mit initial hohen Werten spielt sich die Veränderung zwar noch im Referenzbereich ab, aber man kann damit rechnen, dass die Werte dieser Individuen bei erhöhter Exposition ebenfalls in den pathologischen Bereich gelangen. Es muss das Ziel sein, diese Subgruppe mit höherem Risiko als die Gesamtgruppe zu definieren. Bei den meisten Studien ohne Vordaten kann zwischen beiden Möglichkeiten nicht unterschieden werden, und eine besonders empfindliche Subpopulation wird nicht erkannt.
Abb. 1.7 Beispiel für das Resultat einer klinischen Studie. Es ergibt sich ein statistisch gerade signifikanter Unterschied, aber die Werte der beiden Gruppen zeigen eine ausgeprägte Überlappung. Nur drei der zwölf Werte Exponierter (zwischen den Pfeilen) liegen außerhalb des Bereiches der Kontrollgruppe.
Bei der Darstellung klinischer oder experimenteller Daten als „scatter-plot“ oder „dot-plot“ können auch bei einer sehr großen Zahl von Probanden/Patienten diejenigen erkannt und näher definiert werden, die aus dem Rahmen der festgelegten Referenzwerte fallen. Deshalb muss man eine solche oder eine ähnliche Dokumentation der individuellen Daten fordern.
Es ist selten, dass in der Medizin eine Erkrankung oder ein Effekt von nur einem Faktor abhängt. Die meisten Erkrankungen sind multifaktoriell. So wurden über hundert kardiovaskuläre Risikofaktoren angegeben [87]. Im Falle der Toxikologie sind wir zudem häufig gegenüber mehr als einer Noxe exponiert. In klinischen Studien oder epidemiologischen Erhebungen ist es darum essenziell, genau wie bei experimentellen Untersuchungen, alle möglichen „confounding factors“ zu erkennen, sie möglichst von vornherein zu vermeiden (Einschluss-und Ausschlusskriterien, Standardisierung, etc.), oder wenige Confounder ausreichend zu kontrollieren. Das gelingt im Experiment, einschließlich dem Versuch am Menschen, relativ leicht. Insbesondere in der Epidemiologie ist der Ausschluss von „confounding factors“ aber häufig nicht möglich, und die Aussagekraft der Erhebung ist a priori erheblich eingeschränkt. Oft wird dann versucht, mit mathematischen Manipulationen den Sachverhalt der unzureichenden Aussagekraft zu verdecken, und dem Leser müssen die erheblichen Mängel der Erhebung unbekannt bleiben. Dies wird besonders kritisch bei geringgradigen „Effekten“. Ehrliche und kritische Untersucher werden darum bei ihren Schlussfolgerungen mögliche nicht kontrollierbare Confounder erwähnen und die erhebliche Unsicherheit der Aussage betonen.
Die medizinische Statistik spielt bei der Planung, Begleitung und Auswertung von Studien eine wesentliche Rolle. Darum wird die Mitarbeit eines Biostatistikers auf einer frühen Stufe der Planung einer Studie oder eines Versuches empfohlen oder sogar gefordert.
Bei der Beurteilung pharmakologischer und toxikologischer Daten, klinischer wie experimenteller, hat sich allerdings eine „Statistikgläubigkeit“ entwickelt. Eine pharmakologische oder toxikologische Beurteilung ist aber mehr als nur Statistik! Entgegen einer weitverbreiteten Meinung können schlechte oder fehlende Daten nicht durch statistische Manipulationen ersetzt werden. Das gilt insbesondere auch für die Abschätzung der individuellen Exposition.
Statistisch signifikante Unterschiede können durchaus medizinisch irrelevant sein. Ein fiktives Beispiel ist in Tabelle 1.7 angegeben. Ein identisches Studiendesign ist vorausgesetzt. Zwischen der exponierten Gruppe I und der entsprechenden Referenzgruppe I wird ein statistisch signifikanter Unterschied berechnet, aber man wird aus den Daten medizinisch keine Wirkung der Exposition ableiten können, denn alle Werte bleiben innerhalb des Referenzbereiches I. Wird die exponierte Gruppe II mit der entsprechenden Referenzgruppe II verglichen, erscheint der statistisch signifikante Unterschied auch medizinisch plausibel: Ein wesentlicher Teil der Werte liegt außerhalb des Referenzbereiches. Zwischen den beiden Referenzgruppen besteht statistisch kein signifikanter Unterschied, aber wenn die exponierte Gruppe II mit dem Referenzbereich I verglichen wird, verschwindet die Signifikanz (obgleich man nach wie vor eine mögliche medizinische Relevanz vermutet (die Daten könnten auf eine Risikogruppe innerhalb der Gruppe hindeuten)). Die Daten der exponierten Gruppe II unterscheiden sich von denen der exponierten Gruppe I.
Obgleich sich statistische Unterschiede ergeben, sind die Gruppen bei dem zu erwartenden geringen Effekt für eine vernünftige medizinische Beurteilung zu klein. Das Beispiel entspricht durchaus Daten aus üblichen Publikationen. Es muss zunächst offen bleiben, ob sich bei einem größeren Kollektiv der Trend zur Erhöhung insbesondere bei der exponierten Gruppe II bei einigen Probanden verstärken könnte, d. h. eine Risikopopulation erkennbar wird. Aber auch der Referenzbereich wird sich bei Erhöhung der n-Zahl vergrößern oder verändern. Bereits sehr geringe Veränderungen im Kollektiv (z. B. ein weiterer Proband mit dem Wert 100 in der exponierten Gruppe I statt des Wertes 95 oder ein weiterer Wert von 95 in der Referenzgruppe I anstatt eines Wertes 100) verkehren den „Unterschied“ zwischen den Gruppen von statistisch „signifikant“ in „nicht signifikant“ oder umgekehrt.
Tab. 1.7 Beispiel für einen statistisch signifikanten Unterschied, der medizinisch irrelevant ist, und einen möglicherweise relevanten Effekt, der statistisch nicht signifikant ist. Es sollen die Werte für den Blutzucker einer exponierten Gruppe mit Werten einer Referenzgruppe verglichen werden (definierter Referenzbereich: 85–115 mg/dL).
Eine ähnliche Problematik existiert natürlich auch bei tierexperimentellen Studien. Hier versucht man allerdings, durch die Benutzung von Inzucht- oder Auszuchtstämmen die genetische Variabilität im Rahmen zu halten, und man standardisiert auch möglichst viele andere Versuchsbedingungen. Das bringt jedoch den erheblichen Nachteil mit sich, dass bei Wiederholung eines Versuches mit einem anderen Stamm der gleichen Spezies oft andere Resultate zu erwarten sind (z. B. wegen anderer Pharmakokinetik). Entsprechende Konsequenzen für eine Extrapolation zu einer anderen Spezies (z. B. dem Menschen) liegen auf der Hand.
Der Beurteilung der medizinischen Plausibilität kommt bei toxikologischen Beurteilungen eine erhebliche Rolle zu. In diesem Zusammenhang ist auch die Beantwortung der Frage essenziell, ob der mögliche Einfluss von Confoundern in zufriedenstellender Weise ausgeschlossen wurde. Nicht alle beobachteten Assoziationen machen einen Sinn. Einige ganz offensichtliche „Nonsens-Assoziationen“ aus einer sehr sorgfältigen großen Studie sind in der Tabelle 1.8 wiedergegeben. Die Assoziationen im oberen Teil der Tabelle sind nicht plausibel, sondern eher absurd, denn man wird durch Änderung der Konfession kein toxikologisches Risiko vermindern oder das toxikologische Risiko durch Nichtrauchen erhöhen. Andererseits wird niemand die Einnahme der beiden Substanzen im unteren Teil der Tabelle empfehlen, um das teratogene Risiko zu vermindern. Hier hat vermutlich der Zufall eine Rolle gespielt bzw. unbekannte Confounder. Es ist bei keinem Studiendesign möglich, solche falschen Beziehungen ganz zu vermeiden. Die hier wiedergegebenen scheinbaren Korrelationen (d. h. Assoziationen) sind leicht als unberechtigt zu erkennen, auch wenn sie statistisch „signifikant“ wären. Das mag bei vielen anderen Confoundern nicht so klar ersichtlich sein. Je mehr medizinische Endpunkte in eine Studie eingeschlossen werden, umso größer wird die Chance, dass einzelne der gefundenen Beziehungen nicht kausal sind. Darum begründen in der Epidemiologie einzelne Assoziationen zunächst auch noch keinen kausalen Zusammenhang. Befunde einzelner Erhebungen müssen immer durch weitere unabhängige Untersuchungen bestätigt werden.
Tab. 1.8 Beispiele von Assoziationen, die wahrscheinlich durch Zufall zustande gekommen sind oder als „Nonsens-Assoziationen“ gelten können. Daten aus einer Studie zur Arzneimittelgabe in der Schwangerschaft zusammengestellt (Daten modifiziert nach Heinonen et al. [30]).
Auch die Variabilität zwischen Kontrollgruppen kann für einen statistisch signifikanten „Effekt“ verantwortlich sein, der wissenschaftlich irrelevant ist. Wenn mehrere Kontrollgruppen nebeneinander (was selten geschieht) oder hintereinander untersucht werden, ergeben sich fast immer Abweichungen. Diese Situation ist in der Tabelle 1.7 mit den zwei Kontrollgruppen angenommen. Bezieht man die Berechnung der Differenzen nicht auf die Referenzgruppe I sondern auf die Referenzgruppe II, so kehrt sich das Ergebnis um, obgleich zwischen den beiden Referenzgruppen kein signifikanter Unterschied besteht. Die Kenntnis von „historischen Kontrollen“ und damit eine Abschätzung der Streubreite von Kontrollen ist in vielen Fällen der experimentellen Forschung für eine zuverlässige Aussage unerlässlich. Falls keine Dosisabhängigkeit in einer Studie gefunden wird, sollte man immer daran denken, dass der Unterschied durch einen atypischen Kontrollwert zustande gekommen sein kann.
Weit verbreitet ist auch die Aussage eines „statistisch nicht signifikanten Unterschiedes“. Eine solche Bezeichnung ist meistens unberechtigt, häufig sogar irreführend. Bei einem statistisch nicht signifikanten Unterschied ist per definitionem ein zufallsbedingtes Ereignis nicht mit hinreichender Sicherheit auszuschließen. Dies bedeutet nicht, dass eine solche Veränderung nicht bestehen mag, und mit geeignetem Studiendesign nachweisbar ist. Die Gründe für die fehlende statistische Signifikanz in der vorgelegten Studie können mannigfaltig sein: Das Studiendesign war ungeeignet, die Anzahl untersuchter Individuen zu klein, die Kontrollen nicht repräsentativ oder der Effekt ist außerordentlich gering, etc. Die vorgelegten Daten reichen für eine eindeutige Aussage jedenfalls nicht aus, es könnte statt einer Erniedrigung sogar eine „Erhöhung“ vorliegen oder gar kein Effekt bei dieser Exposition. Zur Klärung würde man bei experimentellen Studien immer Daten bei höherer Dosierung fordern. Eine Metaanalyse könnte hilfreich sein, wenn mehrere Studien mit zweifelhaftem Resultat vorliegen. Aber das Studiendesign muss dazu weitgehend vergleichbar sein, was oft nicht der Fall ist. Dann führen auch die Ergebnisse von Metaanalysen zu einem falschen Schluss.
Angaben zum toxikologischen Risiko beziehen sich zunächst auf die untersuchte Population. Häufig wird vorausgesetzt, dass die untersuchte Auswahl von Patienten oder Probanden charakteristisch für eine größere Population ist. Bei ausgeprägten Effekten ist diese Annahme auch oft gerechtfertigt.
Besonders bei seltenen Wirkungen kann sich die beobachtete Wirkung nur auf einen kleinen Teil