Patientensicherheit im Krankenhaus - Norbert Pateisky - E-Book

Patientensicherheit im Krankenhaus E-Book

Norbert Pateisky

0,0
21,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Die laufende Entwicklung neuer Diagnose und Therapieverfahren sowie die zunehmend älter werdende Bevölkerung bedingen neben dem nicht mehr zu übersehenden Problem des vermeidbaren Schadens am Patienten die zunehmende Unfinanzierbarkeit unseres Gesundheitswesens. Praxisnahe Tipps und Tricks im Sinne der Sicherheit und Ökonomie stehen im Zentrum der vorliegenden QuickInfo. Norbert Pateisky steht mit seiner jahrzehntelangen klinischen Erfahrung als Arzt für die praktische Anwendbarkeit der beschriebenen Verfahren. Hans Härting garantiert als Teamtrainer, Flottenchef und Cheffluglehrer höchste Sicherheitskompetenz. Die anwenderfreundliche Struktur des Buches hilft Ihnen, sich in der für die Medizin neuen, aber überaus wichtigen Thematik in Kürze einen Überblick zu verschaffen, der Ihnen nachhaltig hilft, sicherer zu arbeiten.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern

Seitenzahl: 124

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



In Kooperation mit

Patientensicherheit im Krankenhaus

Das Wichtigste in Kürze

von Norbert Pateisky und Hans Härting

Die Autoren:

Univ. Prof. Dr. Norbert Pateisky, besitzt eine Kombination aus jahrzehntelanger praktischer Erfahrung als Spitalsarzt und Leiter einer Abteilung für Patientensicherheit an der Medizinischen Universität Wien und Vorstandsmitglied des ANetPAS – (Austrian Network for Patient Safety).Darüber hinaus verfügt er über umfassendes Know-how auf international aktuellstem Wissensstand zum Thema Patientensicherheit. Diese Kompetenzen sowie die langjährige Zusammenarbeit mit Sicherheitsexperten aus der Luftfahrt in Projekten in seinem Unternehmen Assekurisk (spezialisiert auf die Implentierung von Sicherheitsstrategien nach dem Vorbild der Luftfahrt im medizinischen Bereich) haben ihn und seinen langjährigen Freund und Geschäftspartner Capt. Hans Härting veranlasst, das vorliegende Buch zu schreiben.

Capt. Hans Härting, ist Flugkapitän bei Austrian Airlines. Er ist Crew Ressource Management Trainer, Fluglehrer und war bis zur Abgabe der Flotte Boeing 737 Cheffluglehrer auf dieser Type. Als solcher war er für die Simulator-Trainings und die Schulung und Ausbildung von Boeing 737 Piloten verantwortlich. Mit Juli 2012 übernahm Capt. Härting den Verantwortungsbereich für Crew Ressource Management Training (d. h. für Team Trainings), für das Flight Safety und Security Training und für die Pilotenselektion von Austrian Airlines. Gemeinsam mit Prof. Pateisky ist er seit 2002 in Spitälern aller Versorgungsstufen tätig, um dort Werkzeuge und Strategien zu implementieren, die sowohl Mitarbeitern als auch Patienten ein Mehr an Sicherheit zukommen lässt.

Impressum

ISBN 978-3-85402-269-5 (e-Pub) 1. Auflage 2013 Auch als Buch verfügbar: ISBN 978-3-85402-268-8

Das Werk ist urheberrechtlich geschützt. Alle Rechte vorbehalten. Nachdruck oder Vervielfältigung, Aufnahme auf oder in sonstige Medien oder Datenträger, auch bei nur auszugsweiser Verwertung, sind nur mit ausdrücklicher Zustimmung der Austrian Standards plus GmbH (AS+) gestattet. Alle Angaben in diesem Fachbuch erfolgen trotz sorgfältiger Bearbeitung ohne Gewähr und eine Haftung des Autors oder des Verlages ist ausgeschlossen.

© Austrian Standards plus GmbH, Wien 2013

Die AS+ ist ein Unternehmen des Austrian Standards Institutes (Österreichisches Normungsinstitut).

Austrian Standards plus Publishing

1020 Wien, Heinestraße 38

Tel.: +43 1 213 00-444

Fax: +43 1 213 00-818

E-Mail: [email protected]

Web: www.as-plus.at/publishing

Layout und graphische Bearbeitung: Alexander Mang und Helmut Stelzer

Lektorat und Projektbetreuung: Gertraud Reznicek

Cover-Fotocredit: © iStockphoto.com

Inhalt

Die Autoren:

Impressum

Widmung

Vorwort

1 Allgemeiner Teil

1.1 Wie alles begann

2 Luftfahrt und Medizin

2.1 Lehren aus der Luftfahrt

3 Mensch und Sicherheit

3.1 Human Factors – Problem No 1

3.2 Non Technical Skills (NOTECHS) – Die nicht technischen Fähigkeiten

3.2.1 Die Vorgeschichte

3.2.2 „Non Technical Skills“ (NOTECHS) im Detail

4 Fehler und Schaden

4.1 Schadensursache und Fehlerhäufigkeit

4.1.1 Das Schweizer Käsemodell oder: Warum passiert es?

4.1.2 Heinreich’sche Pyramide oder: Wie oft passiert es?

4.2 Fehler, Fehlerarten und Vermeidungsstrategien

5 Konkrete Maßnahmen

5.1 Instrumente und Strategien – Einleitung

5.2 Checklisten

5.2.1 Definition

5.2.2 Wofür sollen Checklisten erstellt werden?

5.2.3 Checklisten und Teamarbeit

5.2.4 Wie wird mit einer Checkliste gearbeitet?

5.2.5 Arten von Checklisten

5.2.6 Probleme und Widerstände bei teambezogener Checklistenarbeit

5.2.7 Checklisten und ihr Einsatz – Status quo und Vision

5.3 Kommunikation

5.3.1 Elemente sicherer Kommunikation

5.3.2 Kommunikationsstrategien im klinischen Alltag

5.4 Briefings und Debriefings

5.4.1 Briefings

5.4.2 Debriefings

5.5 Notfallkarten – Hilfe auf Papier

5.6 Frühwarnsysteme

5.7 Sicheres Verhalten

5.8 Procedures – der Autopilot des Menschen

5.8.1 „Procedures“ im Spital

6 Systemische Hilfen

6.1 Schadens-Monitoring

6.1.1 Messmethoden

6.2 Fehlermeldesysteme

6.2.1 Entwicklung der Fehlermeldesysteme

6.2.2 Medizinische Meldesysteme

6.2.3 Faktor Fehlerkultur

6.2.4 Die 3 häufigsten Fehler

6.2.5 Wann sind Meldesysteme erfolgreich?

6.2.6 Der Status quo

6.3 Computerbasiertes Training – E-Learning

6.4 Teamtraining – Der Königsweg

7 Links und Literatur

7.1 Die wichtigsten Links

7.2 Literaturverzeichnis, Literaturhinweise, Literaturempfehlungen

7.3 Weitere Literaturhinweise – Normen Risikomanagement

Informationen

Vorwort

Unzählige Spitäler haben in den letzten 15 Jahren den Weg von Zertifizierungen beschritten. Zweifellos wurden dadurch jene grundlegenden Strukturen geschaffen, die vieles in Sachen Qualitätsmanagement transparenter und leichter gemacht haben. Fälschlicherweise wurde von vielen erwartet, dass damit auch das Problem der Patientensicherheit gelöst werden könnte – eine trügerische Hoffnung, wie sich sehr bald gezeigt hat.

Wenn es um das Thema Sicherheit geht, sind es vor allem „der menschliche Faktor“ und die sogenannten „nicht technischen Fähigkeiten“, die über Erfolg und Misserfolg entscheiden – Themen, die leider auch in diversen Kursen zum Thema medizinisches Risikomanagement nicht die nötige Beachtung fanden und finden.

Lange Zeit wurden die Hinweise, dass man sich an Branchen halten sollte, die ihre Hausaufgaben in Sachen Sicherheit seit Jahrzehnten gemacht haben, ignoriert.

Erst das Buch „To Err is Human: Building a Safer Health System“, das im Jahr 1999 in den USA vom U.S. Institute of Medicine publiziert wurde, brachte den entscheidenden Umschwung.

Seither gibt es eine Flut entsprechender Studien, die sich mit der Frage befassen, wie man Patientensicherheit nachhaltig verbessern kann. Nach und nach hat man erkannt, was tatsächlich nötig ist, um Patientensicherheit in Spitälern zu etablieren.

Die im Folgenden angesprochenen Instrumente und Strategien wurden in Anlehnung an die Erfahrungen der sogenannten „High Reliability Organisations“ (HROs) für die Medizin „adaptiert und klinisch nutzbar“ gemacht.

Beispiele für die angesprochenen HROs sind in erster Linie die militärische und zivile Luftfahrt, aber auch Bereiche wie Raumfahrt, Petrochemie oder der Formel-1- Rennsport.

Das vorliegende Buch stellt die derzeit besten Strategien zur Etablierung von Patientensicherheit am Krankenbett möglichst einfach und praxisorientiert dar. Sämtliche Empfehlungen basieren auf mehrfach im Krankenhausbetrieb bewährten und hochrangig publizierten Daten sowie unseren eigenen Erfahrungen aus der Betreuung von mehr als 200 Abteilungen im Thema Patientensicherheit.

Während in den letzten 10 Jahre in erster Linie überprüft wurde, ob die in den HROs zur Anwendung kommenden Strategien auf die Medizin übertragbar sind, gilt es jetzt, jene Dinge umzusetzen, deren Praxis-Wirksamkeit sich in vielen Projekten und publizierten Studien erwiesen hat.

Im Sinn der Praxisorientierung wird dabei auf allzu theoretische Ausführungen verzichtet. Unser Buch soll Ihr täglicher Begleiter im Spitalsalltag sein, um Ihnen in kritischen Situationen die besten und sichersten Wege für Ihre Patienten und für Sie aufzuzeigen. Wir wünschen Ihnen viel Freude mit dieser Lektüre. Schreiben Sie uns direkt Ihre Kritik und Ihre Anregungen – wir freuen uns auf Ihre Rückmeldungen.

Die Experten sind sich einig:

Es gibt keine Debatte mehr über die Evidenz sicherheitssteigernder Maßnahmen in der Medizin. Die einzige Frage, die wir uns stellen müssen ist: „Wann beginnen wir damit?“

Univ. Prof. Dr. Norbert Pateisky & Capt. Hans Härting

P.S.: Geschlechtsbezogene Aussagen sind auf Grund der Gleichstellung für beiderlei Geschlecht aufzufassen bzw. auszulegen.

1 Allgemeiner Teil

1.1 Wie alles begann

1.1 Wie alles begann

„Nur wer die Vergangenheit kennt, hat eine Zukunft.“ (Wilhelm von Humboldt)

Dieses oft zitierte Sprichwort hat auch hier seine Gültigkeit. Die folgenden Personen und Ereignisse repräsentieren in chronologischer Reihenfolge in aller Kürze die wichtigsten Ereignisse in der Entwicklung des Themas Patientensicherheit.

Florence Nightingale (1820 – 1910)

Die britische Krankenpflegerin gilt als Begründerin des modernen eigenständigen Pflegeberufs und schrieb in ihren „Notes on Hospitals“ im Jahr 1863 „the very first requirement in a Hospital [is] that it should do the sick no harm“. Ein frommer Wunsch, wie wir heute wissen.

Ernest A. Codman, M.D., (1869 – 1940)

Ernest A. Codman war der erste Arzt, der Morbidität- und Mortalitätskonferenzen einführte. Als er am Massachusetts General Hospital „Kompetenztest“ für Chirurgen einführen wollte, wurde er entlassen. Er gründete daraufhin sein eigenes Spital und war wahrscheinlich der erste Arzt der ein „Ergebnismonitoring“ eingeführt hat. In seinem Buch „A Study in Hospital Efficiency“ publizierte er 1918 seine Daten und Erfahrungen. Bei 337 entlassenen Patienten fand er 123 offensichtliche Fehler.

Heute gibt es einen von der „Joint Commission on Accreditation of Healthcare Organizations“ (JCAHO) etablierten Ernest A. Codman Award für besondere Leistungen im Thema „Outcome-Monitoring“.

Codmans Biographie spiegelt die Haltung der Gesellschaft gegenüber dem Thema Sicherheit in der Medizin wider. Lange Zeit wurden alle, die sich ehrlich dem Thema stellen wollten, als „Nestbeschmutzer“ und „Verunsicherer der Öffentlichkeit“ abgetan und entsprechend behandelt.

1991 erschien im hochangesehenen Fachjournal „New England Journal of Medicine“ die „Harvard Medical Practice Study“. Trotz der dort veröffentlichten Fakten über die Sicherheitsprobleme in der Medizin und deren Kosten sowie der darauffolgenden Titelgeschichte in der „New York Times“ wurden die dargestellten Fakten ignoriert.

1995 schaffte es das Thema in den USA erneut prominent in die Schlagzeilen:

Die Amputation eines falschen BeinesDie Entfernung einer falschen Brust undEine Operation auf der falschen Gehirnseite

waren die Gründe dafür.

Aufgeweckt durch diese Ereignisse, die nur die Spitze eines Eisberges darstellen, wollten immer mehr Menschen wissen, was die Verantwortlichen tun werden, um solche Vorfälle zu verhindern. Noch immer aber war das Thema für die meisten Spitäler und Ärzte kein Grund, sich intensiv darum zu kümmern.

1999 kann als „tipping point“ bezeichnet werden und sollte die bis dato stärksten und nachhaltigsten Veränderungen in der medizinischen Szene einleiten: Das Institute of Medicine (IOM) publizierte den Report „To Err is Human“1. Noch einmal schaffte es das Thema auf die Titelseiten. Laut diesem Report versterben bis zu 98.000 Menschen pro Jahr in amerikanischen Spitälern an vermeidbaren Fehlern. Praktisch alle Fernsehstationen, Journale und Zeitungen hatten damit ein dankbares Thema. Die erstaunlichste Schlussfolgerung des Berichtes war:

Die Ursachen für alle beschriebenen Katastrophen lagen nicht bei fahrlässig handelnden, kriminellen oder schlecht ausgebildeten Ärzten und Pflegepersonen, sondern in schwachen, schlecht organisierten Systemen. Eine Tatsache, die sich in jeder diesbezüglichen Untersuchung wiederfindet.

Zwei Redewendungen haben sich diesbezüglich immer wieder bestätigt:

„Es arbeiten starke Menschen in schwachen Systemen und nicht umgekehrt“.„Jedes System ist so organisiert, dass es genau die Ergebnisse liefert, die es liefert – auch die Schlechten.“

Der IOM-Report1, wie er gerne genannt wird, hatte neben vielen Effekten einen besonders wichtigen: Es war unmöglich geworden, das Sicherheitsproblem der Medizin zu leugnen – wenngleich es bis heute nicht an Versuchen verantwortlicher Personen mangelt.

Allen Anstrengungen zum Trotz ist es bis heute nicht möglich, die sogenannten „Never Events“2 („Vorfälle, die unter Einhaltung einfacher Strategien nahezu gänzlich vermeidbar wären“) wie

Operation der falschen Seite10-fach Dosierung von MedikamentenVerwechselte Blutkonserven oderPatientenverwechslungen

um nur einige zu nennen, verlässlich zu vermeiden.

Diese Tatsache ist nicht weiter verwunderlich, da erst Wege gefunden werden mussten, was am besten wie zu tun ist. Genau das haben die Pioniere der Szene im letzten Jahrzehnt in zahlreichen Studien herauszufinden versucht.

Um es kurz zu machen: Die gleichen Strategien, die auch in anderen Industrien, allen voran in der zivilen Luftfahrt, zum Erfolg geführt haben, helfen auch in der Medizin.

Welche das sind und wie man sie anwendet, ist Gegenstand dieses Buches.

1Kohn LT, Corrigan JM, Donaldson MS (Hrsg.) / Institute of Medicine – To Err Is Human – Building a Safer Health System. National Academy Press 2000

2 Vastag, B. Kenneth W. Kizer, MD, MPH: Health Care Quality Evangelist JAMA 2001;285: 869

2 Luftfahrt und Medizin

2.1 Lehren aus der Luftfahrt

2.1 Lehren aus der Luftfahrt

Alle Hochrisikobranchen, insbesondere jene, von denen essenzielle Gefahren für die Gesellschaft ausgehen, mussten sich, um das wirtschaftliche Überleben zu ermöglichen, intensiv mit Fragen der Sicherheit auseinandersetzen. Auf Atomkraftwerke oder auch Gentechnik triff dies im Besonderen zu. Kommt es dort zu Katastrophen, sind auch künftige Generationen massiv betroffen. Viele Sicherheitsexperten votieren daher für ein Verbot dieser Technologien, da sich Unfälle nie zur Gänze vermeiden lassen werden.

Die Pioniere, wenn es um erfolgreiche Strategien in Sachen Sicherheit geht, sind allerdings in einer anderen Brache zu suchen: In der Luftfahrt – genauer gesagt in der militärischen Luftfahrt. Will man die Hintergründe moderner Sicherheitsstrategien verstehen, ist es essenziell, sich mit der historischen Entwicklung zu befassen:

Schon bald nach dem ersten erfolgreichen Flugversuch mit Motorenkraft durch die Gebrüder Wright am 17. Dezember 1903 über eine Distanz von 540 ft., der exakt 12 Sekunden dauerte3, kam es zu den ersten Unfällen. Oft überlebten die Piloten, da die Flugzeuge sehr niedrig und langsam flogen.

Im ersten Weltkrieg erkannte man sofort die militärische Bedeutung der Luftfahrt und begann diese zu nutzen. Nach den ersten größeren Verlusten waren es die Engländer, die sachliche Ursachenforschung betrieben. Das Erstaunen war groß, als man festgestellt hat, dass in nur 2 % (zwei) der Feind als Absturzursache ermittelt wurde. 6 % gingen auf das Konto der Technik. In sage und schreibe 92 % waren es Fehlleistungen der Piloten die zum Absturz geführt haben.

Von da an wurde vieles unternommen, um „bessere Piloten“ zu bekommen, die weniger Fehler machen sollten.

Beginnend bei den Selektionskriterien, die bislang in erster Linie den familiären Hintergrund und etwaige Beziehungen beinhalteten, wurde eine bessere Ausbildung, mehr Training und technische Verbesserungen der Flugzeuge in Angriff genommen – der durchschlagende Erfolg blieb leider aus.

Paradoxerweise waren es insbesondere die technischen Neuerungen, die statt mehr Sicherheit zu geben, neue Probleme mit sich brachten. Das Fliegen wurde komplizierter und somit stieg die Möglichkeit, Fehler zu machen.

Immer häufiger kann man den Terminus „Pilotenfehler“ in den Unfallberichten des 2. Weltkrieges lesen.

Schließlich war es Lt. Alphonse Chapanis, ein Psychologe der US Air Force, der durch seine Beobachtungen eine Wende im Thema Flugsicherheit eingeleitet hat.4 Piloten und Copiloten bestimmter Flugzeuge (B-17 und B-18) fuhren nach der Landung häufig das Fahrwerk ein, anstatt die Landeklappen einzufahren. Der Grund dafür war bald gefunden: Die Bedienhebel lagen dicht nebeneinander, sahen ident aus und fühlten sich gleich an. Chapanis erkannte, dass es sich beim Verwechseln der Hebel nicht um einen Pilotenfehler, sondern um einen Cockpit-Design Fehler handelte. Der „Pilotenfehler“ war lediglich das Symptom, die Ursache lag am schlechten Design.

Die Lösung des Problems war so einfach wie genial: Die Hebel wurden in ihrer Lage verändert und „taktil“ erkennbar gemacht. Am Ende des Fahrwerkhebels wurde ein kleines Rad angebracht. Schon beim Berühren war bemerkbar, welchen Hebel man bediente. Kindisch? Ganz und gar nicht, sondern wirksam. Heben wir nicht auch Zucker und Salz in unterschiedlichen Gefäßen auf? Chapanis zeigte als einer der ersten auf, dass schlechtes, unfunktionelles Design von Ausrüstung und Arbeitsplätzen eine gefährliche Fehlerquelle darstellt, welches immer wieder zu Katastrophen führt.

Diese Erkenntnisse haben schließlich zu einer heute eigenständigen Wissenschaft geführt: Dem „Human Factor Engineering“. Dabei geht es beispielsweise um die Berücksichtigung menschlicher Leistungsgrenzen bei der Gestaltung von Bedieneinheiten technischer Geräte (Stichwort „Apple“).

Während bereits intensiv und erfolgreich am Design-Problem gearbeitet wurde, blieb das andere, schwerwiegendere Problem „Human Factor“ noch längere Zeit ungelöst. Zwei schwere Unfälle der Zivilluftfahrt waren es schließlich, die das sogenannte „Human Factor“-Problem in den Mittelpunkt rücken ließen:

Der bislang schwerste Unfall der zivilen Luftfahrt ereignete sich 1977 in Teneriffa. Nach einer Verkettung vieler unglücklicher Umstände kollidierten 2 Jumbojets am Boden. Dabei fanden 583 Menschen den Tod.1979 passierte am Portland International Airport ein anderer schwerer Unfall. Zwar kamen dabei „nur“ 10 Menschen ums Leben, die Unfälle hatten aber einen identen auslösenden Faktor – Teamversagen wegen zu steiler Hierarchie!

Begonnen hatte alles 10 Monate vor dem Teneriffa-Unfall, bei der Luftfahrtkonferenz von Istanbul, bei der man beschloss, das Thema „Team“ anzugehen. Der Unfall in Teneriffa war die traurige Bestätigung, dass es dieses Problem wirklich gibt.